Utilização Descontrolada da Inteligência Artificial na Relação entre o Cidadão e a Autoridade Administrativa
- Uma das principais razões subjacentes ao aumento do dever de justiça imposto às autoridades administrativas é a dramática disparidade de poder que existe entre a autoridade e o cidadão:
"O indivíduo e o governo não são direitos iguais, não são iguais ao poder, e não são iguais em estatuto. [...] O governo detém nas suas mãos muito poder, muito poder e muita riqueza, até que o indivíduo – por maior que seja o seu poder, poder e riqueza – não se comparará a ele nem se assemelhará a ele. [...] O dever de justiça que o governo tem para com os indivíduos da sociedade deriva do poder excessivo que o governo detém, do poder do governo, porque é grande. O dever de justiça destina-se a servir – juntamente com outros meios – como um travão ao poder e uma restrição ao poder" (HCJ 164/97 Contram in Tax Appeal v. Ministry of Finance, Customs and VAT Division, IsrSC 52(1) 289, 367-368 (1998); ver também ibid., pp. 317-318; ver também: Yitzhak Zamir, The Administrative Authority, vol. 3, 1634 (2014); Dafna Barak-Erez, Direito Administrativo, Vol. 1, 276 (2010)).
- Esta justificação implica que o uso descontrolado da inteligência artificial, como neste caso, é ainda mais grave quando ocorre na relação direta entre a autoridade e o cidadão. Assim, quando tal uso é feito no âmbito de um processo judicial, existem duas partes que mediam, pelo menos até certo ponto, as disparidades de poder entre as partes – o advogado do cidadão e o tribunal. No contexto em questão, a importância disto é que, mesmo que tal utilização de inteligência artificial constitua uma violação grave de um dever processual imposto às partes, conforme detalhado acima, a probabilidade de que isso tenha um impacto real no desfecho do processo não é relativamente elevada. Isto porque se pode assumir, na primeira fase, que o advogado prestará atenção à questão do engano – ou seja, aquelas referências e alegações que têm origem não no direito, mas nas 'alucinações' da inteligência artificial – e levará a questão à atenção do tribunal; E é certamente razoável que, na segunda fase, mesmo que o advogado 'ignore' essas falhas, o tribunal volte a sua atenção para elas e decida de acordo com a lei, sem que essa enganação afete a sua decisão.
- Em contraste, na relação direta entre a autoridade e o cidadão, estas suposições relativamente às barreiras que podem limitar o impacto prático do uso descontrolado da inteligência artificial não existem. Quando um cidadão recebe uma decisão de uma autoridade administrativa que parece fundamentada e baseada em razões legais e referências, na maioria dos casos, ele não consegue refletir sobre ela, e certamente não descobre por si próprio que essas razões não passam de produto da imaginação de um sistema de inteligência artificial. Assim, ao contrário do caso do uso descontrolado de inteligência artificial no âmbito de um processo judicial, na interação direta entre a autoridade e o cidadão, tal utilização pode certamente ter um impacto real na situação do cidadão. Na verdade, à luz do exposto, é razoável assumir que, na maioria dos casos, a decisão da Autoridade permanecerá em vigor, e o cidadão a aceitará, mesmo sem saber que foi prejudicado. A probabilidade disto é inversamente proporcional ao nível de consciência, capacidade e recursos do cidadão para atacar a decisão da autoridade, pelo que são os cidadãos com menos consciência e recursos que se espera que sejam mais prejudicados.
- Isto significa que o uso descontrolado da inteligência artificial pela autoridade nas suas relações diretas com o cidadão é de grau excessivo e especial de severidade. Isto para além do facto de que condutas como esta implicam também uma violação de deveres adicionais impostos às autoridades administrativas. Assim, por exemplo, uma decisão baseada maioritariamente em 'alucinações' de inteligência artificial é uma decisão muito difícil de ver como uma decisão que cumpre o dever de raciocinar (para a dificuldade geral em explicar e raciocinar, relativamente a decisões que são produto de um sistema de inteligência artificial, veja-se, por exemplo: Hofit Wasserman-Rosen, "To It and Its Thorn: The Right to Informationality of Artificial Intelligence Systems", Mishpat, Society and Culture, 8, 215 (2025)).
- Além disso, e além do acima, há razões para acreditar que tal decisão é, regra geral, arbitrária. Como bem disse o juiz Shamgar, arbitrariedade é "um ato realizado por uma autoridade, sem ter em conta os factos e razões que ela apresentam, confiando unicamente no seu poder governamental. Não é a fraude que domina o ato de arbitrariedade, mas sim a falta de consideração e falta de atenção" (Tribunal Superior de Justiça 376/81 Lugasi v. Ministro das Comunicações, IsrSC 36(2) 449, 460 (1981); ver também: Recurso de Petição/Reclamação Administrativa 1930/22 Jerusalem Open House for Pride and Tolerance v. Município de Jerusalém, parágrafo 39 do acórdão do meu colega, Juiz Grosskopf [Nevo] (11 de outubro de 2023); Para uma definição semelhante de arbitrariedade, que se refere à conduta das autoridades de execução no domínio do direito penal, ver: Criminal Appeals Authority 1611/16 Estado de Israel v. Vardi, parágrafo 71 e as referências aí [Nevo] (31 de outubro de 2018)). É claro que, neste momento, uma decisão que se baseia 'cegamente' num sistema de inteligência artificial enquadra-se no âmbito de um conjunto de decisões dadas sem atenção ou consideração das considerações e dados relevantes, e, de facto, é uma decisão que pode até ser dita que, em essência, não foi exercida qualquer discricionariedade em relação a ela; Por isso, cai facilmente sob a proteção da causa da arbitrariedade. Isto é ainda mais reforçado, tendo em conta a estreita ligação entre arbitrariedade e falta de raciocínio (para isto, ver, por exemplo: Tribunal Superior de Justiça 6728/06 Ometz (Cidadãos para a Boa Administração e Justiça Social) v. Primeiro-Ministro de Israel, parágrafos 14-18 da opinião do Juiz Naor [Nevo] (30 de novembro de 2006); Tribunal Superior de Justiça 143/56 Ahjij v. Supervisor de Tráfego, IsrSC 11 370, 372 (1957)).
Na minha opinião, podem ser retiradas conclusões práticas a partir do acima em dois níveis.
- Primeiro, o aspeto dos deveres positivos que se aplicam às autoridades administrativas, no que diz respeito à utilização da inteligência artificial. Obviamente, este não é o local para uma discussão exaustiva – nem sequer perto disso – sobre esta questão. Não nos esqueçamos de que estamos a lidar com um recurso relacionado com despesas legais. No entanto, parece-me que é possível extrair deste caso algumas perspetivas preliminares sobre este assunto, com uma perspetiva prospectiva.
- Uma perceção é que, enquanto o nível de fiabilidade dos sistemas de inteligência artificial estiver em dúvida, uma vez que continuam a ser 'delirantes' por vezes, não é possível aceitar uma situação em que uma autoridade administrativa se afaste da sua discricionariedade e baseie a sua decisão exclusivamente, ou quase exclusivamente, e sem qualquer controlo, na produção desses sistemas (a exigência de envolvimento humano em certos processos de tomada de decisão, com ênfase nas decisões das autoridades administrativas, É frequentemente referido na literatura como um requisito para o "humano no ciclo" – um requisito que pode aplicar-se tanto na fase de tomada de decisão como nas fases iniciais do desenho de algoritmos e treino de sistemas; neste último contexto, ver: Niva Elkin-Koren e Maayan Perl, "Inteligência Artificial: Tecnologia Disruptiva no Direito Israelita," Mishpat, Society and Culture 8, n.º 11, 22 (2025)). Isto é especialmente verdade quando se trata de uma decisão substantiva, que tem um impacto real no cidadão (para uma análise de vários aspetos desta questão, com as suas muitas complexidades e os muitos desafios que levanta, veja-se, por exemplo: Rebecca Crootof, Margot E. Kaminski & W. Nicholson Price II, Humanos no Loop, 76 L. Rev. 429 (2023); Ryan Calo & Danielle Keats Citron, O Estado Administrativo Automatizado: Uma Crise de Legitimidade, 70 Emory L. J. 797 (2021); Amit Haim, O Estado Administrativo e a Inteligência Artificial: Rumo a uma Lei Interna dos Algoritmos Administrativos, 14 UC Irvine L. Rev. 103 (2024); Ministério da Inovação, Ciência e Tecnologia e Princípios de Política, Regulamentação e Ética no Campo da Inteligência Artificial 53-59 (2023) (doravante: Documento de Política e Regulamentação na Área da Inteligência Artificial)).
- Assim, mesmo que, no âmbito da formulação e redação da decisão, os responsáveis administrativos sejam assistidos por um sistema de inteligência artificial – e, como referido, não há nada de errado nisso em si – devem monitorizar, examinar e verificar. Isto é verdade tanto no que diz respeito ao exercício da discricionariedade quanto ao seu mérito, como ao raciocínio subjacente à decisão (saliento que o acima acima não constitui uma expressão de posição sobre a questão de se, mesmo em contextos onde o nível de fiabilidade dos sistemas de inteligência artificial será muito elevado, e até superior ao dos profissionais humanos, as autoridades administrativas poderão tomar decisões sem qualquer intervenção humana, especialmente em matérias que tenham um impacto significativo na vida dos cidadãos; outra visão para o futuro).
- Outro aspeto que pode ser deduzido da discussão acima referida e das circunstâncias do caso relaciona-se com o requisito de divulgação relativo ao uso da inteligência artificial. Tal requisito ainda não foi gravado no nosso sistema jurídico, mas parece que pode certamente haver lógica em estabelecer tal dever, pelo menos em certos contextos, onde o impacto no cidadão pode ser grande. Uma razão central para isto é que tal divulgação pode ajudar um pouco a reduzir as disparidades de poder que referi acima, de modo que o cidadão cuja decisão foi tomada usando inteligência artificial possa pelo menos estar ciente disto, o que melhorará ligeiramente a sua capacidade de planear os seus passos em conformidade, examinar a correção da decisão e talvez até conseguir um aumento nela nos percursos apropriados (ver e comparar: Documento de Política e Regulamentação no Campo da Inteligência Artificial, pp. 63-66, 85-86; Para uma análise abrangente da questão da divulgação e transparência, no contexto do uso da inteligência artificial pelas autoridades, ver: Dalit Kan-Dror Feldman, Or Sadan, Racheli Edri-Hulta e Uri Szold, "Transparência na Era da Inteligência Artificial: Direito Israelita," Mishpat, Society and Culture, 8 (2025)). Em todo o caso, é claro que não estou a colocar rebites, e estas palavras são ditas sob a forma de reflexos, com um olhar voltado para a frente.
- O segundo nível sobre o qual se podem tirar conclusões práticas da discussão acima relaciona-se com o âmbito da revisão judicial e a questão do recurso. Como é bem sabido, o âmbito da revisão judicial da ação de uma autoridade administrativa, bem como o remédio concedido para um defeito que nela ocorreu, estão intimamente relacionados com a natureza e a natureza do defeito. Na minha opinião, o uso descontrolado da inteligência artificial pela autoridade no âmbito da sua relação direta com o cidadão abre a porta a uma revisão judicial mais rigorosa e rigorosa, podendo justificar, regra geral, uma solução significativa. A primeira razão para isto reside na extrema gravidade deste comportamento, conforme detalhado acima. A segunda razão reside no facto de, como explicado, o uso descontrolado da inteligência artificial aumentar a suspeita de que existiram falhas no processo de tomada de decisão, e que sofre de falta de raciocínio, arbitrariedade e outras desgraças. Uma terceira razão, que deriva diretamente da análise das disparidades de poder entre as partes, encontra-se nas considerações do comportamento direcional. Como esclareci, é razoável assumir que, na maioria dos casos, uma pessoa da comunidade não estará ciente de que foi tomada uma decisão no seu caso baseada num sistema de inteligência artificial, incluindo várias enganos e 'alucinações'; Em todo o caso, em casos como este, a decisão não será enquadrada na categoria de revisão judicial e permanecerá em vigor. Isto significa que existe a preocupação de que a autoridade não seja suficientemente cuidadosa ao abster-se de tal conduta, tendo em conta a baixa probabilidade de a decisão estar sujeita a um mecanismo de controlo externo (esta situação pode ser vista como um caso de 'falta de dissuasão'). Assim, para garantir que as autoridades administrativas adotem métodos adequados de conduta neste contexto, e para evitar o uso descontrolado da inteligência artificial nas suas relações com o cidadão, devem saber que as suas decisões estarão sujeitas a uma revisão judicial meticulosa e rigorosa, que poderá também acompanhar recursos significativos.
- Do geral ao específico: O município fez uso descontrolado – para não falar de imprudente – de inteligência artificial, tanto na sua relação direta com o pai do recorrente, em resposta ao seu pedido, como no âmbito do processo judicial. Isto é em grande escala, sem qualquer controlo efetivo, e numa questão muito fundamental para o recorrente e para o seu pai – o direito de transportar o menor, um aluno de educação especial, para a escola. Como resultado, havia muitas falhas substanciais nos documentos em seu nome – tanto nas respostas ao cidadão como nos documentos judiciais que apresentava ao tribunal. Nestas circunstâncias, e tendo em conta todas as considerações que se aplicam a tal caso, como detalhado acima, considero que devemos transmitir uma mensagem clara e clara, e impor ao município despesas elevadas.
Notas Finais
- Antes de concluir, 3 comentários. Em primeiro lugar, para além da gravidade da conduta do município e das preocupações que surgem devido ao uso descontrolado de inteligência artificial pelas autoridades administrativas, devemos ter cuidado para não 'derramar o bebé com a água' (ver e comparar: O caso Anónimo, parágrafo 26; "Para corrigir a tua coluna, e não para me distorceres" (Bavli, Bava Batra 169:2) – para corrigir (para melhorar) a tua coluna, e não para distorcer (estragar)). A utilização da inteligência artificial pelas autoridades administrativas deverá trazer muitos benefícios ao nosso mundo e contribuir de várias formas para melhorar e agilizar o funcionamento dessas autoridades, ao mesmo tempo que melhora o serviço prestado ao cidadão. A mensagem, portanto, não é que a autoridade deva abster-se de usar sistemas de inteligência artificial; O oposto é verdade. Tudo o que vou dizer é que este uso deve ser feito com qualquer bom senso e discrição, consciente das limitações atuais da tecnologia e mantendo a bússola, segundo a qual tal uso é feito em benefício do cidadão e protegendo os seus direitos.
- Em segundo lugar, em muitos casos estamos conscientes do conhecimento, como já disse no passado, de que "a lei seguiu preguiçosamente as inovações do mundo, e que a legislação não acompanha o ritmo do progresso da ciência e das suas aplicações" (Petição de Apelação/Reclamação Administrativa 3782/12 Comandante do Distrito de Telavive-Jaffa da Polícia de Israel v. Associação de Internet de Israel, parágrafo 23 [Nevo] (24 de março de 2013)). Isto é especialmente relevante quando se trata de inteligência artificial – uma tecnologia que está a desenvolver-se a um ritmo recorde, que tem um impacto significativo no nosso mundo e pode provocar mudanças profundas. Esta tecnologia, tendo em conta o poder e a amplitude dos seus efeitos, já levanta consideráveis desafios a nível jurídico e espera-se que continue a apresentar-nos novos desafios cada vez mais complexos. As autoridades competentes – tanto o legislativo como o executivo – fariam bem em abordar estes desafios, especialmente aqueles mais urgentes (como a questão das obrigações que se aplicam às autoridades administrativas durante a utilização da inteligência artificial), e em desenhar, numa perspetiva ampla, as ferramentas adequadas para lidar com esses desafios.
- Em terceiro lugar, na resposta apresentada pelo município, o advogado do município argumentou que "mesmo que tenha havido um erro administrativo infeliz numa citação ou noutra das petições", isso aconteceu "à luz do [...] estagiários" (no sentido de "um estudante enganado"; sobre isto ver, por exemplo, Rav Menashe Klein, Responsa Mishneh Hilkhot 12, parágrafo 34). Este argumento teria sido melhor se não tivesse sido feito de todo. Mesmo que isto seja verdade ao nível factual – e para evitar dúvidas, não determino nem insinuo que seja realmente o caso – isso não eleva nem diminui o caso. É claro que a responsabilidade pelo que está escrito no documento apresentado ao tribunal recai sobre o advogado que o assinou.
De forma mais geral, a tentativa de atribuir a responsabilidade pelos erros em documentos judiciais apresentados por um advogado sobre outras partes – sejam estagiários subordinados ao advogado de coaching ou sistemas tecnológicos de inteligência artificial – é uma tentativa desprezível que deve ser rejeitada de imediato. Como profissional, o advogado é pessoalmente responsável pela qualidade do produto que produz, e não cumpre o seu dever confiando em outra pessoa – um ser humano ou uma inteligência de máquina.
- Em resumo: Sugiro, portanto, ao meu colega que aceitemos o recurso e obriguemos o município a pagar despesas no valor de NIS 30.000 – que se referem tanto ao processo em nosso encontro como ao processo que teve lugar no Tribunal Distrital, e especialmente ao processo administrativo.
Hesitei, até decidir, desta vez, abster-me de impor despesas pessoais ao procurador do município, em virtude de Secção 151(c) para os regulamentos; No mínimo, mencionarei a própria existência desta possibilidade.