Uso de inteligência artificial generativa na administração pública não é mais uma novidade. As iniciativas das organizações públicas — autonomamente ou acompanhada de agentes de mercado — sem empilham aos montes, com logotipos modernosos e jargões sobre o futuro, tecnologia ou avanço.
Não se pretende neste texto negar que a inteligência artificial seja uma tecnologia com enorme potencial de mudança da realidade das organizações públicas, com uma grande capacidade de ampliar as entregas feitas pelos agentes de Estado, com maior velocidade e a custos interessantes (embora não sejam exatamente negligíveis). Impõe-se todavia assumir um ceticismo quanto à soluções fáceis e prontas. De uma maneira geral, especialmente quando se fala de tecnologia e administração pública, a frase do jornalista estadunidense Henry Louis Mencken parece ser uma máxima com elevada taxa de acerto: “para todo problema complexo existe sempre uma solução simples, elegante e completamente errada”.
Examine-se o tema a partir da visão de um advogado público que atua em contencioso: ao receber uma notificação relacionada a um processo judicial cuja atuação fica sob sua responsabilidade, este profissional precisa executar diversas atividades, a depender de seu conteúdo. Cuida-se de uma citação? Se sim: são necessárias informações da autoridade administrativa para contestar ou é apenas matéria de Direito? Qual a unidade administrativa que detém tais informações? (ou que será afetada pela decisão?) É um caso representativo de controvérsia? Existem modelos institucionais ou tese obrigatória para atuação nestes casos? Existem precedentes judiciais favoráveis? Qual a chance de êxito nesta demanda? Respondidas essas questões, de uma forma mais ou menos estruturada, vem a elaboração da peça processual ou documento de atuação correspondente.
Quando se tem em mente que o Estado é, no modelo institucional brasileiro, um grande litigante natural, não se pode deixar de reconhecer que o robô que faz parecer ou petição judicial com um só clique e índices de precisão que alguns fixam em 99,57% (o que quer que isso queira dizer na ciência do Direito) é uma tentação praticamente irresistível para organizações com significativa defasagem de mão de obra e ávidas por uma solução (vendida como) célere e pronta.
E é de se reconhecer que parte desta sede pelas soluções milagrosas é fruto de uma embriaguez tecnológica incentivada pelo mercado; parte, fruto de um diagnóstico equívoco da realidade sobre a dimensão do que realmente impacta o trabalho do dia a dia; e ainda um derradeira parcela, é produto de uma certa derrotabilidade torta: “estão todos fazendo, então tenho que fazer também”.
O erro, entretanto, não está em usar a inteligência artificial em si, mas sim no foco da implementação deste tipo de solução. Não é que essas ferramentas não consigam produzir peças (boas ou não), já que no atual estado da tecnologia elas podem produzir textos com coesão e fluidez textual. A questão é outra: em muitos casos não se deve usar IA, seja pelos riscos embutidos, seja pela inadequação do custo-benefício da solução.
Parte-se do princípio de que a identificação de soluções com inteligência artificial como meio apto a substituir o trabalho intelectual nuclear das carreiras públicas (não raramente, com um verniz de regularidade caracterizado pela assinatura do ocupante do cargo ao final) é fundamentalmente equivocado, especialmente quando se considera os riscos inerentes do emprego deste tipo de tecnologia (“alucinação” [1]. captura tecnológica por determinado fornecedor, preocupações com a proteção de dados).
A pergunta então permanece: onde a IA pode ser empregada no domínio de atuação da advocacia pública?
A inteligência artificial pode ser uma poderosa aliada no ganho de produtividade, para adimplir tarefas de menor ou nenhuma carga intelectual e para auxiliar no trabalho de agentes públicos: classificação de processos (que, por si, permitiria a atuação claramente supervisionada por humanos); preenchimento de informações administrativas relativas aos processos; descoberta de controvérsias repetitivas; a realização de resumos e a integração entre sistemas ou entre bases de conhecimento; e outras tarefas que apareceriam claramente em qualquer mapeamento de fluxos feito dentro de uma instituição pública.
Numa perspectiva mais ampla, indo para além da simples aplicação de modelos de processamento de linguagem natural; mecanismos de IA aplicados à advocacia pública podem mapear em que termos se apresentam os litígios, contemplando variáveis como local, sujeitos envolvidos, tipologia da queixa. Afinal, a demanda judicial expressa em última análise, uma insatisfação para com o agir da Administração, que pode ter a esta última escapado, seja por miopia institucional, seja por insuficiência de mecanismos para a diagnose, seja ainda pela simples circunstância de, num ambiente que incentiva a judicialização, tenha o cidadão se dirigido diretamente ao Judiciário para manifestar seu inconformismo.
Verdade seja dita que diversos dos problemas que consomem tempo no dia a dia sequer precisam de IA generativa ou mesmo IA para serem agilizados ou eliminados. Caminho mais seguro seria a superação da não rara necessidade de trabalhar com dois ou três sistemas diferentes sem integração; a naturalização do uso de ferramentas ou funções disponíveis em sistemas institucionais já existentes (muitas vezes não utilizadas por falta de treinamento ou de “confiança”); e ainda a renúncia às práticas obsoletas de duplo ou triplo controle [2].
Mas onde reside a diferença substancial entre a realidade presente e as maravilhas da proposição da IA? Porque aceitamos o trabalho de um assessor humano ou um estagiário e não deveríamos aceitar o de uma máquina?
A primeira parte da resposta reside na necessidade de se enxergar uma cadeia clara de responsabilidade, eis que esta imputação subjetiva “é dimensão fundamental daquilo que entendemos por Direito” [3]. E não se pode partir do simples pressuposto de que a responsabilidade é simplesmente do agente signatário final da peça. Se levarmos em conta apenas os riscos decorrentes dos aspectos cognitivos comportamentais da interação humano-máquina e a ilusão de alguma neutralidade das decisões tomadas pela IA [4], já se teria fundamento pragmático suficiente para impor controles mais severos ao uso desta ferramenta. Mas é possível ir além: se a administração pública emprega um volume significativo de recursos na construção de um agente digital destinado a ajudar no trabalho de determinado agente humano, parece absolutamente natural o depósito de confiança institucional e pessoal nesta ferramenta.
A segunda parte da resposta a esta pergunta, que talvez escape do óbvio, se fundamenta no fato de que a IA (especialmente as IAs generativas) tem um campo desconhecido que não encontra compatibilidade com um Estado democrático. Essa objeção já foi levantada em alguns círculos, não raramente sendo apontada como “filosófica” ou “desconsiderando a realidade”.
Ainda que a crítica seja, ao menos em parte, procedente (afinal a objeção tem profundo aspecto valorativo), persiste a ideia de que o pragmatismo para o uso de ferramentas tecnológicas, especialmente na gestão pública, tem que levar em conta as nuances negativas desta tecnologia (com uma adequada análise de risco); a existência de um regramento principiológico e valorativo sobre as atividades estatais (ainda que ausente norma específica sobre a IA na administração pública) e a necessidade de reconhecer o papel intrinsecamente instrumental da tecnologia.
A tecnologia pode ser uma ferramenta poderosa, mas ela não substitui o julgamento, a ética e a sensibilidade humana, que não se confundem como a habilidade — hoje, compartilhada com as máquinas — de traduzir os julgamentos humanos em produtos textuais. Em última análise, pensar sobre o uso da inteligência artificial na administração pública nos leva a refletir sobre o papel do ser humano na tomada de decisões e na presença da empatia como valor no Estado Social [5].
[1] A expressão alucinação tenta arrefecer a percepção do risco oferecido pela tecnologia com uma palavra empática, na tentativa de humanizar as ferramentas (ou de reduzir a responsabilidade de quem lucra com ela). Quando uma ponte cai, por exemplo, não se vê falar em “alucinação” do concreto ou da estrutura. A expressão tradicional para nomear os desvios das obras de engenharia humanas parece muito mais adequada: erro.
[2] Quantos advogados públicos que tem um sistema digital para controle da carga de trabalho à disposição, mas insistem em manter uma planilha de Excel de controle em paralelo?
[3] GRECO, Luís. Poder de julgar sem responsabilidade: a impossibilidade jurídica do juiz-robô. 2020, p. 43-44.
[4] OSOBA, Osonde; WELSER IV, William. An intelligence in our image. Santa Mônica: RAND corporation, 2017. p. 11.
[5] RANCHORDAS, Sofia. Empathy in the Digital Administrative State. SSRN Electronic Journal, 2021. Disponível em: <https://www.ssrn.com/abstract=3946487>. Acesso em: 11 out. 2022. p. 6.
—
O post Nem toda tecnologia é lícita, ainda que convenha apareceu primeiro em Consultor Jurídico.