Todos os anos, na primeira quinzena de janeiro, uma das maiores especialistas do mundo em programas de compliance antecipa ao mercado, com base em suas experiências, as tendências e imperativos para o ano que está por vir.
Este ano não foi diferente. No último dia 15, Hui Chen, cofundadora da CED Advisors, LLC e primeira consultora de compliance da história do Departamento de Justiça norte-americano, publicou artigo concluindo que 2025 será um ano de “conflitos, complexidades e incertezas” (veja texto em inglês aqui).
O que realmente chama a atenção é o que já estamos vivenciando no Brasil: a inteligência artificial (IA) tem desempenhado um novo e importante papel na gestão das áreas de compliance. E isso vale tanto para a esfera privada, quanto para a esfera pública.
Um bom exemplo disso é a ferramenta de IA desenvolvida pela Controladoria-Geral da União (CGU) em 2015. Segundo número apresentado pelo ministro Vinicius de Carvalho em 25 de junho de 2024, até aquela data a Alice (acrônimo de Analisador de Licitações, Contratos e Editais) trouxe uma “economia de R$ 11 bilhões em gastos públicos em licitações suspeitas, que foram suspensas ou canceladas após indícios de irregularidades” (veja reportagem aqui).
O número impressiona e revela que o mundo corporativo está sendo cada vez mais monitorado por robôs operados por servidores públicos que, até recentemente, não recebiam qualquer tipo de orientação sobre o uso seguro, ético e responsável de ferramentas de IA Generativa no exercício de suas atribuições.
Para mitigar o risco do mau uso dessa poderosa tecnologia, no dia 6 de janeiro, a CGU publicou a Portaria Normativa nº 193 que aprovou o Guia de Uso Responsável de Ferramentas de Inteligência Artificial Generativa (veja o guia aqui).
Em suma, o guia orienta que a utilização de IA deve sempre manter o controle humano sobre os resultados. A tecnologia deve ser vista como uma ferramenta auxiliar, e não como substituta da análise ou julgamento humano.
Afinal, os servidores públicos são responsáveis pelas informações geradas pelas ferramentas de IA. Isso inclui a revisão e validação de todo o conteúdo antes de utilizá-lo, garantindo que esteja em conformidade com a legislação e com os objetivos institucionais.
Em relação à proteção de dados, é essencial respeitar a privacidade dos cidadãos e evitar o uso de dados protegidos por sigilo em ferramentas públicas de IA, em conformidade com a Lei Geral de Proteção de Dados (LGPD).
O uso de IA pelos servidores da CGU deve observar os princípios da administração pública, entre eles, legalidade, impessoalidade, moralidade, publicidade e eficiência, conforme previsto no artigo 37 da Constituição.
Por fim, o guia orienta que a IA deve ser usada para aprimorar a eficiência dos processos administrativos, e o cidadão deve ser informado sobre como essas ferramentas estão sendo empregadas.
De acordo com o guia, a IA generativa somente deve ser aplicada na elaboração de documentos, na revisão e tradução de textos, em resumos e análises, na organização e classificação de dados, na consulta a normas e regulamentos e na análise de dados em massa.
Existem recomendações claras para que os servidores protejam suas credenciais, mantenham a confidencialidade das informações sigilosas e tenham cautela com links e downloads que podem conter ameaças como phishing ou malware.
Momento de agir com cautela
O uso de ferramentas de IA generativa na administração pública representa um avanço tecnológico com potencial para transformar a maneira como serviços públicos são prestados. E isso também vale para as empresas privadas.
De acordo com Hui Chen, existem muitas oportunidades, como na “gestão de risco de terceiros, por exemplo, que continua a ser um processo manual e repetitivo que depende de informações autorrelatadas em muitas empresas”. Ela recomenda a combinação de “informações internas existentes sobre terceiros” e “informações publicamente disponíveis para criar uma avaliação de risco contínua e monitorar vários tipos de risco”. Neste caso, as ferramentas de IA “podem não apenas ajudar a reduzir carga de trabalho e confusão, mas também aumentam a eficácia na detecção e remediação de riscos”.
No entanto, essa transformação deve ser conduzida com responsabilidade, ética e transparência. Hui Chen faz a seguinte provocação em seu artigo: será que as ferramentas de IA deveriam analisar as comunicações entre funcionários e, mais, destes com terceiros? Se a resposta é sim, em que medida isso deveria acontecer?
Para a renomada especialista, “2025 é um momento para imaginar com ousadia e proceder com cautela na implementação de IA nos programas de compliance”.
Com a adoção de boas práticas e a conscientização sobre os riscos e benefícios da IA em ferramentas de compliance, como bem fez a CGU ao lançar um guia próprio para isso, é possível aliar inovação e segurança, promovendo um ambiente de negócios mais eficiente, íntegro e eficiente para todos.
—
O post 2025: um ano de conflitos, complexidades e incertezas na área de compliance apareceu primeiro em Consultor Jurídico.