2025: um ano de conflitos, complexidades e incertezas na área de compliance

Todos os anos, na primeira quinzena de janeiro, uma das maiores especialistas do mundo em programas de compliance antecipa ao mercado, com base em suas experiências, as tendências e imperativos para o ano que está por vir.

Este ano não foi diferente. No último dia 15, Hui Chen, cofundadora da CED Advisors, LLC e primeira consultora de compliance da história do Departamento de Justiça norte-americano, publicou artigo concluindo que 2025 será um ano de “conflitos, complexidades e incertezas” (veja texto em inglês aqui).

O que realmente chama a atenção é o que já estamos vivenciando no Brasil: a inteligência artificial (IA) tem desempenhado um novo e importante papel na gestão das áreas de compliance. E isso vale tanto para a esfera privada, quanto para a esfera pública.

Um bom exemplo disso é a ferramenta de IA desenvolvida pela Controladoria-Geral da União (CGU) em 2015. Segundo número apresentado pelo ministro Vinicius de Carvalho em 25 de junho de 2024, até aquela data a Alice (acrônimo de Analisador de Licitações, Contratos e Editais) trouxe uma “economia de R$ 11 bilhões em gastos públicos em licitações suspeitas, que foram suspensas ou canceladas após indícios de irregularidades” (veja reportagem aqui).

O número impressiona e revela que o mundo corporativo está sendo cada vez mais monitorado por robôs operados por servidores públicos que, até recentemente, não recebiam qualquer tipo de orientação sobre o uso seguro, ético e responsável de ferramentas de IA Generativa no exercício de suas atribuições.

Para mitigar o risco do mau uso dessa poderosa tecnologia, no  dia 6 de janeiro, a CGU publicou a Portaria Normativa nº 193 que aprovou o Guia de Uso Responsável de Ferramentas de Inteligência Artificial Generativa (veja o guia aqui).

Leia também:  Caso 123 Milhas: Lei 5.768/71 disciplina captação de poupança popular e garantiria consumidor

Em suma, o guia orienta que a utilização de IA deve sempre manter o controle humano sobre os resultados. A tecnologia deve ser vista como uma ferramenta auxiliar, e não como substituta da análise ou julgamento humano.

Afinal, os servidores públicos são responsáveis pelas informações geradas pelas ferramentas de IA. Isso inclui a revisão e validação de todo o conteúdo antes de utilizá-lo, garantindo que esteja em conformidade com a legislação e com os objetivos institucionais.

Em relação à proteção de dados, é essencial respeitar a privacidade dos cidadãos e evitar o uso de dados protegidos por sigilo em ferramentas públicas de IA, em conformidade com a Lei Geral de Proteção de Dados (LGPD).

O uso de IA pelos servidores da CGU deve observar os princípios da administração pública, entre eles, legalidade, impessoalidade, moralidade, publicidade e eficiência, conforme previsto no artigo 37 da Constituição.

Por fim, o guia orienta que a IA deve ser usada para aprimorar a eficiência dos processos administrativos, e o cidadão deve ser informado sobre como essas ferramentas estão sendo empregadas.

De acordo com o guia, a IA generativa somente deve ser aplicada na elaboração de documentos, na revisão e tradução de textos, em resumos e análises, na organização e classificação de dados, na consulta a normas e regulamentos e na análise de dados em massa.

Existem recomendações claras para que os servidores protejam suas credenciais, mantenham a confidencialidade das informações sigilosas e tenham cautela com links e downloads que podem conter ameaças como phishing ou malware.

Momento de agir com cautela

O uso de ferramentas de IA generativa na administração pública representa um avanço tecnológico com potencial para transformar a maneira como serviços públicos são prestados. E isso também vale para as empresas privadas.

Leia também:  Após efetivação da tutela cautelar antecedente, como deve se contar prazo do pedido principal?

De acordo com Hui Chen, existem muitas oportunidades, como na “gestão de risco de terceiros, por exemplo, que continua a ser um processo manual e repetitivo que depende de informações autorrelatadas em muitas empresas”. Ela recomenda a combinação de “informações internas existentes sobre terceiros” e “informações publicamente disponíveis para criar uma avaliação de risco contínua e monitorar vários tipos de risco”. Neste caso, as ferramentas de IA “podem não apenas ajudar a reduzir carga de trabalho e confusão, mas também aumentam a eficácia na detecção e remediação de riscos”.

No entanto, essa transformação deve ser conduzida com responsabilidade, ética e transparência. Hui Chen faz a seguinte provocação em seu artigo: será que as ferramentas de IA deveriam analisar as comunicações entre funcionários e, mais, destes com terceiros? Se a resposta é sim, em que medida isso deveria acontecer?

Para a renomada especialista, “2025 é um momento para imaginar com ousadia e proceder com cautela na implementação de IA nos programas de compliance”.

Com a adoção de boas práticas e a conscientização sobre os riscos e benefícios da IA em ferramentas de compliance, como bem fez a CGU ao lançar um guia próprio para isso, é possível aliar inovação e segurança, promovendo um ambiente de negócios mais eficiente, íntegro e eficiente para todos.

O post 2025: um ano de conflitos, complexidades e incertezas na área de compliance apareceu primeiro em Consultor Jurídico.