O 7º Congresso Internacional do IPLD promoveu um dos debates mais atuais e desafiadores do campo da integridade: “Inteligência Artificial na PLD-FT – algoritmos, ética e supervisão humana”. Moderado por Rafael Ximenes, à época, diretor de Supervisão do COAF, o painel contou com a participação de Wellington Omena, head de Data e Analytics do Santander, Silvia Rodrigues, diretora de Risco e PLD do Facebook Pagamentos, e Patrícia Alemani, delegada da Polícia Civil do Rio de Janeiro. Na oportunidade, os especialistas discutiram a aplicação responsável da inteligência artificial nos processos de PLD-FT, destacando os limites regulatórios, os riscos éticos e o papel insubstituível do fator humano nesse contexto analítico. IA generativa: novidade ou melhoria? Embora as IAs generativas estejam em alta, elas não são completamente novas — representam uma evolução de algoritmos voltados ao ramo do machine learning, já utilizado no setor financeiro e de compliance. No entanto, é evidente que os novos mecanismos se enquadram em evoluções incrementais, facilitando não somente a obtenção de dados, mas também sua análise. A chave, segundo Wellington Omena, é escolher a ferramenta certa para o problema certo: “Nem tudo precisa de IA generativa”, explicou. Para sistemas já estruturados e previsões baseadas em parâmetros reais, os algoritmos tradicionais ainda são mais indicados. No entanto, quando se deseja criar algo, como textos, imagens ou resumos, as IAs generativas tornam-se relevantes e uma ferramenta potencial na realidade corporativa. A supervisão humana é indispensável? De acordo com Silvia Rodrigues, é preciso compreender e desmistificar a IA. Para ela, é um erro comum confundir automação, machine learning e IA generativa — especialmente quando se trata de PLD-FT —, devido aos riscos significativos atrelados ao uso da ferramenta, considerando a sensibilidade dos dados tratados. O uso indiscriminado pode gerar impactos sociais e criminais. Há, ainda, destaque para os limites impostos pela regulação, como as do Banco Central do Brasil, que exigem a supervisão humana em etapas decisivas, como na análise e na comunicação. “A tecnologia pode indicar um caminho, mas a decisão final, especialmente quando envolve consequências jurídicas, deve ser tomada por pessoas”, afirmou. “A proteção da informação exige cercas tecnológicas e governança interna.” Uso na segurança pública: oportunidades e cuidados Para a delegada Patrícia Alemani, o uso dos dados obtidos por meio da IA precisa seguir protocolos rigorosos, garantindo a rastreabilidade e a validade jurídica das informações apresentadas. Na prática, ela relatou experiências de monitoramento de grandes eventos no Rio de Janeiro, como shows e o réveillon em Copacabana, onde câmeras com reconhecimento facial e análise de padrões de movimentação ajudaram a prevenir incidentes graves. No entanto, ela destacou que “não se trata apenas de capturar rostos, mas de compreender o contexto, respeitar os direitos e garantir a confiabilidade dos processos”. PLDFT e tecnologia: não é sobre a ferramenta, mas sim, sobre a identificação assertiva do problema Uma provocação comum ao longo do painel foi: antes de escolher uma ferramenta tecnológica, é preciso compreender o problema. É comum que sejam aplicados algoritmos complexos sem que antes haja a definição assertiva dos alertas e dos indicadores relevantes ao produto e ao contexto. A escolha da melhor abordagem depende da qualidade dos dados disponíveis, do tipo de risco que se deseja mitigar e da estrutura analítica da instituição. Em alguns casos, classificadores não supervisionados são suficientes; em outros, o uso de deep learning pode ser mais apropriado — trata-se de um ramo do aprendizado de máquina (machine learning) baseado em redes neurais artificiais com múltiplas camadas, que permite à IA identificar padrões complexos e extrair representações de alto nível a partir de grandes volumes de dados não estruturados. Ética, governança e responsabilidade: pilares do bom uso O Conselho de Controle de Atividades Financeiras – COAF publicou recentemente uma norma interna para regular o uso de IAG (Inteligência Artificial Generativa): a Portaria COAF nº 4, de 20/03/2025. O documento reforça que os dados sigilosos, especialmente aqueles no âmbito da inteligência financeira, não devem ser processados por ferramentas externas e abertas. A medida tem como objetivo garantir o controle, a segurança e a integridade da informação. A pauta abordada reforça que a IA deve ser vista como uma ferramenta — e não como uma solução mágica —, cujo uso responsável exige o entendimento dos limites legais, dos riscos operacionais e, principalmente, do papel da análise humana na tomada de decisão. Caminhos para o futuro: colaboração e preparo são as chaves estratégicas Nesse sentido, os especialistas concordam que o futuro da ferramenta no âmbito da PLD-FT exige profissionais preparados para interpretar dados e aplicar inteligência contextual, promovendo a colaboração mútua entre as áreas técnicas, jurídicas e de produto. Além disso, é necessário investir em governança e supervisão ética, com foco no desenvolvimento de soluções personalizadas para os riscos inerentes a cada instituição. Como provocou Silvia Rodrigues: “Antes de decidir qual algoritmo usar, entenda o seu produto, os seus riscos e o que realmente precisa ser monitorado.”