23/07/2024 Atualizado em : 20/08/2024

O impacto da Inteligência Artificial na conformidade regulatória e nos processos de PLD-FTP 

23/07/2024 Atualizado em : 20/08/2024

À medida que a tecnologia avança, a inteligência artificial (IA) tem se mostrado uma ferramenta para transformar e aprimorar diversos setores, incluindo o financeiro e o de segurança pública. A aplicação da IA nesses processos promete aumentar a eficiência na análise e detecção de atividades suspeitas e melhorar a precisão e a rapidez das decisões. No entanto, junto com as oportunidades, surgem desafios significativos, como a qualidade e a variabilidade dos dados, a interpretabilidade dos modelos de IA e as questões éticas e legais associadas ao seu uso. Para explorar esses temas, conversamos com Roberto Zaina, cofundador e diretor de três empresas especializadas em soluções de dados e treinamentos corporativos. Confira. 

IPLD: No âmbito da sua pesquisa de doutorado você está estudando como o uso da inteligência artificial (IA) pode opinar se o relatório de inteligência financeira (RIF) deve instaurar um inquérito ou ser arquivado. Quais são os principais desafios encontrados no desenvolvimento de um modelo de IA capaz de realizar essa análise com precisão? Como você enxerga a implementação prática dessa tecnologia no futuro, considerando a variabilidade e a qualidade dos dados utilizados? 

Roberto Zaina: O principal desafio é que os relatórios de inteligência financeira têm conteúdos muito diferentes, dificultando a comparação e extração de informações relevantes e padronizadas. Além disso, existe muita variação, no âmbito da análise policial, nas decisões anteriores de arquivamento do RIF ou abertura de inquérito policial, que seriam usadas para treinar o modelo de inteligência artificial. Muitas diferenças nesses dados históricos podem prejudicar a capacidade do modelo de analisar corretamente novos casos. 

Quanto à aplicação futura, acredito que inicialmente a IA será mais uma ferramenta de apoio, ajudando a filtrar e priorizar os relatórios, do que um tomador de decisão automático. Para evoluir, será essencial melhorar a qualidade e padronização dos dados. É uma jornada promissora, mas que ainda exigirá muito esforço e colaboração para se concretizar. 

IPLD: A IA tem sido cada vez mais adotada nos processos de Prevenção à Lavagem de Dinheiro e Financiamento ao Terrorismo (PLD-FT). Como você vê essa transformação? Quais são os principais desafios que a IA traz para esses processos, e quais as principais vantagens que essas tecnologias oferecem em comparação com as abordagens convencionais? 

Roberto Zaina: A adoção da  Inteligência Artificial em PLD-FT é uma tendência crescente e transformadora. A principal vantagem é a capacidade de analisar rapidamente grandes volumes de dados, identificando padrões suspeitos de forma muito mais eficiente que a análise manual. A IA também pode aprender e se adaptar continuamente, realizando análises mais sofisticadas. 

No entanto, há desafios importantes. A qualidade e confiabilidade dos dados usados para treinar os modelos é fundamental. Dados problemáticos podem levar a resultados imprecisos. Outro desafio é a interpretabilidade, ou seja, entender como a IA chegou a uma conclusão. Muitos algoritmos são “caixas-pretas”, gerando questionamentos sobre transparência. Há ainda o risco de a IA reproduzir vieses dos dados históricos, levando a decisões discriminatórias. 

Portanto, a adoção da IA em PLD-FT requer cuidados com a qualidade dos dados, interpretabilidade dos modelos, mitigação de vieses e capacitação das equipes. É uma transformação que exige não apenas tecnologia, mas também revisão de processos e cultura organizacional. 

IPLD: A explicabilidade e a interpretabilidade dos modelos de IA são fundamentais para a conformidade regulatória e a tomada de decisões nas instituições financeiras. Quais são os principais desafios enfrentados para garantir que esses modelos sejam explicáveis?  

Roberto Zaina: Garantir a explicabilidade e interpretabilidade dos modelos de IA é um desafio complexo. Um dos principais obstáculos é a própria natureza de alguns algoritmos, especialmente os de deep learning, que são altamente complexos e opacos. Eles aprendem representações abstratas dos dados através de múltiplas camadas de processamento. 

Outro desafio é a dimensionalidade dos dados usados no setor financeiro. Essas aplicações envolvem um grande número de variáveis, como histórico de transações e perfil do cliente. Compreender como cada uma contribui para a decisão final pode ser extremamente complexo. 

Além disso, muitas vezes há uma relação entre a performance do modelo e sua interpretabilidade. Modelos mais simples são geralmente mais fáceis de entender, mas podem ter uma capacidade preditiva inferior comparados a algoritmos sofisticados. 

IPLD: O uso de IA na prevenção de crimes financeiros levanta diversas questões éticas e legais. Na sua opinião, quais são os principais aspectos éticos e legais que devem ser considerados ao utilizar IA em PLD-FT e como as instituições podem garantir que seus sistemas de IA estejam em conformidade com as regulamentações e normas éticas? 

Roberto Zaina: O uso da Inteligência Artificial na prevenção de crimes financeiros levanta importantes questões éticas e legais. Um dos principais pontos é a privacidade e proteção de dados. Os modelos de IA lidam com informações sensíveis dos clientes, então é fundamental que a coleta, armazenamento e uso desses dados sejam feitos de forma transparente, com consentimento e em conformidade com regulações de proteção de dados pessoais

Outro aspecto crucial é a equidade e não discriminação. Os modelos de IA podem acabar refletindo e amplificando vieses presentes nos dados históricos, levando a decisões discriminatórias com base em raça, gênero ou origem. É responsabilidade das instituições garantir que seus modelos sejam justos, realizando testes para identificar e mitigar possíveis vieses. 

A transparência e explicabilidade dos modelos também são fundamentais. Dado o impacto significativo que as decisões baseadas em IA podem ter, é essencial haver clareza sobre como esses modelos funcionam. A falta de transparência pode minar a confiança e dificultar a contestação de decisões equivocadas. 

Além disso, é preciso definir a responsabilização pelos resultados dos sistemas de IA. Quando um modelo toma uma decisão incorreta, quem deve ser responsabilizado? É necessário estabelecer procedimentos legais e éticos claros para definir as responsabilidades. 

Para garantir a conformidade, as instituições podem adotar medidas como estabelecer políticas claras para o desenvolvimento e uso de modelos de IA, investir em equipes multidisciplinares, realizar auditorias regulares, promover transparência e estabelecer canais de comunicação com reguladores e especialistas em ética. 

IPLD: Com a crescente adoção de inteligência artificial em diversos setores, a capacitação contínua de profissionais se torna cada vez mais essencial para garantir a eficácia e a ética no uso dessas tecnologias. Na sua opinião, qual é a importância do treinamento e capacitação contínua em IA para os profissionais que atuam em áreas como a segurança pública e financeira? 

Roberto Zaina: A capacitação permite que os profissionais compreendam melhor as capacidades e limitações da IA. Muitas vezes, existe uma percepção equivocada de que a IA é uma solução mágica, mas na realidade os modelos possuem suas próprias restrições e pontos cegos. Entender os fundamentos da IA permite ter uma visão mais realista e crítica sobre como aplicá-la. 

Além disso, a capacitação é fundamental para garantir o uso ético e responsável da IA. Os profissionais precisam saber identificar e mitigar problemas éticos, como vieses discriminatórios, conhecendo técnicas para avaliar a equidade dos modelos e as melhores práticas e diretrizes éticas. 

A capacitação também prepara os profissionais para trabalhar em equipes multidisciplinares, desenvolvendo habilidades de comunicação e colaboração para atuar nesse ecossistema complexo. É essencial para acompanhar o ritmo acelerado de inovação na área, mantendo-se atualizado sobre novos avanços. 

Por fim, a capacitação pode ajudar os profissionais a se tornarem agentes de transformação em suas organizações, promovendo a adoção responsável da  Inteligência Artificial e liderando iniciativas de inovação. 

banner-artigo-csa-ipld

Conheça o entrevistado 

Roberto Zaina

Profissional com grande experiência em investigação financeira, análise de dados e inteligência artificial, destacando-se no desenvolvimento de soluções tecnológicas e na capacitação de profissionais. Cofundador e Diretor de três empresas especializadas em soluções de dados e treinamentos corporativos: DataVirtus Treinamentos, DataVirtus Soluções e DataVirtus Governança e Compliance. Com 17 anos de atuação como Policial Federal, especializou-se em investigação, inteligência, análise de dados e tecnologias, tendo coordenado a Rede Nacional de Laboratórios de Tecnologia Contra Lavagem de Dinheiro por 3 anos. Além disso, possui 7 anos de experiência como Oficial do Exército, com especialização em logística militar. Na esfera acadêmica, é professor na DataVirtus, Faculdade Faciencia, FAE Business School, Polícia Federal e Ministério da Justiça, além de ser convidado para ministrar cursos em Polícias Civis, Ministérios Públicos, Tribunais de Contas e Controladorias. Atualmente, é doutorando em Ciência da Informação, com mestrado na mesma área e especialização em Business Intelligence.