Analytics é o processo de transformar dados em informações para tomada de decisão. O profissional da área define um problema (em conjunto com os especialistas de PLD), escolhe um ou mais métodos de análise, interpreta os resultados e uma vez construída a solução (por exemplo um modelo estatístico), realiza testes e verifica o seu desempenho. Uma vez que o resultado está dentro de um intervalo de confiança adotado, o processo está pronto para ser implantado. Essa sequência pode ser repetida toda vez que ocorra uma queda de performance ou deseja-se encontrar um novo fenômeno de risco. A tarefa de determinar essa metodologia pode ser chamada de Modelagem de Dados. E as ferramentas a serem executadas para se chegar ao resultado projetado são chamadas de Algoritmos, que nos últimos anos têm sido aprofundados na área de Machine Learning. Todo esse processo de construção e desenvolvimento da análise das informações pode ampliar a eficácia e a eficiência dos programas de prevenção à lavagem de dinheiro e financiamento ao terrorismo (PLD-FT). Em maiores detalhes, pode contribuir em diversas atividades, como por exemplo a redução de falsos-positivo, cuja altas taxas sobrecarregam os profissionais da área. [1] Há três categorias principais de algoritmos em Machine Learning difundidas e utilizadas no mercado [2]. A seguir seguem alguns detalhes de cada método: Supervisionados – são os modelos mais utilizados no mercado. Possuem a variável de interesse disponível e os algoritmos são treinados com as informações observadas. Como geralmente o conjunto de casos de risco em PLD são pequenas, esses algoritmos são normalmente aplicados com todas as informações de comunicações históricas enviadas aos reguladores. Algoritmos: regressão e classificação Exemplo ilustrativo: imagine um conjunto de clientes de uma instituição financeira possuindo a marcação ou não de irregularidades comunicadas ao regulador (exemplo: fracionamento em espécie). O primeiro passo é a extração de características destes indivíduos: possui uma baixa renda? é sócio em empresas? É um PEP? Concentra transações para mesmos indivíduos? Etc. Com os dados levantados deseja-se prever se um novo indivíduo com as mesmas características anteriores deverá ou não ser comunicado. Não supervisionados – são algoritmos mais sofisticados, uma vez que as variáveis de interesse não estão disponíveis e a classificação é feita de acordo com os atributos existentes, sem saber necessariamente o grupo pertencem (são muito usados hoje pelas empresas de streaming de filmes). Algoritmos: agrupamento (ou “clusterização”) Exemplo ilustrativo: uma fintech de meios de pagamento deseja descobrir se há clientes com perfis de risco de lavagem de dinheiro realizando transações por meio de seus serviços, contudo ela não possui exemplos de situações de risco comunicadas ao regulador. A probabilidade de haver clientes fazendo algum ato ilícito é grande, então antes de decidir quem deveria se compartilhado com o regulador, a fintech agrupa toda sua carteira de indivíduos (incluindo todas as transações, volume, valor, concentração, relacionamentos, contrapartes, etc.) e com isso prevê quais apresentam situações mais atípicas ou estranhas que apresente algum risco. A partir desse agrupamento é que se toma a decisão de indicar ou não o cliente para o regulador. Aprendizado de Reforço – são os algoritmos mais recentes e complexos e a sua aplicação no dia a dia de PLD ainda é restrita. Neste tipo algoritmo, os resultados possíveis são vinculados a recompensas e a punições. Dessa forma, o algoritmo é treinado para decidir qual ação priorizar para uma determinada situação. Algoritmos: Q-Learning e SARSA Exemplo ilustrativo: (tráfego urbano). Imagine que seu aplicativo de gps precisa tomar uma decisão instantânea porque houve um acidente à 1km no seu percurso. O algoritmo aprende as rotas mais rápidas e descarta as rotas mais lentas a fim de que você mantenha o trajeto mais rápido para seu destino. Outros exemplos de algoritmos Existe uma grande variedade de algoritmos no mercado, para os mais diversos fins, desde simples aos mais complexos. Seguem alguns deles: Árvore de decisão é a representação de um conjunto de informações sob a forma de uma árvore e seus ramos (variáveis ou regras). Auxilia na tomada de decisão ou indica, em suas ramificações, possíveis consequências para o seu estudo. Regressão logística é um método estatístico que permite estimar a probabilidade associada à ocorrência de determinado evento em face de um conjunto de variáveis explicativas. Random Forest é um algoritmo que funciona a partir da criação de muitas árvores de decisão que, de maneira aleatória, através de alguns critérios estabelecidos, aplica uma combinação delas para a escolha do resultado. Gradient Boosting é um algoritmo para problemas de regressão e classificação, que produz um modelo de previsão na forma de uma combinação de diversos modelos. De forma geral, as previsões do modelo final são, portanto, a soma ponderada das previsões feitas pelos modelos anteriores (árvores, regressões, etc.). Isolation Forest é um algoritmo de aprendizado não supervisionado para detecção de anomalias que funciona com o princípio de isolar anomalias, em vez das técnicas mais comuns que buscam criar perfis com os dados normais. Local Outlier Factor é um algoritmo criado para encontrar pontos de dados anômalos, medindo o desvio local de um ponto de dados em relação a seus vizinhos. Algumas aplicações em PLD Esse conjunto de estratégias e algoritmos de analytics pode ser aplicado nos diversos assuntos relacionados ao PLD. Pode, também, ser adotado por empresas e instituições de diferentes setores para seus respectivos contextos e tomadas de decisão. Abaixo estão listadas todas as frentes necessárias para investigação em uma estrutura de prevenção à lavagem de dinheiro: Para todas é possível extrapolar alguma das aplicações de modelos e algoritmos citados anteriormente. Para as atividades de KYC (Conheça seu cliente), KYP/KYS (Conheça seus parceiros / fornecedores) é muito importante aplicar métodos que correlacionem dados cadastrais com perfis e funções dos clientes, parceiros e fornecedores. Por exemplo, para investigação de uma empresa é de suma importância avaliar o seu ramo de atividade, seus sócios, serviços que fornecem para seus clientes, etc. Algoritmos de agrupamento e rede de relacionamento são bastante aplicados para estes casos. Para os monitoramentos transacionais e de produtos adquiridos pelos clientes é muito importante avaliar as contrapartes associadas às suas transações. Além disso, avaliar capacidade de pagamento, concentração de transferências, antecipação de dívidas, depósitos e saques sem motivo aparente. Ou seja, além dos métodos anteriores é possível criar modelos com variáveis de risco associadas às movimentações do cliente, o que traz maior riqueza para tomada de decisão. Algoritmos de captura de outliers como isolation forest e local outlier fator são interessantes abordagens para estes casos, pois detectam maiores discrepâncias realizadas pelos indivíduos. Exemplo no combate à corrupção Avançando um pouco neste tema, um exemplo de utilização de análise de dados sofisticadas no combate à corrupção é o estudo feito pelos pesquisadores H.V. Ribeiro et al. 2018 [3]. Eles desenvolveram um sistema de redes complexas com conexões de políticos e todos os escândalos de corrupção brasileiros que foram documentados ao longo de 28 anos (1987-2014). No projeto, eles detalham de forma muito interessante a estrutura dinâmica das redes de corrupção na política brasileira, capturando informações de mais de 60 casos de corrupção envolvendo mais de 400 indivíduos. H.V. Ribeiro et al. 2018 Uma rede complexa é composta por um conjunto de objetos (os vértices) e um conjunto de ligações entre esses objetos (os links). A rede que criaram é formada pelos agentes envolvidos/mencionados em corrupção, na qual cada vértice é uma pessoa e as ligações entre elas ocorrem quando estão envolvidas no mesmo escândalo. Uma das conclusões dos autores é que a série temporal do número anual de pessoas envolvidas em casos de corrupção tem um componente periódico (com um intervalo de tempo de 4 anos) que corresponde justamente ao ciclo eleitoral no Brasil, o que os levaram a suspeitar de que as eleições gerais não apenas reformulam a elite política, mas também introduzem novos indivíduos ao poder que logo poderão cair no mesmo ciclo de irregularidades dos antigos parlamentares. H.V. Ribeiro et al. 2018 Uma característica curiosa dessa rede é que indica que a corrupção ocorre em pequenos grupos que raramente são compostos por mais de oito pessoas. Além disso, baseada na evolução temporal da rede que criaram, seus resultados demonstram uma chance em torno de 25% de acerto para a predição de links futuros de casos de corrupção. [1] A adoção de ferramentas de analytics na identificação de anomalias [2] Types of Machine Learning and Top 10 Algorithms Everyone Should Know [3] The dynamical structure of political corruption networks (PDF) Autor: Mateus Vendramini Polizeli Mestre em Engenharia de Produção e Pesquisa Operacional, com ênfase em Ciência de Dados pelo Instituto Tecnológico da Aeronáutica (ITA) e Universidade Federal de São Paulo (UNIFESP), Bacharel em Estatística pela Universidade Federal de São Carlos (UFSCar) com MBA em Gestão de Riscos pela Fundação Getúlio Vargas (FGV). Possui mais de 15 anos de experiência com modelagem de riscos, tendo trabalhado nos maiores bancos de varejo do país. Nos últimos três anos tem atuado na área de Analytics de Prevenção à Fraudes e Lavagem de Dinheiro em instituição financeira de grande porte. e-mail para contato: mateus.polizeli@ipld.com.br