Orientação para a comunidade Brookings e o público sobre nossa resposta ao coronavírus (COVID-19) »Saiba mais com os estudiosos da Brookings sobre a resposta global ao coronavírus (COVID-19) »Este é um resumo da política do Brookings Center on Regulation and Markets.“Dados são o novo petróleo.”Originalmente cunhada em 2006 pelo matemático britânico Clive Humby, esta frase é indiscutivelmente mais adequada hoje do que era então, já que smartphones rivalizam com automóveis em relevância e os gigantes da tecnologia sabem mais sobre nós do que gostaríamos de admitir.Assim como acontece com o setor de serviços financeiros, a hiperdigitalização da economia apresenta oportunidades e perigos potenciais para os reguladores financeiros.No lado positivo, resmas de informações estão ao seu alcance, repletas de sinais sobre os riscos do sistema financeiro que os reguladores passam seus dias tentando entender.A explosão de dados lança luz sobre a movimentação global de dinheiro, tendências econômicas, decisões de integração de clientes, qualidade da subscrição de empréstimos, descumprimento de regulamentos, esforços das instituições financeiras para alcançar os menos atendidos e muito mais.É importante ressaltar que também contém as respostas às perguntas dos reguladores sobre os riscos da própria nova tecnologia.A digitalização das finanças gera novos tipos de perigos e acelera seu desenvolvimento.Os problemas podem surgir entre os exames regulatórios agendados e podem se acumular imperceptivelmente sob a superfície das informações refletidas nos relatórios tradicionais.Graças à digitalização, os reguladores hoje têm a chance de coletar e analisar muito mais dados e ver muitos deles em algo próximo ao tempo real.O potencial de perigo surge da preocupação de que a atual estrutura tecnológica dos reguladores não tenha a capacidade de sintetizar os dados.A ironia é que essa enxurrada de informações é demais para eles lidarem.Sem melhorias digitais, o combustível de dados que os reguladores financeiros precisam para supervisionar o sistema apenas os fará superaquecer.Em 2019, o então governador do Banco da Inglaterra, Mark Carney, argumentou que os reguladores financeiros terão que adotar técnicas de IA para acompanhar os crescentes volumes de dados que fluem para seus sistemas.Para dramatizar o ponto, ele disse que o banco recebe anualmente 65 bilhões de dados de empresas que supervisiona e que revisar tudo seria como “cada supervisor lendo as obras completas de Shakespeare duas vezes por semana, todas as semanas do ano”.Isso foi há três anos.O número é quase certamente maior hoje.Além disso, os números citados por ele abrangem apenas informações relatadas por empresas regulamentadas.Ele omitiu os grandes volumes de “Big Data” externos gerados a partir de outras fontes, como registros públicos, mídia de notícias e mídia social, que os reguladores também deveriam explorar para obter informações sobre riscos e outras tendências.A IA foi desenvolvida há mais de 70 anos.Durante décadas, os entusiastas previram que isso mudaria nossas vidas profundamente, mas demorou um pouco até que a IA tivesse muito impacto na vida cotidiana. mestres de jogos complexos como xadrez (em 1996) e Go (em 2017).No entanto, só recentemente essas máquinas mostraram sinais de serem capazes de resolver problemas do mundo real.Por que é que?Uma resposta chave é que, até recentemente, não havia dados suficientes em formato digitalizado – formatado como código legível por computador – para justificar o uso de IA.2 Hoje, há tantos dados que não apenas podemos usar IA, mas em muitos campos, como regulação financeira, temos que usar a IA simplesmente para acompanhar.Conforme discutido mais abaixo, os reguladores financeiros em todo o mundo estão nos estágios iniciais de explorar como a IA e suas sub-ramificações de Machine Learning (ML), Natural Language Processing (NLP) e redes neurais podem aprimorar seu trabalho.Eles estão cada vez mais avaliando a adoção de “tecnologia de supervisão” (ou “suptech”) para monitorar as empresas com mais eficiência do que com ferramentas analógicas.Essa mudança está sendo refletida no setor financeiro por um movimento para melhorar os sistemas de conformidade com técnicas semelhantes de “tecnologia regulatória” (“regtech”).Ambos os processos estão sendo executados em uma via dupla, com um objetivo sendo converter dados em um formato digitalizado e o outro para analisá-los algoritmicamente.Atingir qualquer um desses objetivos sem o outro tem pouco valor.Juntos, eles transformarão tanto a regulamentação financeira quanto a conformidade.Eles oferecem a promessa de que a regulamentação, como tudo o que é digitalizado, pode se tornar melhor, mais barata e mais rápida, tudo de uma vez.Os reguladores financeiros em todo o mundo geralmente têm sido mais ativos na regulação do uso da IA pela indústria do que adotá-la para seu próprio benefício.No entanto, as oportunidades são abundantes para táticas regulatórias e de aplicação da lei baseadas em IA para combater problemas do mundo real no sistema financeiro.Em uma seção posterior, este documento examinará os principais casos de uso emergentes.Antes de fazer isso, vale a pena dar uma olhada em algumas áreas de desempenho regulatório ruim, tanto no passado quanto no presente, e perguntar se a IA poderia ter feito melhor.Um exemplo é o Programa de Proteção de Salários de US$ 800 bilhões que o Congresso estabeleceu em 2020 para fornecer empréstimos garantidos pelo governo para pequenas empresas que sofrem com a pandemia.Mais de 15% dos “empréstimos” de PPP – representando US$ 76 bilhões – continham evidências de fraude, de acordo com um estudo divulgado no ano passado.Muitos casos envolviam solicitantes de empréstimos usando identidades falsas.Imagine se os credores que enviam pedidos de garantia de empréstimo ou os sistemas de Administração de Pequenas Empresas que os analisam tivessem sistemas maduros baseados em IA que pudessem sinalizar comportamentos suspeitos.Eles poderiam ter detectado declarações falsas e evitado empréstimos fraudulentos, protegendo assim o dinheiro dos contribuintes e garantindo que seus preciosos fundos ajudassem pequenas empresas necessitadas em vez de financiar ladrões.Dois exemplos podem ser encontrados na guerra na Ucrânia.A invasão russa desencadeou uma nova série de sanções contra os oligarcas russos que escondem riquezas em empresas de fachada e estão lutando para movimentar seu dinheiro sem serem detectados.As instituições financeiras são obrigadas a rastrear contas e transações para identificar transações de entidades sancionadas.E se eles e as agências de aplicação da lei, como a Financial Crimes Enforcement Network (FinCEN), tivessem análises baseadas em IA para extrair e agrupar dados de todo o espectro de transações globais e encontrar os padrões que revelam a atividade das partes sancionadas?Infelizmente, a maioria das instituições financeiras e agências governamentais não tem essas ferramentas em mãos hoje.O segundo exemplo vem da rápida fuga de milhões de refugiados que atraem traficantes de seres humanos para as fronteiras do país que procuram capturar mulheres e crianças desesperadas e vendê-las como escravas por trabalho e sexo.Os bancos são obrigados por lei a manter sistemas de combate à lavagem de dinheiro (AML) para detectar e relatar movimentos de dinheiro que possam indicar tráfico de pessoas e outros crimes, mas esses sistemas são principalmente analógicos e notoriamente ineficazes.O Escritório das Nações Unidas sobre Drogas e Crime estima que menos de 1% dos crimes financeiros são capturados.Os sistemas de conformidade com inteligência artificial teriam uma chance muito maior de sinalizar as redes criminosas que visam a Ucrânia.Além disso, se tais sistemas estivessem em vigor nos últimos anos, o comércio de tráfico de seres humanos poderia não estar florescendo.Tal como está hoje, estima-se que 40 milhões de pessoas estão sendo mantidas em cativeiro na escravidão humana moderna, e uma em cada quatro delas é uma criança.Em outro experimento mental, e se os reguladores bancários em 2007 tivessem sido capazes de ver toda a extensão das inter-relações entre credores hipotecários subprime e empresas de Wall Street como Bear Stearns, Lehman Brothers e AIG?Se os reguladores estivessem armados com dados digitais em tempo real e análises de IA, estariam monitorando o contágio de risco em tempo real.Eles poderiam ter sido capazes de evitar a crise financeira e, com ela, a Grande Recessão.Finalmente, e quanto a empréstimos justos?Em 1968, os Estados Unidos proibiram a discriminação com base em raça, religião e outros fatores em empréstimos hipotecários através da aprovação do Fair Housing Act.3 Com a aprovação posterior do Equal Credit Opportunity Act e do Housing and Community Development Act, ambos em Em 1974, o Congresso acrescentou a discriminação sexual a essa lista e ampliou a aplicação de empréstimos justos a todos os tipos de crédito, não apenas hipotecas.4 Isso foi há quase 50 anos.Essas leis percorreram um longo caminho para combater a discriminação direta e aberta, mas foram muito menos eficazes em erradicar outras formas de preconceito.As decisões de empréstimo ainda produzem “impactos díspares” em diferentes grupos de mutuários, geralmente de maneiras que prejudicam desproporcionalmente as classes protegidas, como as pessoas de cor.Parte disso decorre do fato de que decisões de crédito de alto volume devem se basear em medidas eficientes de credibilidade, como pontuações de crédito, que por sua vez dependem de fontes restritas de dados.5 E se, 40 anos atrás, reguladores e indústria tivessem sido capazes de coletar muito mais dados de risco e analisá-los com IA?Quantas pessoas mais teriam sido consideradas dignas de crédito em vez de terem seu empréstimo negado?Ao longo de quatro décadas, as ferramentas de IA poderiam ter mudado a trajetória da oportunidade racial nos Estados Unidos, que atualmente inclui uma diferença de riqueza racial de US$ 10 trilhões e a taxa de propriedade de afro-americanos ficando 30 pontos percentuais atrás dos brancos?Em seu livro de 2018 intitulado “Unscaled”, o capitalista de risco Hemant Taneja argumentou que quantidades explosivas de dados e IA continuarão a produzir uma aceleração sem precedentes de nossa realidade digital.“Dentro de dez anos, qualquer coisa que a IA não fortaleça parecerá sem vida e fora de moda.Será como uma geladeira depois que as geladeiras elétricas forem inventadas”, escreveu ele.O horizonte de tempo estimado de Taneja está agora a apenas seis anos de distância.No setor financeiro, isso cria um desafio assustador para os reguladores projetar e construir uma suptech suficientemente poderosa antes que a tecnologia em mudança do setor possa sobrecarregar sua capacidade de supervisão.Felizmente, os reguladores nos EUA e em todo o mundo estão tomando medidas para diminuir a diferença.Indiscutivelmente o líder global em inovação regulatória é a Financial Conduct Authority (FCA) do Reino Unido.Em 2015, a FCA estabeleceu a iniciativa Project Innovate, que incluiu a criação de uma “sandbox regulatória” para empresas do setor privado testarem novos produtos quanto ao seu impacto regulatório.Um ano depois, a FCA lançou uma unidade regtech que desenvolveu o que a agência chamou de “techsprints” – uma competição aberta semelhante a um hackathon de tecnologia em que especialistas regulatórios, industriais e de questões trabalham lado a lado com engenheiros e designers de software para desenvolver e apresentar protótipos de tecnologia para resolver um problema regulatório específico.Desde então, o programa de inovação foi expandido para uma divisão importante dentro da FCA.6A FCA conseguiu traduzir esse foco relativamente precoce na inovação digital na solução de problemas do mundo real.Em 2020, um alto funcionário da agência fez um discurso sobre como a FCA usa aprendizado de máquina e processamento de linguagem natural para monitorar os comportamentos da empresa e “identificar empresas atípicas” como parte de uma abordagem “holística” à análise de dados.Avanços semelhantes foram feitos em outros países, incluindo Cingapura e Austrália.Os reguladores dos EUA, em sua maioria, fizeram progressos mais lentos incorporando tecnologias de IA em seu monitoramento de empresas financeiras.Todos os órgãos reguladores financeiros federais têm programas de inovação de alguma forma.A maioria deles, no entanto, se concentrou mais na inovação do setor do que na sua própria.As agências bancárias dos EUA – Consumer Financial Protection Bureau, Federal Deposit Insurance Corporation, Federal Reserve Board e Office of the Comptroller of the Currency – têm iniciativas de inovação que são amplamente voltadas para o exterior, destinadas a entender as novas tecnologias bancárias e oferecer um ponto de contato sobre novas questões regulatórias.Todos eles também expandiram suas atividades de tecnologia durante a pandemia do COVID-19, estimulados pelas súbitas mudanças digitais em andamento no setor e sua própria necessidade de expandir o monitoramento externo.Várias agências também têm projetos de suptech em andamento.Estes, no entanto, geralmente têm alcance limitado e não atendem à necessidade de as agências revisitarem sua arquitetura de informação fundamental da era analógica.Isso está começando a mudar.O Federal Reserve em 2021 criou o novo cargo de Chief Innovation Officer e contratou Sunayna Tuteja do setor privado, cobrando-lhe uma modernização abrangente da infraestrutura de dados do Fed.O FDIC também examinou de perto suas próprias estruturas de dados, e o OCC trabalhou na consolidação de suas plataformas de exame.Essas são etapas produtivas, mas ainda estão atrasadas em relação ao pensamento avançado em andamento em outras partes do mundo.Os reguladores dos EUA ainda precisam diminuir a distância entre a inovação acelerada no setor privado e seus próprios sistemas de monitoramento.Outras agências reguladoras dos EUA adotaram as tecnologias de IA mais rapidamente.Em 2017, Scott Bauguess, ex-economista-chefe adjunto da Securities and Exchange Commission (SEC), descreveu o uso de IA por sua agência para monitorar os mercados de valores mobiliários.Logo após a crise financeira, disse ele, a SEC começou “métodos simples de análise de texto” para determinar se a agência poderia ter previsto riscos decorrentes de swaps de inadimplência de crédito antes da crise.A equipe da SEC também aplica algoritmos de aprendizado de máquina para identificar discrepâncias de relatórios em registros regulatórios.Da mesma forma, a Financial Industry Regulatory Authority (FINRA) – o órgão autorregulador que supervisiona as corretoras nos EUA – usa IA robusta para detectar possíveis más condutas.7 Enquanto isso, a Commodity Futures Trading Commission (CFTC) tem sido líder por meio de sua Programa LabCFTC, que aborda soluções de fintech e regtech.O ex-presidente da CFTC, Christopher Giancarlo, disse que a principal prioridade de todo órgão regulador deve ser “digitalizar o livro de regras”. -detecção de lavagem de dinheiro.9 A agência está agora no processo de implementação de mandatos tecnológicos abrangentes que recebeu sob a Lei Antilavagem de Dinheiro de 2020, uma grande oportunidade para implementar a IA para detectar melhor alguns dos crimes financeiros discutidos acima.Se as agências governamentais suplantassem seus sistemas analógicos com um design nativo digital, isso otimizaria a análise de dados que agora estão sendo subutilizados.As agulhas poderiam ser encontradas no palheiro, fraudadores e lavadores de dinheiro teriam mais dificuldade em esconder suas atividades, e os reguladores cumpririam mais completamente sua missão de manter um sistema financeiro mais seguro e justo.Abaixo estão alguns casos de uso específicos para incorporar a IA no processo regulatório:Indiscutivelmente, o caso de uso regtech mais avançado globalmente é o combate à lavagem de dinheiro (AML).A conformidade com AML custa ao setor mais de US$ 50 bilhões por ano nos EUA, pois a maioria dos bancos depende de sistemas de monitoramento de transações baseados em regras.10 Esses métodos os ajudam a determinar qual atividade relatar ao FinCEN como suspeita, mas atualmente produz uma taxa de falso-positivo de mais de 90%.Isso sugere que bancos, reguladores e autoridades policiais estão gastando tempo e dinheiro perseguindo possíveis pistas, mas não realmente coibindo crimes financeiros ilícitos.Os dados AML que as agências de aplicação da lei recebem atualmente contêm muitas informações sem importância e não são armazenados em formatos para ajudar a identificar padrões de crime.11Os reguladores financeiros em todo o mundo geralmente têm sido mais ativos na regulação do uso da IA pela indústria do que adotá-la para seu próprio benefício.Além dos desafios associados à localização de crimes financeiros entre a rede massivamente complexa de transações globais, os bancos também devem realizar verificações de identidade em novos clientes e enviar dados de “proprietário efetivo” ao FinCEN para evitar que os lavadores se escondam atrás de empresas de fachada falsas.A guerra na Ucrânia e o endurecimento das sanções contra os oligarcas russos destacaram a necessidade de melhores mecanismos de triagem para restringir a atividade financeira de indivíduos que aparecem nas listas de sanções.Enquanto uma indústria crescente de empresas de regtech está tentando ajudar as instituições financeiras a cumprir com mais eficiência as regras do Know-Your-Customer (KYC), o FinCEN está implementando reformas legislativas exigindo que as empresas enviem dados para um novo banco de dados de beneficiários efetivos.Em 2018 e 2019, a FCA realizou dois sprints tecnológicos internacionais destinados a enfrentar os desafios da AML.O primeiro sprint lidou com a habilitação de reguladores e policiais para compartilhar informações sobre ameaças com mais segurança e eficácia.O segundo focou em “Tecnologias de Aprimoramento de Privacidade”, ou PETs, de vários tipos.Por exemplo, a criptografia homomórfica é uma técnica que se mostra promissora para permitir que dados compartilhados por meio de processos AML sejam criptografados durante todo o processo analítico, de modo que as informações subjacentes sejam ocultadas de outras partes e a privacidade seja preservada.Outra técnica PET conhecida como prova de conhecimento zero permite que uma parte faça a outra essencialmente uma pergunta sim ou não, sem a necessidade de compartilhar os detalhes subjacentes que estimularam a investigação.Por exemplo, um banco pode perguntar a outro se uma determinada pessoa é um cliente ou se essa pessoa está envolvida em uma determinada transação.Técnicas como essa podem ser usadas para permitir a análise de aprendizado de máquina de padrões de lavagem sem comprometer a privacidade ou potencialmente minar o sigilo de uma investigação em andamento.A SBA fez esforços para avaliar as ferramentas de IA para detectar fraudes em empréstimos de PPP, olhando para certos credores fintech com inteligência artificial.No entanto, o programa de empréstimos para pequenas empresas ainda estava repleto de fraudes.(Na verdade, parte da atenção em relação às preocupações com fraudes se concentrou em empréstimos processados por empresas de tecnologia financeira.12) Vários estudos mostram que o uso eficaz de aprendizado de máquina na decisão de crédito pode detectar mais facilmente quando, por exemplo, pedidos de empréstimo são enviados por entidades falsas .Uma das maiores ameaças de fraude enfrentadas pelas instituições financeiras é o uso de identidades sintéticas por agentes mal-intencionados.Eles são criados combinando informações reais do cliente com dados falsos em uma série de etapas que podem enganar os sistemas de detecção normais, mas muitas vezes podem ser detectadas pela análise regtech usando mais dados e aprendizado de máquina.Muitas soluções regtech para combater a lavagem de dinheiro surgiram da tecnologia para identificar fraudes, que geralmente é mais avançada.Isso pode ser porque a indústria tem um enorme interesse financeiro na prevenção de perdas por fraude.Também pode refletir o fato de que, na fraude, as empresas geralmente lidam com a certeza de um problema, enquanto na AML, geralmente, elas nunca sabem se os “Relatórios de Atividade Suspeita” que arquivam no FinCEN levam a algo útil.Esses fatores tornam ainda mais importante equipar os bancos e seus reguladores com ferramentas que possam detectar padrões de crime com mais facilidade e menor custo.A lei de proteção ao consumidor dos EUA proíbe atos e práticas injustas e enganosas (UDAP), tanto no setor financeiro quanto em geral, e adiciona o critério de atividade “abusiva” para fins de aplicação pelo Consumer Financial Protection Bureau (UDAAP).No entanto, a aplicação de padrões subjetivos como “injustiça” e “engano” é desafiadora, muitas vezes prejudicada pela dificuldade de detectar e analisar padrões de comportamento potencialmente ilegal.Tal como acontece com a discriminação, a aplicação da UDAAP depende de um julgamento subjetivo considerável para distinguir as atividades que são contra a lei de padrões mais benignos.Isso também dificulta o cumprimento.A regtech baseada em IA pode trazer o poder de mais dados e ferramentas analíticas de IA para resolver esses desafios, permitindo que os reguladores detectem e comprovem violações com mais facilidade.Também pode permitir que eles emitam orientações mais claras e concretas – incluindo padrões mais sofisticados sobre modelagem estatística – para ajudar a indústria a evitar discriminação e ser responsável por UDAAPs.Há um crescente reconhecimento entre os defensores de que a inclusão financeira total, especialmente para os mercados emergentes, requer um uso muito ampliado da tecnologia digital.O acesso a telefones celulares colocou, de fato, uma agência bancária nas mãos de dois terços dos adultos do mundo.Esse progresso sem precedentes, por sua vez, destacou barreiras para mais sucesso, a maioria das quais poderia ser resolvida ou melhorada com melhores dados e IA.Um deles é o problema de “remoção de risco” de AML.Conforme observado acima, os bancos devem seguir as regras do Know-Your-Customer (KYC) antes de aceitar novos clientes, um processo que inclui a verificação da identidade da pessoa.Em muitos países em desenvolvimento, as pessoas pobres – e particularmente as mulheres – não possuem documentos formais de identidade, como certidões de nascimento e carteiras de motorista, efetivamente excluindo-as do acesso ao sistema financeiro formal.13 Em algumas partes do mundo, a pressão regulatória sobre os bancos para gerenciar riscos associado à conquista de novos clientes resultou em setores inteiros – e, em alguns países, toda a população – sendo cortados dos serviços bancários.14 Na realidade, esses mercados incluem milhões de consumidores que seriam adequados para abrir uma conta e não apresentam muito risco em tudo.Bancos e reguladores lutam para distinguir indivíduos de alto risco daqueles de baixo risco.Um grande trabalho está em andamento em vários países para resolver esse problema de forma mais completa com a IA, por meio do uso de mecanismos de “identidade digital” que podem autenticar a identidade de uma pessoa por meio de suas “pegadas digitais”.Um desafio relacionado é que a expansão da inclusão financeira produziu uma necessidade crescente de melhor proteção ao consumidor.Isso é especialmente importante para pessoas que são trazidas para o sistema financeiro por meio de estratégias de “inclusão” e que podem não ter conhecimentos e conhecimentos financeiros prévios, tornando-as vulneráveis a práticas predatórias, golpes cibernéticos e outros riscos.Os reguladores estão usando chatbots de IA equipados com NLP para receber e analisar reclamações de consumidores em escala e rastrear a web em busca de sinais de atividade fraudulenta.Um exemplo é o RegTech for Regulators Accelerator (R2A) lançado em 2016 com o apoio da Fundação Bill & Melinda Gates, da Omidyar Network e da USAID.15 Ele se concentra no projeto de infraestrutura regulatória em dois países, Filipinas e México.Enfatizando a necessidade de os consumidores acessarem os serviços por meio de seus telefones celulares, o projeto introduziu procedimentos de denúncia de AML e chatbots por meio dos quais os consumidores poderiam relatar reclamações sobre produtos financeiros digitais diretamente aos reguladores.É importante ressaltar que a inovação regtech no mundo em desenvolvimento geralmente excede a das principais economias avançadas.Uma razão é que muitos países emergentes nunca construíram a complexa infraestrutura regulatória que é comum hoje em regiões como Estados Unidos, Canadá e Europa.Isso cria uma oportunidade de começar do zero, usando a melhor tecnologia de hoje, em vez de sobrepor novos requisitos aos sistemas de ontem.Talvez a maior promessa de inclusão financeira da IA esteja no surgimento de técnicas de subscrição de crédito centradas em dados que avaliam pedidos de empréstimo.A subscrição de crédito tradicional depende muito de um conjunto restrito de dados - especialmente a renda e o histórico de crédito do indivíduo, conforme relatado às principais agências de relatórios de crédito - porque essas informações estão facilmente disponíveis para os credores.As pontuações de crédito são precisas para prever o risco de inadimplência entre pessoas com boas pontuações FICO (e baixos riscos de inadimplência).No entanto, essas técnicas tradicionais de subscrição tendem a excluir algumas pessoas que podem pagar um empréstimo, mas têm um arquivo de crédito pequeno (e, portanto, uma pontuação de crédito menor ou nenhuma) ou uma situação financeira complicada que é mais difícil de subscrever.A subscrição de IA está começando a ser usada por credores, especialmente fintechs.A IA também está sendo cada vez mais usada por empresas financeiras como uma ferramenta regtech para verificar se o principal processo de subscrição está em conformidade com os requisitos de empréstimos justos.Um terceiro processo, muito menos desenvolvido, é o potencial para que as mesmas tecnologias sejam usadas pelos reguladores para verificar a discriminação por parte dos credores, incluindo viés estrutural e exclusão não intencional de pessoas que poderiam realmente pagar um empréstimo.Os vieses estruturais geralmente levam a resultados de “impacto díspar”.Nesses casos, os reguladores afirmam que uma política de empréstimos era discriminatória com base em raça, gênero ou outros fatores proibidos, não por intenção, mas porque uma classe específica de consumidores sofreu resultados negativos.Como o impacto díspar é um padrão legal16 e as violações dessas leis criam responsabilidade para os credores, essas reivindicações também podem ser feitas por demandantes representando pessoas que alegam ter sido prejudicadas.Uma pesquisa conduzida pelo FinRegLab e outros está explorando o potencial da subscrição baseada em IA para tornar as decisões de crédito mais inclusivas com pouca ou nenhuma perda de qualidade de crédito e possivelmente até com ganhos no desempenho do empréstimo.Ao mesmo tempo, há um risco claro de que novas tecnologias possam exacerbar preconceitos e práticas desleais se não forem projetadas adequadamente, o que será discutido abaixo.Em março de 2022, a Securities and Exchange Commission propôs regras para exigir que empresas públicas divulguem riscos relacionados às mudanças climáticas.17 A eficácia de tal mandato será inevitavelmente limitada pelo fato de que os impactos climáticos são notoriamente difíceis de rastrear e medir.A única maneira viável de resolver isso será reunir mais informações e analisá-las com técnicas de IA que podem combinar grandes conjuntos de dados sobre emissões e métricas de carbono, inter-relações entre entidades comerciais e muito mais.Os benefícios potenciais da IA são enormes, mas os riscos também.Se os reguladores projetarem incorretamente suas próprias ferramentas de IA e/ou permitirem que a indústria o faça, essas tecnologias tornarão o mundo pior em vez de melhor.Alguns dos principais desafios são:Explicação: Os reguladores existem para cumprir mandatos de supervisão de risco e conformidade no setor financeiro.Eles não podem, não querem e não devem entregar seu papel às máquinas sem ter certeza de que as ferramentas tecnológicas estão fazendo certo.Eles precisarão de métodos para tornar as decisões da IA compreensíveis para os humanos ou para ter total confiança no projeto de sistemas baseados em tecnologia.Esses sistemas precisarão ser totalmente auditáveis.Preconceito: há boas razões para temer que as máquinas aumentem em vez de diminuir o viés.A tecnologia é amoral.A IA “aprende” sem as restrições de considerações éticas ou legais, a menos que tais restrições sejam programadas com grande sofisticação.Em 2016, a Microsoft introduziu um chatbot orientado por IA chamado Tay nas mídias sociais.A empresa retirou a iniciativa em menos de 24 horas porque interagir com os usuários do Twitter transformou o bot em um “idiota racista”.As pessoas às vezes apontam para a analogia de um veículo autônomo.Se sua IA for projetada para minimizar o tempo decorrido para viajar do ponto A ao ponto B, o carro ou caminhão irá ao seu destino o mais rápido possível.No entanto, ele também pode operar semáforos, viajar na contramão em ruas de mão única e atingir veículos ou cortar pedestres sem remorso.Portanto, deve ser programado para atingir seu objetivo dentro das regras da estrada.No crédito, há uma grande probabilidade de que IAs mal projetadas, com seu enorme poder de pesquisa e aprendizado, possam aproveitar proxies para fatores como raça e gênero, mesmo quando esses critérios são explicitamente banidos de consideração.Há também uma grande preocupação de que as IAs se ensinem a penalizar os candidatos por fatores que os formuladores de políticas não querem que sejam considerados.Alguns exemplos apontam para IAs calculando a “resiliência financeira” de um solicitante de empréstimo usando fatores que existem porque o solicitante foi submetido a vieses em outros aspectos de sua vida.Esse tratamento pode agravar, em vez de reduzir, o preconceito com base em raça, gênero e outros fatores protegidos.Os formuladores de políticas precisarão decidir quais tipos de dados ou análises estão fora dos limites.Uma solução para o problema do viés pode ser o uso de “IAs adversas”.Com esse conceito, a empresa ou regulador usaria uma IA otimizada para um objetivo ou função subjacente – como combater o risco de crédito, fraude ou lavagem de dinheiro – e usaria outra IA separada otimizada para detectar viés nas decisões da primeira.Os humanos poderiam resolver os conflitos e, com o tempo, ganhar o conhecimento e a confiança para desenvolver uma IA desempate.Qualidade dos dados: Conforme observado anteriormente, a IA e o gerenciamento de dados estão inextricavelmente interligados, de modo que o uso aceitável da IA não surgirá, a menos que os reguladores e outros resolvam os muitos desafios relacionados ao uso de dados.Como em qualquer tipo de tomada de decisão, as escolhas baseadas em IA são tão boas quanto as informações nas quais elas dependem.Integrar a IA à regulamentação é um grande desafio que traz riscos substanciais, mas o custo de manter sistemas amplamente analógicos é maior.Assim, os reguladores enfrentam enormes desafios em relação a como receber e limpar dados.A IA pode lidar mais facilmente com “dados estruturados”, que chegam em formatos e campos organizados que o algoritmo reconhece facilmente e coloca em uso.Com as ferramentas de PNL, a IA também pode entender “dados não estruturados”.No entanto, ter certeza de que a IA está usando dados precisos e entendê-los exige muito trabalho.Os usos da IA nas finanças exigirão métodos rígidos para garantir que os dados sejam coletados e “limpos” adequadamente antes de serem submetidos à análise algorítmica.A velha máxima da estatística “entrar lixo, sair lixo” torna-se ainda mais urgente quando a análise estatística for feita por máquinas usando métodos que seus observadores humanos não conseguem entender completamente.É fundamental que os formuladores de políticas se concentrem no que está em jogo.A IA que pode ser boa em, digamos, recomendar um filme para assistir na Netflix não será suficiente para decidir se deve aprovar alguém para uma hipoteca ou um empréstimo para pequenas empresas ou deixá-los abrir uma conta bancária.Proteção de dados e privacidade: o uso generalizado da IA também exigirá um trabalho político profundo sobre a ética e os aspectos práticos do uso de dados.Que tipos de informação devem ser usados e quais devem estar fora dos limites?Como ele será protegido contra riscos de segurança e uso indevido do governo?As pessoas deveriam ter o direito de forçar a remoção de dados online antigos, e as técnicas de criptografia das empresas deveriam ser impenetráveis até mesmo pelo governo?As tecnologias que melhoram a privacidade podem mitigar esses riscos, mas os perigos exigirão vigilância permanente.O desafio aumentará ainda mais com a abordagem da computação quântica que tem o poder de quebrar as técnicas de criptografia usadas para manter os dados seguros.Model Risk Management (MRM): Os modelos matemáticos já são amplamente utilizados em serviços financeiros e regulação financeira.