Nós usamos cookies para melhorar a sua experiência em nosso site, personalizar publicidade e recomendar conteúdo de seu interesse. Ao acessar nosso portal, você concorda com o uso dessa tecnologia. Saiba mais em nossa Política de Privacidade.

24 de janeiro de 2026

Escudo ou gatilho? Papel da IA na próxima crise financeira ainda é incerto


Por Agência Estado Publicado 24/01/2026 às 08h30
Ouvir: 00:00

O relógio marca 10h32 em uma segunda-feira qualquer. Um algoritmo de inteligência artificial interpreta de maneira pessimista um relatório de um grande banco. Em 0,3 segundo, vende bilhões de dólares em ações. Outros 200 algoritmos detectam o movimento e fazem o mesmo. A porta de saída fica estreita e, às 10h33, o mercado global está em queda livre. Às 10h35, quando os humanos entendem o que aconteceu, já é tarde: trilhões de dólares evaporaram.

Seria esse cenário factível? Especialistas ouvidos pelo Broadcast (sistema de notícias em tempo real do Grupo Estado) divergem. Enquanto alguns veem a IA como potencial aceleradora de movimentos de manada, outros defendem que a velocidade do sistema pode atuar como arma de defesa, com algoritmos capazes de detectar riscos mais rapidamente do que qualquer humano. Por essa lógica, uma crise como a descrita acima não aconteceria.

Saber se a IA será escudo ou gatilho de uma nova crise financeira global dependerá do cuidado e da supervisão humana. Disso ninguém discorda. Mas ainda há pontos cegos nesse processo.

Para o professor André Filipe Batista, especialista em ciência de dados e coordenador do Centro de Ciência de Dados do Insper, a próxima crise financeira, na era da IA, tende a ter três características centrais: velocidade, opacidade e interconexão algorítmica.

“O mercado financeiro já é rápido por natureza. Com a IA tomando decisões automatizadas, a transição de uma preocupação para um estado de pânico pode acontecer em segundos”, afirma, sobre a questão da velocidade, que se mostra crucial no mercado financeiro, no confronto com outros segmentos.

A segunda característica é a opacidade dos modelos, o chamado problema da caixa-preta. “Alguns chamam de ‘caixa cinza’, porque ainda se entendem os mecanismos matemáticos, mas a explicabilidade é complexa. Em uma crise, essa falta de transparência pode ser fatal”, explica.

O terceiro ponto é a homogeneização das estratégias. Fundos diferentes podem usar modelos semelhantes, treinados com bases de dados parecidas. Diante de um mesmo sinal, todos correm para a mesma porta, provocando um efeito de manada que afeta a liquidez do mercado. “Assim, a crise disparada pela IA seria uma crise informacional”, afirma Batista.

Deepfakes e notícias sintéticas

O cenário se agrava com a proliferação de deepfakes e notícias sintéticas. Vídeos falsos de CEOs, autoridades ou líderes políticos podem circular em minutos, influenciando investidores humanos e sistemas automatizados. Quando se descobre que era falso, o estrago já foi feito.

A executiva Ticiana Amorim, CEO da Aarin, hub especializado em Pix e embedded finance do grupo Bradesco, acrescenta outro elemento: a possibilidade de a própria IA estar no centro de uma nova bolha financeira.

“Existe hoje uma hipervalorização de empresas de IA semelhante ao que vimos na bolha das pontocom. Investe-se bilhões em data centers e infraestrutura sem que ainda se conheça claramente a margem de lucro real dessas operações”, afirma.

Para ela, a próxima crise tende a ser menos óbvia no início e muito mais rápida na propagação, devido às automações e à circulação acelerada de informações. Há ainda o risco de tratar a IA como fonte de verdade, quando ela é apenas uma ferramenta de interpretação de dados.

“As pessoas perguntam coisas à IA e tomam a resposta como verdade absoluta. No mercado financeiro, isso é especialmente perigoso”, diz, lembrando que as crises são sempre inéditas e que os modelos, por definição, se baseiam no passado.

Nesse sentido, o evento realmente disruptivo costuma ser aquele que não está nos dados, como descreve a teoria do Cisne Negro, de Nassim Taleb. Foi o caso da crise deflagrada pela covid-19, em 2020.

Segundo Batista, se os modelos forem treinados em períodos de estabilidade, podem subestimar eventos extremos, criando uma falsa sensação de segurança e levando a decisões de superalavancagem, em um cenário que lembra, de forma ampliada e acelerada, a crise de 2008.

“Se há poucas crises no histórico, a IA pode aprender que eventos extremos são quase impossíveis e tomar decisões baseadas nessa falsa segurança”, afirma.

Você, leitor, achou pessimista? Não é assim que os profissionais encaram a descrição dos riscos. O que talvez não esteja sendo observado é que a IA não reduz o trabalho humano.

“Ela ajuda a entender nuances e complexidades, mas exige mais supervisão. Teremos IA tomando decisões melhores em alguns pontos, mas a crise nasce quando deixamos isso muito solto. Se trabalharmos velocidade, opacidade e interconexão algorítmica, minimizamos as chances de novas crises”, diz Batista.

IA como ferramenta de prevenção

O diretor de Inovação, Produtos, Serviços e Segurança da Febraban, Ivo Mósca, adota uma visão mais otimista. Para ele, a IA amplia a capacidade de prever riscos e pode ajudar a evitar desde fraudes cotidianas até crises financeiras globais.

“Antes, um pesquisador levava meses para testar uma hipótese. Hoje, é possível simular milhares de cenários em minutos”, afirma. Segundo ele, essa modelagem permite identificar sinais de alerta antes que o efeito manada se instale.

Em meio à velocidade dos pagamentos instantâneos e dos fluxos globais de capital aumenta a volatilidade, Mósca sustenta que a própria IA pode funcionar como freio, desde que bem orientada e supervisionada. “O risco não está na tecnologia em si, mas na forma como ela é usada”, diz.

Apesar das diferenças, há consenso de que a IA não elimina a necessidade de supervisão humana. Assim, uma eventual crise não seria causada pelas máquinas, mas por humanos que delegaram a elas mais do que deveriam ou abriram mão da governança.

“Não tenho dúvidas de que a IA pode tomar decisões melhores do que as humanas em muitos aspectos. O problema começa quando a gente deixa isso muito solto”, conclui André Batista, que defende a construção de uma “arquitetura de confiança em inteligência artificial”.

Pauta do Leitor

Aconteceu algo e quer compartilhar?
Envie para nós!

WhatsApp da Redação

Comentar

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Economia

Caso Master: Deputado pede para PGR investigar Ibaneis e buscar bloqueio de bens de governador


O deputado distrital Fábio Felix (PSOL) pediu ao Ministério Público Federal para investigar o governador do Distrito Federal, Ibaneis Rocha…


O deputado distrital Fábio Felix (PSOL) pediu ao Ministério Público Federal para investigar o governador do Distrito Federal, Ibaneis Rocha…

Economia

Regulador ambiental do Chile multa mina de cobre da Antofagasta por não conformidade


A Superintendência Ambiental do Chile informou nesta sexta-feira, 23, que multou a Antofagasta Minerals em cerca de US$ 775.000 por…


A Superintendência Ambiental do Chile informou nesta sexta-feira, 23, que multou a Antofagasta Minerals em cerca de US$ 775.000 por…

Economia

Ibovespa toca pela 1ª vez os 180 mil e tem melhor semana em quase 6 anos


De elevador meio lento, mais cedo, para foguete neste fim de tarde, não parece que haja algo capaz de deter…


De elevador meio lento, mais cedo, para foguete neste fim de tarde, não parece que haja algo capaz de deter…