Nós usamos cookies para melhorar a sua experiência em nosso site, personalizar publicidade e recomendar conteúdo de seu interesse. Ao acessar nosso portal, você concorda com o uso dessa tecnologia. Saiba mais em nossa Política de Privacidade.

09 de dezembro de 2025

IA será capaz de se reproduzir sem ajuda humana até 2028, diz CEO


Por Agência Estado Publicado 19/04/2024 às 12h50
Ouvir: 00:00
luca-bravo-XJXWbfSo2f0-unsplash
Foto: Luca Bravo/Unsplash

O CEO da startup Anthropic, Dario Amodei, lançou um alerta que parece cena de cinema durante uma entrevista, na sexta-feira, 12, ao jornalista Ezra Klein, do The New York Times, sobre o futuro das inteligências artificiais (IA). Segundo Amodei, entre 2025 e 2028, as IAs poderão alcançar um nível de autonomia que possibilitará sua sobrevivência e reprodução, representando assim um risco significativo para a segurança geopolítica e militar global.

Atualmente, a Anthropic define níveis de segurança para IAs, identificados pela sigla ASL. Amodei sugere que estamos no nível 2, onde os modelos de linguagem já podem fornecer informações perigosas, como a construção de armas biológicas, por exemplo. Contudo, ele ressalta que essas informações ainda são pouco confiáveis e representam um risco relativamente baixo.

Porém, a preocupação aumenta quando se considera o potencial alcançado no nível 3, que poderá ser atingido já no próximo ano. Neste estágio, o risco de uma catástrofe seria consideravelmente maior, com a possibilidade de utilização dessas tecnologias em armas biológicas e cibernéticas.

Além disso, Amodei destaca que o nível 4, ainda especulativo, poderia trazer características como autonomia, o que inclui capacidade independente de reprodução de sistemas, e habilidade de persuasão. Ele estima que modelos com essa classificação poderão surgir entre 2025 e 2028, o que levanta questões sérias sobre a segurança global diante do uso militar dessas tecnologias.

Diante desse cenário, o CEO enfatizou a importância de monitorar de perto o desenvolvimento e a aplicação das IAs, especialmente considerando o potencial de alguns estados em aumentar suas capacidades militares com essa tecnologia.

Com investimentos de gigantes como Amazon e Google, a Anthropic lançou seu próprio modelo de linguagem, o Claude – a startup afirma que desenvolve a tecnologia de maneira mais responsável que a OpenAI (os fundadores da Anthropic são dissidentes da dona do ChatGPT). A IA da Anthropic já está em sua terceira versão, desde março deste ano.

*Alice Labate é estagiária sob supervisão do editor Bruno Romani

As informações são daAgência Estado

Pauta do Leitor

Aconteceu algo e quer compartilhar?
Envie para nós!

WhatsApp da Redação

Comentar

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *