301 views 4 mins

Personalidades pedem suspensão do desenvolvimento da super IA

em Tecnologia
sexta-feira, 24 de outubro de 2025

Centenas de cientistas, políticos, empresários e outras personalidades assinaram um documento pedindo a suspensão dos trabalhos de desenvolvimento do que vem sendo chamado Inteligência Artificial Geral, do inglês Artificial General Intelligence (AGI), uma superinteligência artificial que seria capaz de pensar, aprender e agir de forma tão ampla, autônoma e flexível quanto um ser humano.

Vivaldo José Breternitz (*)

O documento, que alerta para os potenciais riscos dessa tecnologia, foi tornado público pelo Future of Life Institute, organização sem fins lucrativos que tem entre seus fundadores Jaan Tallinn, criador do Skype e um dos primeiros investidores da DeepMind (hoje parte do Google).

Os signatários defendem uma proibição temporária do desenvolvimento da AGI, que só deveria ser retomado quando houver um consenso científico sobre sua segurança, além de amplo apoio público.

A declaração está alinhada a uma pesquisa divulgada na semana passada pelo próprio instituto, segundo a qual 64% dos adultos nos Estados Unidos acreditam que os esforços para criar uma super IA devem ser suspensos até que sua segurança seja comprovada e que caso isso não seja possível, o tema deveria ser banido definitivamente.

Entre os signatários do documento, estão Geoffrey Hinton e Yoshua Bengio, dois dos mais renomados pesquisadores em inteligência artificial; Hinton foi um dos vencedores do Prêmio Nobel de Física de 2024 e Bengio recebeu o Prêmio Turing de 2018, considerado o “Nobel da Computação”.

O manifesto também conta com o apoio de outros quatro laureados com o Nobel, dezenas de professores universitários e do cofundador da Apple, Steve Wozniak. Além de expoentes do meio acadêmico e tecnológico, assinam a declaração ex-membros do Congresso americano, parlamentares europeus e outras personalidades.

Chama a atenção a adesão de atuais executivos da OpenAI e da Anthropic, empresas que lideram a corrida pelo desenvolvimento da AGI e seriam diretamente impactadas por uma eventual regulação.

A publicação do documento ocorre menos de um ano e meio após uma carta aberta que já alertava para os riscos da inteligência artificial. Na ocasião, ex-funcionários da OpenAI, Anthropic e Google pediram mais transparência das empresas quanto aos perigos da tecnologia; essa carta também foi assinada por Hinton e Bengio.

Inteligência artificial parece estar se configurando como um perigo para o mundo – além dos riscos trazidos pela AIG, deve também ser levada em conta a possibilidade de que IA como um todo seja uma bolha do ponto de vista financeiro, que ao estourar, provocaria uma catástrofe que derrubaria a economia do mundo.

(*) Doutor em Ciências pela Universidade de São Paulo, é professor, consultor e diretor do Fórum Brasileiro de Internet das Coisas – [email protected].