
Um relatório da Anthropic expõe um dos lados mais sombrios da inteligência artificial: seu uso para manipular emoções.
Vivaldo José Breternitz (*)
A prática, conhecida como vibe-hacking, vem ganhando espaço e traz preocupações; a palavra “vibe” vem do inglês “vibration” e em português é usada principalmente entre jovens, como sinônimo de “energia”, “clima” ou “sensação”.
O vibe-hacking é uma forma avançada de engenharia social. A técnica consiste em manipular o estado emocional das pessoas para influenciar decisões e comportamentos, reduzindo sua capacidade crítica; isso pode ser feito por meio da difusão de conteúdos como textos, imagens e vídeos. Em redes sociais, a prática também envolve o uso de bots para manipular algoritmos e dar mais visibilidade a conteúdos de natureza ideológica ou que gerem desinformação.
De acordo com a Anthropic, hackers conseguiram explorar vulnerabilidades com esse tipo de manipulação e extraíram informações de 17 organizações norte-americanas, exigindo pagamentos de até 500 mil dólares para não divulgar as informações obtidas.
Outro fato revelado pelo relatório é que mais de 500 norte-coreanos utilizaram o modelo de IA Claude da Anthropic para simular conhecimentos técnicos e fluência em idiomas que não possuíam. O objetivo era conquistar vagas em empresas americanas, incluindo algumas da lista das 500 maiores do país. O dinheiro obtido era repassado ao governo norte-coreano, e os empregos obtidos visavam também permitir a prática de espionagem industrial.
O uso criminoso da IA é cada vez mais comum: em julho de 2024, um caso de deepfake atingiu a Itália: hackers imitaram a voz do CEO da Ferrari, Benedetto Vigna, em uma tentativa de extorsão. Em junho, a OpenAI também bloqueou contas de seu ChatGPT ligadas a norte-coreanos, que tinham objetivos semelhantes aos dos que foram identificados pela Anthropic.
Diante desse cenário, a Anthropic anunciou, em 27 de agosto, a criação do National Security and Public Sector Advisory Council, que conta com ex-senadores e com o ex-vice-diretor da CIA, David Cohen. O conselho buscará fortalecer pesquisas e defesas contra usos maliciosos da IA, além de orientar sobre sua integração em operações governamentais.
Autoridades e empresas reforçam que, para enfrentar ameaças potencializadas pela IA, é necessário recorrer a sistemas igualmente apoiados por inteligência artificial. Tanto nos EUA quanto na Europa, diplomas legais já obrigam companhias a reportar incidentes cibernéticos e a colaborar com autoridades, em uma tentativa de estabelecer uma rede internacional de cooperação contra o cibercrime.
Como quase todas as tecnologias, a inteligência artificial é uma arma de dois gumes: pode trazer grandes benefícios, mas também grandes males.
(*) Vivaldo José Breternitz, Doutor em Ciências pela Universidade de São Paulo, é professor e consultor – [email protected].
*******************************************************************
Prezado(a) leitor(a),
Gostaríamos de convidá-lo(a) a participar de uma breve pesquisa. Suas respostas nos ajudarão a entender melhor o perfil de nossos leitores e a direcionar nossos esforços para oferecer o melhor jornalismo de negócios.
PESQUISA JORNAL EMPRESAS E NEGÓCIOS


