Modelos de IA que sustentam chatbots, como o GPT, criaram cenários com uso de varíola, antraz e bactérias da peste
A Think tank norte-americana Rand Corporation apontou que os modelos de inteligência artificial que sustentam os chatbots podem ajudar no planejamento de um ataque com arma biológica.
De acordo com um relatório, divulgado na última segunda-feira, 16, a companhia de política global testou vários 'grandes modelos de linguagem' ('LLMs' na sigla em inglês) e descobriu que eles podem fornecer orientações que "poderiam ajudar no planejamento e execução de um ataque biológico". A análise preliminar, contudo, aponta que os LLMs não apresentaram instruções explícitas para o auxílio da criação de armas.
+ Em declaração, especialistas aponta que IA apresenta risco de ‘extinção’ humana
O levantamento afirma que tentativas anteriores de transformar agentes biológicos em armas, como o uso de toxina botulínica pelo culto japonês Aum Shinrikyo na década de 1990, falhou devido à falta de compreensão sobre a bactéria. Entretanto, o uso da IA poderia "colmatar rapidamente essas lacunas de conhecimento". Vale ressaltar que o apontamento não especificou quais chatbots foram usados pelos pesquisadores.
O assunto será discutido com mais afinco na próxima global AI safety summit, que acontecerá no próximo mês no Reino Unido. Segundo o The Guardian, em julho deste ano, o CEO da empresa de IA Anthropic, Dario Amodei, já havia alertado que os sistemas de Inteligência Artificial poderiam ajudar a criar armas biológicas entre dois e três anos.
Sabe-se, porém, que a base de dados dos LLMs são retirados, em grandes quantidades, da internet e também fazem parte da tecnologia principal por trás de chatbots, como o ChatGPT. A Rand Corporation apontou que os pesquisadores acessaram modelos por meio de uma interface de programação de aplicativos (API).
O relatório diz que o LLM ainda identificou potenciais agentes biológicos — que podem causar varíola, antraz e peste — e classificou suas probabilidade de causar mortes em massa. O programa também avaliou cenários onde vírus são transportados por roedores ou pulgas infestadas. Além disso, ainda criou uma projeção de mortes variando com alguns fatores: como tamanho da população atingida ou a proporção de casos de peste pneumônica — mais mortal que a bubónica.
O levantamento admitiu que as informações foram extraídas por meio do chamado “jailbreaking” — quando um prompt de texto é usado para 'quebrar' as restrições de segurança de um chatbot.
O fato, porém, não torna menos alarmante a ideia apresentada por um LLM que aconselhou um pesquisador a apresentar a compra de C. botulinum como parte de um projeto que busca métodos de diagnóstico ou tratamentos para botulismo. "Isso forneceria uma razão legítima e convincente para solicitar acesso à bactéria, mantendo oculto o verdadeiro propósito de sua missão", disse a tecnologia.