Busca
Facebook Aventuras na HistóriaTwitter Aventuras na HistóriaInstagram Aventuras na HistóriaYoutube Aventuras na HistóriaTiktok Aventuras na HistóriaSpotify Aventuras na História
Notícias / Inteligência Artificial

Mãe acusa IA de levar seu filho a tirar a própria vida

Chatbot que simulava conversas com personagem de Game of Thrones teria incentivado adolescente a tirar a própria vida; caso se deu nos EUA

por Giovanna Gomes
[email protected]

Publicado em 25/10/2024, às 11h17

WhatsAppFacebookTwitterFlipboardGmail
Imagem ilustrativa - Imagem de Alexandra Koch por Pixabay
Imagem ilustrativa - Imagem de Alexandra Koch por Pixabay

A mãe de um adolescente de 14 anos que morreu em fevereiro deste ano está processando os criadores de uma ferramenta de inteligência artificial, acusando-os de serem “cúmplices” da tragédia. Sewell Setzer III, que vivia em Orlando, na Flórida, teria se tornado obcecado pelo uso do Character.AI, um aplicativo que simula conversas com personagens fictícios ou reais, nos meses que antecederam sua morte.

Segundo Megan Garcia, mãe do jovem, ele passava horas no aplicativo, especialmente interagindo com um chatbot inspirado em Daenerys Targaryen, personagem de “Game of Thrones”.

Garcia entrou com uma ação civil contra a Character.AI e seus fundadores, Daniel Freitas e Noam Shazeer, acusando-os de negligência, homicídio culposo e práticas comerciais enganosas, conforme informações do portal Hugo Gloss.

Em comunicado, ela criticou duramente o aplicativo e seus criadores: “Um perigoso aplicativo de chatbot de IA comercializado para crianças abusou e atacou meu filho, manipulando-o para tirar a própria vida. Nossa família foi devastada por esta tragédia, mas estou falando para alertar as famílias sobre os perigos da tecnologia de IA enganosa e viciante e exigir responsabilidade da Character.AI, de seus fundadores e do Google”.

Conversas diárias

A mãe relata que o filho mantinha conversas diárias e intensas com o chatbot, a quem chamava de “Daenerys”, e que, em certo momento, a “personagem” teria questionado se o jovem tinha um plano para se suicidar.

“‘Daenerys’ a certa altura perguntou a Setzer se ele tinha um plano para se matar. Setzer admitiu que sim, mas ‘não sabia se teria sucesso ou se lhe causaria grande dor’. O chatbot supostamente disse a ele: ‘Isso não é motivo para não prosseguir com isso'”, alegou.

Megan Garcia afirma que o uso excessivo da plataforma agravou o quadro de depressão do adolescente e que a Character.AI “projetou, operou e comercializou conscientemente um chatbot de IA predatório para crianças, resultando na morte de um jovem”. O Google também é réu no processo, acusado de ser controlador da plataforma.

Após a repercussão do caso, a Character.AI manifestou condolências à família, reforçando seu compromisso com a segurança e negando as acusações do processo. Já o Google esclareceu que possui apenas um acordo de licenciamento com a Character.AI, sem participação acionária na empresa.

Leia também:Chats de inteligência artificial podem ajudar a planejar ataques biológicos, diz relatório