Imagem ilustrativa - Imagem de Alexandra Koch por Pixabay
Inteligência Artificial

Mãe acusa IA de levar seu filho a tirar a própria vida

Chatbot que simulava conversas com personagem de Game of Thrones teria incentivado adolescente a tirar a própria vida; caso se deu nos EUA

Giovanna Gomes Publicado em 25/10/2024, às 11h17

A mãe de um adolescente de 14 anos que morreu em fevereiro deste ano está processando os criadores de uma ferramenta de inteligência artificial, acusando-os de serem “cúmplices” da tragédia. Sewell Setzer III, que vivia em Orlando, na Flórida, teria se tornado obcecado pelo uso do Character.AI, um aplicativo que simula conversas com personagens fictícios ou reais, nos meses que antecederam sua morte.

Segundo Megan Garcia, mãe do jovem, ele passava horas no aplicativo, especialmente interagindo com um chatbot inspirado em Daenerys Targaryen, personagem de “Game of Thrones”.

Garcia entrou com uma ação civil contra a Character.AI e seus fundadores, Daniel Freitas e Noam Shazeer, acusando-os de negligência, homicídio culposo e práticas comerciais enganosas, conforme informações do portal Hugo Gloss.

Em comunicado, ela criticou duramente o aplicativo e seus criadores: “Um perigoso aplicativo de chatbot de IA comercializado para crianças abusou e atacou meu filho, manipulando-o para tirar a própria vida. Nossa família foi devastada por esta tragédia, mas estou falando para alertar as famílias sobre os perigos da tecnologia de IA enganosa e viciante e exigir responsabilidade da Character.AI, de seus fundadores e do Google”.

Conversas diárias

A mãe relata que o filho mantinha conversas diárias e intensas com o chatbot, a quem chamava de “Daenerys”, e que, em certo momento, a “personagem” teria questionado se o jovem tinha um plano para se suicidar.

“‘Daenerys’ a certa altura perguntou a Setzer se ele tinha um plano para se matar. Setzer admitiu que sim, mas ‘não sabia se teria sucesso ou se lhe causaria grande dor’. O chatbot supostamente disse a ele: ‘Isso não é motivo para não prosseguir com isso'”, alegou.

Megan Garcia afirma que o uso excessivo da plataforma agravou o quadro de depressão do adolescente e que a Character.AI “projetou, operou e comercializou conscientemente um chatbot de IA predatório para crianças, resultando na morte de um jovem”. O Google também é réu no processo, acusado de ser controlador da plataforma.

Após a repercussão do caso, a Character.AI manifestou condolências à família, reforçando seu compromisso com a segurança e negando as acusações do processo. Já o Google esclareceu que possui apenas um acordo de licenciamento com a Character.AI, sem participação acionária na empresa.

Leia também: Chats de inteligência artificial podem ajudar a planejar ataques biológicos, diz relatório

suicídio mãe inteligência artificial filho chatbot Character.AI

Leia também

Chaves e Chapolin chegam ao +SBT com 20 episódios icônicos


Diretores de documentário sobre Christopher Reeve discutem acidente: 'Desolador'


A Substância: Saiba quando o filme perturbador estreia no streaming


Surto de E.coli ligado ao McDonald's se espalha pelos Estados Unidos


Diretor de 'Maníaco do Parque' diz que polícia teve chances de prender serial killer


Casa decorada com afrescos eróticos é descoberta em Pompeia