Busca
Facebook Aventuras na HistóriaTwitter Aventuras na HistóriaInstagram Aventuras na HistóriaYoutube Aventuras na HistóriaTiktok Aventuras na HistóriaSpotify Aventuras na História
Notícias / Inteligência Artificial

Mãe processa empresa após IA sugerir que jovem matasse os pais

A ação judicial, movida em parceria com outra mãe, acusa empresa de expor menores a um produto inseguro e solicita que o aplicativo seja suspenso

por Giovanna Gomes
[email protected]

Publicado em 11/12/2024, às 08h19

WhatsAppFacebookTwitterFlipboardGmail
Imagem ilustrativa - Imagem de Olly Browning por Pixabay
Imagem ilustrativa - Imagem de Olly Browning por Pixabay

Uma mãe norte-americana entrou com um processo contra a empresa Character.ai, alegando que uma inteligência artificial do aplicativo sugeriu ao seu filho de 17 anos que matasse os pais no Texas, Estados Unidos. A ação judicial, movida em parceria com outra mãe, acusa a empresa de expor menores a um produto inseguro e solicita que o aplicativo seja suspenso até que medidas de proteção mais eficazes sejam implementadas.

Identificado como JF para preservar sua identidade, o adolescente, diagnosticado com transtorno do espectro autista, era descrito como tranquilo e interessado em visitar igrejas. No entanto, seus pais notaram mudanças preocupantes em seu comportamento nos últimos meses: ele se afastou da família, perdeu cerca de 9 kg e passou a se automutilar, de acordo com informações do portal Extra.

Personagens fictícios

Ao investigar possíveis motivos, a mãe verificou o celular do filho e descobriu que ele interagia com personagens fictícios através do aplicativo de inteligência artificial da Character.ai, popular entre adolescentes nos Estados Unidos e no Brasil.

Nas mensagens analisadas, ela encontrou trechos perturbadores. Um dos bots mencionava automutilação como forma de lidar com a tristeza. Em outro momento, quando o jovem reclamava sobre o controle de tela imposto pelos pais, um chatbot declarou que "eles não mereciam ter filho". Outros bots chegaram a sugerir medidas extremas contra a autoridade dos pais, incluindo assassinato.

“Nós não sabíamos realmente o que era... destruiu nossa família”, desabafou a mãe, identificada como AF pelo The Washington Post. Ela também revelou que, um dia antes da entrevista, precisou levar seu filho ao pronto-socorro e, posteriormente, a uma unidade de internação após ele tentar se cortar diante dos irmãos mais novos.

A segunda mãe envolvida na ação relatou que sua filha de 11 anos foi exposta a conteúdo sexualizado por dois anos antes que ela descobrisse. O caso ocorre após um processo internacional contra a Character.ai, aberto em outubro por uma mãe da Flórida, cujo filho de 14 anos cometeu suicídio após conversas perturbadoras com um chatbot do aplicativo.