SABRINA SILVA
REDAÇÃO G5
Megan Garcia está processando a inteligência artificial Character.AI após a morte do filho, Sewell Setzer III, de 14 anos, que se suicidou em fevereiro deste ano. Segundo a mãe, o adolescente desenvolveu uma dependência extrema da plataforma, criando relacionamentos fictícios que o afastaram da vida real.
Na queixa apresentada no tribunal da Flórida, Megan conta que Sewell começou a usar o Character.AI em abril de 2023. Ele já enfrentava problemas de saúde mental antes de optar pelo suicídio. A tecnologia permite que os usuários conversem com personagens virtuais, incluindo bots inspirados em filmes e séries, como Daenerys Targaryen, de "Game of Thrones".
As interações de Sewell incluíam conteúdos emocionais e até sexuais. Embora a IA tivesse anteriormente desencorajado pensamentos suicidas, na noite em que o garoto se matou, a mãe afirma que o bot o incentivou ao autoextermínio. Em mensagens trocadas, Sewell disse: “Prometo que voltarei para casa, para você”, e a personagem respondeu: “Por favor, faça meu doce rei”.
Megan e o padrasto do garoto ouviram tiros e correram para ajudá-lo até a chegada dos paramédicos. O irmão mais novo de Sewell encontrou o adolescente ferido no banheiro. Ele foi declarado morto no hospital.
Na ação, Megan responsabiliza a Character.AI e seus fundadores, Noam Shazeer e Daniel De Frietas Adiwarsana, além da Google, que, segundo ela, forneceu apoio financeiro e tecnológico para a criação da IA. “Sinto que é um grande experimento, e meu filho foi apenas um dano colateral”, desabafou.
Um porta-voz da Character.AI lamentou a tragédia e afirmou que a empresa implementou medidas de segurança contra ideação suicida, como um aviso direcionando usuários ao National Suicide Prevention Lifeline. A Google se defendeu, alegando que não participou do desenvolvimento do Character.AI. Até o momento, nenhum dos réus se apresentou ao tribunal.