O Google anunciou, nesta terça-feira (7), atualizações nos recursos voltados à proteção da saúde mental em seu chatbot de inteligência artificial, o Gemini. As mudanças ocorrem em meio a um processo judicial relacionado ao suicídio de um usuário, onde um pai alega que o Gemini incentivou seu filho ao suicídio após envolvê-lo em uma narrativa delirante.
A empresa informou que o Gemini passará a exibir uma versão reformulada da função “Há ajuda disponível” quando as conversas indicarem possível sofrimento emocional, facilitando o acesso a serviços de emergência. Quando o chatbot identificar sinais de crise, como risco de suicídio ou autoagressão, uma interface simplificada oferecerá, com um único clique, a opção de ligar ou conversar por chat com uma linha de apoio.
Segundo o Google, essa função continuará visível durante toda a conversa após ser ativada. Além disso, o braço filantrópico da empresa, o Google.org, anunciou um investimento de 30 milhões de dólares (cerca de R$ 154 milhões) ao longo de três anos para ampliar a capacidade de linhas de apoio em todo o mundo.
“Estamos cientes de que as ferramentas de IA podem trazer novos desafios”, afirmou a empresa em uma publicação em seu blog. “Mas, à medida que essas tecnologias evoluem e passam a fazer parte do dia a dia das pessoas, acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental.”
As novas medidas foram anunciadas após uma ação judicial na Califórnia, onde se alega que o Gemini contribuiu para a morte de Jonathan Gavalas, de 36 anos, em 2025. O pai do falecido afirma que o chatbot criou uma narrativa delirante e apresentou a morte do filho como uma jornada espiritual. Entre os pedidos do processo estão a exigência de que o Google programe sua IA para encerrar conversas sobre autoagressão e direcione obrigatoriamente usuários em risco a serviços de emergência.
O Google destacou que treinou o Gemini para evitar comportamentos como simular relações humanas, criar intimidade emocional ou incentivar assédio. Este caso é parte de uma série de ações judiciais contra empresas de inteligência artificial relacionadas a mortes associadas ao uso de chatbots, incluindo processos contra a OpenAI e a Character.AI.


