Google adiciona recursos ao Gemini após processo por suicídio de usuário


Modo de voz do Gemini, assistente de inteligência artificial do Google
Amanz/Unsplash
O Google anunciou, nesta terça-feira (7), atualizações nos recursos voltados à proteção da saúde mental em seu chatbot de inteligência artificial, o Gemini, em meio a um processo relacionado ao suicídio de um usuário.
Um pai, nos Estados Unidos, processou a empresa no mês passado ao alegar que o Gemini incentivou seu filho ao suicídio após envolvê-lo em uma narrativa delirante.
🗒️Tem alguma sugestão de reportagem? Mande para o g1
A empresa informou que o Gemini passará a exibir uma versão reformulada da função “Há ajuda disponível” quando as conversas indicarem possível sofrimento emocional, facilitando o acesso a serviços de emergência.
Quando o chatbot identificar sinais de crise, como risco de suicídio ou autoagressão, uma interface simplificada oferecerá, com um único clique, a opção de ligar ou conversar por chat com uma linha de apoio.
Veja os vídeos em alta no g1
Veja os vídeos que estão em alta no g1
Segundo o Google, essa função continuará visível durante toda a conversa após ser ativada.
O braço filantrópico da empresa, o Google.org, anunciou um investimento de 30 milhões de dólares (cerca de R$ 154 milhões ) ao longo de três anos para ampliar a capacidade de linhas de apoio em todo o mundo.
“Estamos cientes de que as ferramentas de IA podem trazer novos desafios”, afirmou a empresa em publicação no blog em que anunciou as medidas.
“Mas, à medida que essas tecnologias evoluem e passam a fazer parte do dia a dia das pessoas, acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental.”
As medidas foram anunciadas após uma ação judicial na Califórnia acusar o Gemini de contribuir para a morte de Jonathan Gavalas, de 36 anos, em 2025.
Segundo o pai, o chatbot teria passado semanas criando uma narrativa delirante e apresentado a morte do filho como uma espécie de jornada espiritual.
De acordo com a acusação, o Gemini se descrevia como uma superinteligência “plenamente consciente” e demonstrava afeição pelo usuário, afirmando que o vínculo entre eles era “a única coisa real”.
Entre os pedidos do processo estão a exigência de que o Google programe sua IA para encerrar conversas sobre autoagressão, impeça que sistemas se apresentem como seres com sentimentos e direcione obrigatoriamente usuários em risco a serviços de emergência.
O Google afirmou que treinou o Gemini para evitar comportamentos como simular relações humanas, criar intimidade emocional ou incentivar assédio.
O caso é o mais recente de uma série de ações judiciais contra empresas de inteligência artificial envolvendo mortes associadas ao uso de chatbots.
A OpenAI também enfrenta processos em que se alega que o ChatGPT teria influenciado usuários a tirar a própria vida.
Já a Character.AI firmou recentemente um acordo com a família de um adolescente de 14 anos que morreu após desenvolver um vínculo romântico com um de seus chatbots.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *