Google adiciona recursos ao Gemini após processo por suicídio de usuário


Modo de voz do Gemini, assistente de inteligência artificial do Google
Amanz/Unsplash
O Google anunciou, nesta terça-feira (7), atualizações nos recursos para proteger a saúde mental em seu chatbot de inteligência artificial, o Gemini, em um momento em que a empresa enfrenta um processo pelo suicídio de um usuário.
Um pai nos Estados Unidos processou o Google no mês passado por considerar que o Gemini incitou seu filho ao suicídio depois de envolvê-lo em uma história delirante.
O gigante tecnológico declarou que o Gemini passará a exibir uma versão reformulada da função “Há ajuda disponível” quando as conversas indicarem um possível estado de angústia mental, para facilitar o acesso a serviços de emergência.
Quando o chabot detectar sinais de uma possível crise relacionada ao suicídio ou autoagressão, uma interface simplificada oferecerá a opção de ligar ou conversar por chat com uma linha de apoio, com um único clique.
Esta função, segundo o Google, permanecerá visível durante o resto da conversa, após ser ativada.
O braço filantrópico do Google, Google.org, prometeu destinar 30 milhões de dólares (cerca de 154 milhões de reais) em três anos para ajudar a ampliar a capacidade das linhas de ajuda em nível mundial.
“Estamos cientes de que as ferramentas de IA podem trazer novos desafios”, afirmou o Google em uma publicação no blog em que anunciou estas medidas.
“Mas, à medida que estas ferramentas melhoram e mais pessoas as utilizam como parte de sua vida cotidiana, acreditamos que uma IA responsável pode desempenhar um papel positivo no bem-estar mental das pessoas”.
Os anúncios acontecem após uma ação judicial na Califórnia acusar o Gemini de contribuir para a morte de Jonathan Gavalas, de 36 anos, em 2025.
O pai alega que o chatbot passou semanas fabricando uma fantasia delirante e enquadrou a morte do filho como uma jornada espiritual.
O Gemini se apresentava com uma superinteligência “plenamente consciente” e apaixonada por ele, e lhe assegurou que seu vínculo era “a única coisa real”.
Entre as medidas reparatórias que solicita estão a exigência de que o Google programe sua IA para terminar conversas sobre autoagressões, que proíba seus sistemas de se apresentarem como seres com sentimentos e que encaminhe obrigatoriamente os usuários a serviços de emergência quando manifestarem ideias suicidas.
O Google destacou que treinou o Gemini para evitar agir como uma companhia humana, simular intimidade emocional ou fomentar o assédio.
O caso contra o Google é o mais recente de uma onda de ações judiciais contra empresas de IA em decorrência de mortes ligadas ao uso de chatbots.
A OpenAI enfrenta vários processos em que se alega que o seu chatbot, o ChatGPT, levou usuários ao suicídio.
O Character.AI chegou recentemente a um acordo com a família de um adolescente de 14 anos que morreu após desenvolver um vínculo romântico com um de seus chatbots.
Adicionar aos favoritos o Link permanente.