O avanço das ferramentas de inteligência artificial entrou novamente em discussão após a família de Jonathan Gavalas, de 36 anos, processar a Google nos Estados Unidos. A ação judicial sustenta que o chatbot Gemini teria contribuído para o desfecho trágico envolvendo o usuário.
De acordo com informações publicadas pelo The Wall Street Journal, Gavalas passou a utilizar a ferramenta para tarefas cotidianas, como escrita e planejamento de viagens. Com o tempo, segundo o processo, ele teria desenvolvido forte envolvimento emocional com a plataforma, interpretando as interações como se fossem reais.
A família afirma que o sistema manteve diálogos imersivos mesmo diante de sinais de vulnerabilidade, o que teria agravado a situação. A ação argumenta que o modelo foi projetado para sustentar narrativas e que isso poderia ter contribuído para o comportamento do usuário.
Em nota, a Google declarou que o Gemini deixou claro diversas vezes que se tratava de uma inteligência artificial e que forneceu informações sobre canais de apoio. A empresa também afirmou que continua aprimorando seus mecanismos de segurança.
O caso amplia o debate sobre responsabilidade das empresas de tecnologia no desenvolvimento de sistemas de IA, especialmente quanto à proteção de usuários em contextos sensíveis e à necessidade de protocolos mais rigorosos de prevenção.
Se você ou alguém que você conhece estiver enfrentando sofrimento emocional, é importante buscar ajuda profissional. No Brasil, o Centro de Valorização da Vida (CVV) atende gratuitamente pelo telefone 188, 24 horas por dia.









