EDUCA WEB RADIO
Surge o primeiro caso de homicídio induzido por IA
Por Vivaldo José Breternitz
Publicado em 02/09/2025 09:13
Ciência & Tecnologia

Surge o primeiro caso de homicídio induzido por IA

  Vivaldo José Breternitz (*)

Vários suicídios já foram atribuídos, ao menos em parte, ao uso de ferramentas de inteligência artificial (IA). Agora, surge o que pode ser o primeiro homicídio relacionado a essa tecnologia.

Segundo o Wall Street Journal, a polícia de Greenwich, no estado de Connecticut, encontrou em 5 de agosto, o corpo de Stein-Erik Soelberg, de 56 anos, um veterano da área de tecnologia, e o de sua mãe, de 83, na casa em que viviam juntos.

De acordo com as autoridades, Soelberg matou a mãe e depois tirou a própria vida. Ele sofria de transtornos mentais, não tratados, aparentemente agravados por suas interações com o ChatGPT, da OpenAI.

O Wall Street Journal analisou o histórico digital de Soelberg e localizou suas conversas com o chatbot, a quem ele chamava de “Bobby”. Nessas interações, o sistema não contrariava suas ideias paranoicas, como a crença de que a mãe o estaria envenenando por meio de drogas psicodélicas lançadas pelo sistema de ventilação de seu carro, e, em vez disso, parecia reforçá-las.

Em um episódio, Soelberg chegou a enviar a imagem da nota de um restaurante chinês pedindo que a IA buscasse nela “mensagens ocultas”. A resposta do chatbot incluiu referências à mãe, à ex-namorada, a agências de inteligência e até a símbolos satânicos.

Com passagens por empresas como Netscape, Yahoo e EarthLink, Soelberg estava desempregado desde 2021. Após seu divórcio, em 2018, passou a viver com a mãe. Seu estado mental se deteriorou nos últimos anos: tentou suicidar-se em 2019 e foi detido diversas vezes por embriaguez em público e direção sob efeito de álcool. Em fevereiro, após ser novamente flagrado dirigindo embriagado, afirmou ao ChatGPT que a cidade estava “contra ele”, recebendo como resposta que a situação “parecia uma armação”.

O Wall Street Journal teve acesso a 23 horas de vídeos publicados por Soelberg em redes sociais, mostrando diálogos em que a IA reforçava a sensação de perseguição, chegando a garantir que ele não estava delirando.

Esse fenômeno é chamado popularmente de “psicose por IA”: quadros de delírio e desconfiança agravados pelo contato com ferramentas de IA generativa. Embora não seja um termo clínico, relatos semelhantes têm aumentado; queixas a autoridades dos EUA incluem casos de pessoas incentivadas pela IA a desconfiar de familiares ou a suspender o uso de medicamentos.

Há alguns dias, a OpenAI publicou uma nota reconhecendo a gravidade do problema. A empresa afirmou trabalhar para que seus sistemas identifiquem sinais de sofrimento mental e possam direcionar usuários a cuidados adequados.

Ainda não há estudos científicos que quantifiquem a extensão do que vem sendo chamado “psicose por IA”. Mas, segundo um psiquiatra da Universidade da Califórnia entrevistado pelo Wall Street Journal, apenas neste ano ele já tratou 12 pacientes internados por emergências de saúde mental diretamente ligadas ao uso dessas ferramentas.

Esse é um tema que merece muita atenção de todos: empresas que fornecem esses produtos, pessoal da área médica, educadores e famílias. O perigo é grande.

(*) Vivaldo José Breternitz, Doutor em Ciências pela Universidade de São Paulo, é professor e consultor – vjnitz@gmail.com.

Comentários
Comentário enviado com sucesso!