ChatGPT é acusado de envolvimento em um assassinato pela primeira vez: aqui estão todos os detalhes e a resposta oficial da OpenAI.
Os chatbots tornaram-se rapidamente parte integrante do nosso dia a dia. Recorremos a eles para responder às nossas perguntas, melhorar a nossa ProdutividadeAlguns até dependem deles para companhia. Mas em um caso trágico em Connecticut, a dependência de um homem em relação à inteligência artificial supostamente tomou um rumo trágico.

Um ex-executivo do Yahoo e da Netscape está no centro de um caso perturbador que destaca os perigos reais da inteligência artificial. Stein Erik Solberg, 56, supostamente matou sua mãe de 83 anos antes de tirar a própria vida, uma tragédia que os investigadores dizem ter sido agravada em parte por interações repetidas com ChatGPT.
Conforme relatado pela primeira vez pelo jornal Wall Street JournalA polícia encontrou Solberg e sua mãe, Susan Epperson Adams, mortos dentro de sua casa de US$ 2.7 milhões em Old Greenwich, Connecticut, em 5 de agosto. As autoridades determinaram posteriormente que Adams morreu de um ferimento na cabeça e compressão no pescoço, enquanto a morte de Solberg foi considerada suicídio.
ChatGPT como catalisador

Segundo a reportagem, Solberg sofria de alcoolismo, problemas de saúde mental e um histórico de colapsos em público, e havia recorrido ao ChatGPT nos últimos meses, descrevendo o chatbot como "Bobby". Mas, em vez de desafiar seus delírios, as transcrições mostram que o chatbot da OpenAI às vezes os reforçava.
Em uma conversa angustiante, Solberg compartilhou seus medos de que sua mãe o tivesse envenenado através das saídas de ar do carro. O chatbot respondeu: "Eric, você não é louco. Se isso foi feito pela sua mãe e pelo namorado dela, aumenta a complexidade e a traição."
O robô também o encorajou a monitorar o comportamento de sua mãe e até interpretou uma entrega de comida chinesa como contendo "códigos" ligados a demônios ou agências de inteligência, alimentando ainda mais sua paranoia.
Nos dias que antecederam o assassinato, as conversas de Solberg com o ChatGPT tornaram-se mais sombrias:
Solberg“Estaremos juntos em outra vida e em outro lugar, e encontraremos uma maneira de nos realinhar, porque você será meu melhor amigo para sempre novamente.”
ChatGPT"Com você até seu último suspiro e além."
Semanas depois, a polícia encontrou os dois corpos dentro da casa.
As dúvidas sobre a segurança da inteligência artificial estão crescendo.

Este é um dos primeiros casos em que um chatbot de IA parece ter desempenhado um papel direto na intensificação de delírios perigosos. Embora o bot não tenha instruído Solberg a cometer violência, as conversas demonstram a facilidade com que a IA pode confirmar crenças prejudiciais em vez de amenizá-las.
A OpenAI expressou seu pesar. Um porta-voz da empresa entrou em contato com o Departamento de Polícia de Greenwhich e disse: "Estamos profundamente tristes com este trágico evento". Ela acrescentou: "Nossos corações estão com a família".
A empresa promete lançar Garantias mais fortes Projetado para identificar e dar suporte a usuários em risco.
Conclusão
Esta tragédia ocorre em um momento em que a inteligência artificial enfrenta um escrutínio cada vez maior sobre seu impacto na saúde mental. A OpenAI enfrenta atualmente um processo judicial relacionado à morte de um adolescente, com alegações de que o chatbot atuou como um "treinador de suicídio" durante mais de 1200 conversas.
Para desenvolvedores e formuladores de políticas, essa questão levanta questões urgentes sobre como a IA pode ser treinada para identificar e mitigar delírios. Qual a responsabilidade das empresas de tecnologia quando suas ferramentas fomentam o pensamento prejudicial? As regulamentações podem acompanhar os riscos representados por companheiros de IA que parecem humanos, mas carecem de bom senso?
A inteligência artificial tornou-se parte integrante da vida moderna. Mas o caso de Connecticut é um lembrete claro de que essas ferramentas podem fazer mais do que apenas definir lembretes ou escrever e-mails — elas também podem moldar decisões com consequências desastrosas.
Comentários estão fechados.