Por que você deve evitar usar o ChatGPT como terapeuta: insights de Sam Altman e avisos
Tenha cuidado com o que você diz ao ChatGPT.
De acordo com Sam Altman, CEO da OpenAI, recorrer a ChatGPT para suporte emocional Uma boa ideia, por uma razão muito simples: chatbots com tecnologia de IA não estão sujeitos às mesmas leis de confidencialidade profissional que médicos e terapeutas humanos.
Em uma recente aparição em um podcast, Altman disse: “As pessoas — especialmente os jovens — o usam como terapeuta ou coach pessoal, onde falam sobre seus problemas emocionais e perguntam: ‘O que devo fazer?’” Este fim de semana passado com Theo Von.

“Neste momento, se você falar com um terapeuta, um advogado ou um médico sobre essas questões, essas conversas são legalmente privilegiadas”, acrescentou.
Ele continuou: "Há confidencialidade médico-paciente, confidencialidade legal e assim por diante. Ainda não resolvemos essa questão referente às suas conversas com o ChatGPT."
Altman observa que, em caso de ação judicial, a OpenAI pode ser legalmente obrigada a entregar registros de conversas que alguém teve com o ChatGPT. Notavelmente, a empresa já está envolvida em uma batalha judicial com o The New York Times sobre a retenção de conversas excluídas. Em maio, um tribunal ordenou que a OpenAI preservasse "todos os dados de log de saída que deveriam ter sido excluídos", mesmo que o usuário ou as leis de privacidade solicitem sua exclusão.
Falando no podcast, Altman expressou sua crença de que a IA deve ter "o mesmo conceito de privacidade para suas conversas com IA que você tem com um terapeuta ou qualquer outra pessoa — algo que ninguém teria pensado há um ano". Isso destaca a importância da legislação e das regulamentações que regem o uso da IA em áreas sensíveis, como a saúde mental, para garantir que a privacidade e os dados dos usuários sejam protegidos.
As pessoas estão usando inteligência artificial para psicoterapia?

No início deste ano, a Anthropic, desenvolvedora do Claude, concorrente do ChatGPT, analisou 4.5 milhões de conversas para determinar se os usuários recorriam a chatbots para conversas românticas. De acordo com o estudo, apenas 2.9% das interações com a IA do Claude envolveram conversas românticas, enquanto companheirismo e role-playing representaram apenas 0.5%.
No contexto de um processo judicial, a OpenAI pode ser legalmente obrigada a entregar registros de uma conversa que alguém teve com o ChatGPT.
Embora a base de usuários do ChatGPT exceda em muito a de Claude, ainda é relativamente raro que as pessoas usem esse chatbot para comunicação emocional. Ao contrário dos comentários de Altman acima, um estudo conjunto da OpenAI e do MIT afirmou: "O envolvimento emocional com o ChatGPT é raro no uso real."
O resumo acrescentou: “Pistas emocionais (aspectos de interações que indicam empatia, afeição ou apoio) não estavam presentes na grande maioria das conversas na plataforma que avaliamos, sugerindo que o envolvimento emocional é um caso de uso raro para o ChatGPT”.
Até aqui, tudo bem. Mas aqui está a conclusão: a IA conversacional só tende a melhorar em termos de interatividade e nuances, o que pode facilmente levar mais pessoas a recorrerem a ela em busca de ajuda com problemas pessoais.
Atualizar GPT-5 O ChatGPT está prestes a chegar, e com ele vem uma série de interações mais naturais e contexto aprimorado. Portanto, embora seja mais fácil compartilhar mais detalhes com a IA, os usuários podem querer pensar com cuidado sobre o que estão preparados para dizer.
Comentários estão fechados.