Estudo: Uso excessivo do ChatGPT pode levar ao apego emocional
A OpenAI parece estar anunciando novos modelos de IA semanalmente para melhorar seu chatbot ChatGPT para seus 400 milhões de usuários. No entanto, a facilidade com que essa ferramenta de IA é usada sugere que algo bom pode ser usado em excesso.
A empresa de IA agora está investigando as potenciais repercussões psicológicas que o ChatGPT pode ter sobre seus usuários. Foi publicado OpenAI consequências Estudo em duas partes Realizado em colaboração com o MIT Media Lab, o estudo revelou uma ligação entre o aumento do uso do chatbot ChatGPT e o aumento dos sentimentos de solidão entre os usuários.
Cada organização conduziu um estudo independente e então os resultados foram combinados em uma conclusão consolidada. Ao longo de um mês, o estudo da OpenAI examinou "mais de 40 milhões de interações com o ChatGPT", que não envolveram intervenção humana para preservar a privacidade do usuário. Enquanto isso, o MIT monitorou quase 1000 participantes usando ChatGPT Mais de 28 dias. Esses estudos ainda não foram revisados por pares.
O estudo do MIT investigou as diversas funções de uso que podem impactar a experiência emocional dos usuários ao interagir com o ChatGPT, incluindo o uso de texto ou voz. Os resultados revelaram que ambas as mídias tinham o potencial de induzir sentimentos de solidão ou influenciar a interação social dos usuários durante o período do estudo. A inflexão da voz e a escolha do assunto também foram pontos importantes de comparação.
Usar um tom neutro no modo de voz do ChatGPT teve menos probabilidade de resultar em um resultado emocional negativo para os participantes. Enquanto isso, o estudo observou uma ligação entre os participantes que tiveram conversas presenciais com o ChatGPT e uma maior probabilidade de se sentirem solitários; No entanto, esses efeitos foram de curto prazo. Mesmo aqueles que usam o chat de texto para falar sobre tópicos gerais têm experimentado casos crescentes de dependência emocional do chatbot.
O estudo também observou que aqueles que relataram considerar o ChatGPT um amigo e aqueles que já tinham uma forte tendência de apego emocional nos relacionamentos eram mais propensos a se sentir solitários e emocionalmente dependentes do chatbot enquanto participavam do estudo.
O estudo da OpenAI acrescentou mais contexto, já que seus resultados geralmente indicaram que interações com o ChatGPT para fins emocionais eram raras. Além disso, o estudo descobriu que, mesmo entre os usuários frequentes que usaram o recurso de modo de voz avançado do chatbot e eram mais propensos a dizer que consideravam o ChatGPT um amigo, esse grupo de participantes experimentou menos respostas emocionais ao interagir com o chatbot.
A OpenAI concluiu que seu objetivo com esses estudos é entender os desafios que podem surgir com sua tecnologia, bem como ser capaz de identificar previsões e exemplos de como seus modelos podem ser usados.
Embora a OpenAI observe que seu estudo baseado em interação imita os comportamentos de pessoas reais, mais do que alguns humanos reais admitiram em fóruns públicos, Curta o Reddit, usando o ChatGPT em vez de ir a um terapeuta para conversar sobre seus sentimentos.
Comentários estão fechados.