O ChatGPT pode solicitar uma prova de sua identidade se seu novo sistema de previsão de idade suspeitar que você tem menos de 18 anos.

O ChatGPT está atualmente desenvolvendo um sistema automatizado de detecção de idade que pode determinar se um usuário tem menos de 18 anos. Em alguns casos, quando isso não pode ser determinado, o chatbot pode pedir que os usuários forneçam um documento de identidade oficial para comprovar isso.

Logotipo do ChatGPT no telefone

A OpenAI, empresa por trás do ChatGPT, está aprimorando suas ferramentas de controle parental e está sob crescente pressão devido ao caso de grande repercussão de Adam Renn, de 16 anos. De quem é a família que alega que o ChatGPT contribuiu para o seu suicídio?.

“O ChatGPT é destinado a maiores de 13 anos”, explicou o CEO Sam Altman em uma postagem de blog intitulada “Segurança, liberdade e privacidade para adolescentes”.

“Estamos trabalhando na construção de um sistema de previsão de idade para estimar a idade com base em como as pessoas usam o ChatGPT”, disse ele. كتبEm caso de dúvida, pecaremos por excesso de cautela e retornaremos à experiência para menores de 18 anos. Em alguns casos ou países, também podemos solicitar um documento de identidade; sabemos que isso representa uma concessão de privacidade para adultos, mas acreditamos que seja uma troca que vale a pena.

Em alguns casos ou países, também podemos solicitar um documento de identidade; sabemos que isso representa um comprometimento da privacidade dos adultos, mas acreditamos que seja uma troca que vale a pena.

Sam Altman, CEO da OpenAI

Altman explica ainda que alguns elementos das respostas do ChatGPT serão bloqueados para adolescentes, como respostas de flerte ou discussões sobre automutilação. Ele afirma que a empresa priorizará a segurança em detrimento da privacidade e da liberdade dos adolescentes, explicando que menores precisam de "proteção significativa".

Por fim, ele acrescenta que, se um adolescente expressar pensamentos suicidas ao chatbot, ele tentará entrar em contato com os pais e alertá-los. Se isso não for possível, o ChatGPT tentará entrar em contato com as autoridades.

“Reconhecemos que esses princípios são conflitantes e que nem todos concordarão com a forma como resolveremos esse conflito”, escreveu Altman. “São decisões difíceis, mas, após conversar com especialistas, acreditamos que é o melhor, e queremos ser transparentes sobre nossas intenções.”

Dr. Brian Ramos, neurocientista e pesquisador de longevidade da Simplesmente NootrópicosO Tom's Guide diz que a OpenAI está tomando a decisão certa.

“Como neurocientista especializado em longevidade e bem-estar holístico, aceito salvaguardas como sistemas de previsão de idade e controles parentais”, ele me disse por e-mail.

Os cérebros dos adolescentes ainda estão em desenvolvimento, o que os torna mais vulneráveis ​​aos benefícios e riscos da inteligência artificial. O ChatGPT pode ser um companheiro útil para conversas terapêuticas leves e casuais, ajudando no alívio do estresse, na meditação e na construção de hábitos saudáveis.

Mas quando se trata de lutas psicológicas profundas, especialmente em relação a automutilação ou trauma, profissionais humanos devem sempre ser consultados. A tecnologia pode apoiar, mas nunca deve substituir, o cuidado terapêutico genuíno.

Controles parentais do ChatGPT – O que vem a seguir

Adolescente olhando para o celular no sofá enquanto sua mãe está atrás dela

Os próximos controles parentais do ChatGPT permitirão que os pais vinculem suas contas às contas de seus filhos adolescentes.

Isso permite que eles implementem configurações em nome dos filhos, como definir "horários de bloqueio" em que não podem usar a plataforma ou desativar o histórico de bate-papo. Ao vincular contas, o ChatGPT também poderá notificar os pais caso detecte sinais de comportamento preocupante ou potencialmente prejudicial em suas interações com a criança.

Comentários estão fechados.