Um relatório da OpenAI revela um quadro alarmante: a cada semana, mais de um milhão de usuários do ChatGPT expressam sinais que indicam ideações suicidas. O estudo, que analisa padrões de interação na plataforma de inteligência artificial, também identificou que cerca de 560 mil indivíduos demonstram possíveis indícios de condições como psicose ou mania.
A dimensão dos números levanta sérias questões sobre a saúde mental da população e o papel da tecnologia no acesso e identificação de pessoas em sofrimento. A inteligência artificial, antes vista como uma ferramenta neutra, agora se apresenta como um espaço onde angústias e desesperos encontram voz, mesmo que de forma indireta.
Diante desse cenário, a OpenAI afirma ter aprimorado os mecanismos de segurança em seu novo modelo, o GPT-5. Segundo a empresa, essa atualização resultou em um aumento significativo na detecção e resposta a conteúdos relacionados a ideações suicidas, alcançando uma taxa de 91% de acerto na identificação de situações de risco.
No entanto, o relatório não detalha como essa detecção é realizada, nem quais medidas são tomadas após a identificação de um usuário em potencial sofrimento. A questão da privacidade e do tratamento de dados sensíveis também permanece em aberto. Especialistas em saúde mental alertam para a necessidade de cautela ao se utilizar a inteligência artificial nesse contexto, ressaltando a importância de um acompanhamento humano qualificado para garantir a segurança e o bem-estar dos usuários.
O estudo da OpenAI destaca a urgência de se discutir e implementar estratégias eficazes para lidar com a crise de saúde mental que se manifesta no ambiente digital. A colaboração entre empresas de tecnologia, profissionais de saúde e órgãos governamentais se mostra crucial para garantir que a inteligência artificial seja utilizada como uma ferramenta de apoio e prevenção, e não como um mero espelho do sofrimento humano.
Fonte: iclnoticias.com.br








