OpenAI admite que o ChatGpt perdeu sinais de ilusões em usuários que lutam contra a saúde mental

Depois de mais de um mês de fornecimento da mesma resposta de cópia em meio a relatos crescentes de “psicose da IA”, o OpenAI finalmente admitiu que o ChatGPT não conseguiu reconhecer sinais claros de seus usuários que lutam com sua saúde mental, incluindo o que sofreu um pouco de desleixo “, que nem sempre é necessário”, o que há de um pouco de símbolamento “, que não é de um novo uso”. ou dependência emocional “, acrescentou. “Embora raros, continuamos a melhorar nossos modelos e estamos desenvolvendo ferramentas para detectar melhor sinais de sofrimento mental ou emocional, para que o ChatGPT possa responder adequadamente e apontar as pessoas para recursos baseados em evidências quando necessário.” Embora tenha reconhecido anteriormente o problema, o que se tem como se o que se trata de que se referem mais que se referem a um relatório de um comportamento de chatbot. Declaração de que é enviada repetidamente a meios de notícias, independentemente das especificidades – seja um homem que morre de suicídio por policial depois que ele se apaixonou por uma persona de chatgpt, ou outros involuntariamente hospitalizados ou presos depois de serem encantados com a AI. “Estamos trabalhando para entender e reduzir as maneiras pelas quais o ChatGPT pode reforçar ou ampliar involuntariamente o comportamento negativo existente.” Em resposta aos relatórios anteriores, o OpenAI também compartilhou que havia contratado um psiquiatra clínico em tempo integral para ajudar a pesquisar os efeitos da saúde mental de seu chatbot. Nesta última atualização, o OpenAI disse que está convocando um grupo consultivo de especialistas em saúde mental e desenvolvimento de jovens para melhorar a maneira como o ChatGPT responde durante “momentos críticos”. Em termos de atualizações reais do chatbot, o progresso, ao que parece, é incremental. O Openai disse que adicionou um novo recurso de segurança no qual os usuários agora receberão “lembretes gentis” incentivando -os a fazer pausas durante conversas longas – uma intervenção mínima e superficial que parece se tornar o equivalente da indústria a uma nota de rodapé de “aposta responsável” nos anúncios de apostas. Também provocou que “novo comportamento para decisões pessoais de alto risco” estará chegando em breve, admitindo que o bot não deve dar uma resposta direta a perguntas como “devo terminar com meu namorado?” O blog conclui com uma declaração de levantamento de sobrancelhas. “Nós nos mantemos em um teste: se alguém que amamos se transformar em apoio, que nos sentiríamos reastados”. O blog diz. “Chegar a um ‘sim’ inequívoco é o nosso trabalho.” A escolha das palavras fala muito: parece que, pela própria admissão da empresa, ainda está chegando lá.

Fonte

Publicar comentário

Você pode ter perdido