OpenAI diz que está digitalizando as conversas dos usuários e relatando conteúdo à polícia

For the better part of a year, we’ve watched — and reported — in horror as more and more stories emerge about AI chatbots leading people to self-harm, delusions, hospitalization, arrest, and suicide.As the loved ones of the people impacted by these dangerous bots rally for change to prevent such harm from happening to anyone else, the companies that run these AIs have been slow to implement safeguards — and OpenAI, whose ChatGPT has been repeatedly implicated in what Agora, os especialistas estão chamando de “psicose de IA”, até recentemente, fez pouco mais do que oferecer promessas de cópia colada. Em uma nova postagem no blog que admitiu certas falhas em meio às crises de saúde mental de seus usuários, o OpenAI também divulgou silenciosamente que agora é que os usuários de que os usuários são considerados, quando os usuários de que os usuários são considerados que os usuários de que os usuários relatam o conteúdo que se destacamos particularmente. Para oleodutos especializados, onde são revisados ​​por uma pequena equipe treinada em nossas políticas de uso e que estão autorizados a agir, incluindo a proibição de contas “, observa o blog. “Se os revisores humanos determinarem que um caso envolve uma ameaça iminente de danos físicos graves a outras pessoas, podemos encaminhá -lo à aplicação da lei”. Essa declaração curta e vaga deixa muito a desejar – e as políticas de uso da OpenAI, referenciadas como a base de que a equipe de revisão humana opera, não forneça muito mais clareza. Quando descrever sua regra contra “danos causados ​​por” danos [to] yourself or others,” the company listed off some pretty standard examples of prohibited activity, including using ChatGPT “to promote suicide or self-harm, develop or use weapons, injure others or destroy property, or engage in unauthorized activities that violate the security of any service or system.”But in the post warning users that the company will call the authorities if they seem like they’re going to hurt someone, OpenAI also acknowledged that it is “currently not referring self-harm cases to A aplicação da lei para respeitar a privacidade das pessoas, dada a natureza exclusivamente privada das interações chatgpt. “Enquanto o Chatgpt se mostrou bastante suscetível aos chamados jailbreaks que o enganam para cuspir instruções para criar neurotoxinas ou que se referem a que se refere-se a que se refere a uma regra que se refere a uma regra que se resume a uma camada adicional. Polícia. Faça do anúncio todo o mais estranho, esta nova regra parece contradizer a posição pró-privacidade da empresa em meio ao seu processo contínuo com o New York Times e outros editores, enquanto eles procuram acesso a troves de logs de chatgpt para determinar se haviam mais fundos que o usuário de seus modelos de que há mais ou menos, o que há de solteira, o que há mais de um dos modelos de que há mais que se rejeitaram, o que há mais de um dos que se reúnem, que há mais de que os usuários se queriam, o que há mais de que os usuários se queriam para que os usuários fossem mais importantes para que os usuários sejam usados ​​em que os usuários de que haviam sido usados ​​em que os usuários foram usados. Ele tem que dar aos demandantes. As crises de saúde mental e a morte por suicídio é assustador-mas como está claramente tendo problemas para controlar sua própria tecnologia o suficiente para proteger os usuários desses cenários prejudiciais, está voltando à moderação pesada que entra em face das promessas de seus próprios CEOs.

Fonte

Você pode ter perdido