Pacientes furiosos com terapeutas secretamente usando a IA

Com a integração de inteligência artificial-ou se infiltrando-em todos os cantos de nossas vidas, alguns profissionais de saúde mental menos-éticos começaram a usá-lo em segredo, causando grandes questões de confiança para os clientes vulneráveis ​​que os pagam por seus relatórios de relatórios de e-mails e outros modelos de resenhedos e outros modelos de revisão de tecnologia, por meio de e-mails, os relatórios de e-mails e outros modelos de e-mails e outros modelos de lagarta, por meio de e-mails, para que os relatórios de e-mails e outros por e-mails e outros modelos de resenhação e outros modelos de llms. mid-session.The patient who experienced the latter affront, a 31-year-old Los Angeles man that Tech Review identified only by the first name Declan, said that he was in the midst of a virtual session with his therapist when, upon the connection becoming scratchy, the client suggested they both turn off their cameras and speak normally.Instead of broadcasting a normal blank screen, however, Declan’s therapist inadvertently shared his own — and “suddenly, I was watching [the therapist] Use chatgpt. “” Ele estava pegando o que eu estava dizendo e colocando-o no chatgpt “, disse o Angeleno à revista,” e depois resumindo ou escolhendo respostas. “Flabbergasted, que Declan não disse nada sobre o que ele viu, em vez de assistir o teatro. O terapeuta parecia ver uma espécie de avanço. “Eu me tornei o melhor paciente de todos os tempos, porque o chatgpt seria: ‘Bem, você considera que sua maneira de pensar pode ser um pouco preto e branco?'” [my therapist would] Seja como, ‘exatamente’. Tenho certeza de que foi a sessão dos sonhos dele. “Na próxima reunião, Declan confrontou seu terapeuta, que ficeou o uso do Chatgpt em suas sessões e começou a chorar. Foi” como um super estranho … estranho “, que ele se sentou em crise de que ele estava com o que estava com o que estava com o que estava com o que ele estava com que ele estava com o que ele estava com que ele foi reivindicado. que escreveu a peça de revisão técnica, teve seu próprio confronto com o uso da IA ​​obscura de um terapeuta depois de receber um e-mail muito mais longo e “mais polido” do que o normal. “Inicialmente me senti animado”, escreveu Clarke. escritor. It had a different font than normal and used a bunch of what Clarke referred to as “Americanized em-dashes,” which are not, to be fair, in standard use in the UK, where both she and her therapist are based.Her therapist responded by saying that she simply dictates her longer-length emails to AI, but the writer couldn’t “entirely shake the suspicion that she might have pasted my highly personal email wholesale into ChatGPT” — and if that were true, Ela pode muito bem ter introduzido um risco de segurança nas informações sensíveis e protegidas de saúde mental contidas em uma troca confidencial. Along with connecting to Declan, she also learned the story of Hope, a 25-year-old American who sent her own therapist a direct message looking for support after her dog died.Hope got back an otherwise immaculate and seemingly heartfelt response about how difficult it must be “not having him by your side right now” — but then she noticed a prompt that the therapist had forgotten to erase sitting prominently at the top of the missive, providing the trained mental health professional a “more human, heartfelt [response] Com um tom gentil e conversacional. “” Foi apenas uma sensação muito estranha “, disse Hope à Tech Review.” Então eu comecei a me sentir meio traído … isso definitivamente afetou minha confiança nela. “Ela acrescentou que estava” honestamente surpresa e confusa “porque ela pensava que seu terapeuta era o que era competente. and claimed that she’d used it because she had never had a dog before herself.As more and more people turn to so-called AI therapists — which even OpenAI CEO Sam Altman admits aren’t equipped to do the job of a real-life professional due to privacy risks and the technology’s troubling propensity to result in mental health breakdowns — the choice to see a flesh-and-flood mental health professional should be one that people feel confident in making.Instead, the therapists in these Essas anedotas (e, presumivelmente, muito mais de onde vieram) estão arriscando a confiança e a privacidade de seus clientes-e talvez suas próprias carreiras, caso usem um chatbot que não seja de que não seja de hipaa, ou se não divulgará os pacientes que eles estão fazendo isso.

Fonte

Você pode ter perdido