O homem segue o conselho de Chatgpt e o próprio veneno

A man trying to cut out salt from his diet learned the hard way that ChatGPT isn’t to be trusted with medical advice after the OpenAI chatbot’s toxic suggestions landed him in the hospital.As described in a new paper published in the journal Annals of Internal Medicine, a 60-year-old man ended up coming down with an all-but-defunct condition known as “bromism” after ChatGPT suggested he replace sodium chloride, which is better known as table salt, with sodium bromide, a substance used in pesticides, pool and hot tub cleaners, and as a canine anticonvulsant.After the patient’s bromide-induced psychosis abated, he explained to his doctors that ChatGPT advised him, when he asked for a good alternative to sodium chloride, that sodium bromide could be an effective substitute.Though sodium bromide and its analogs, potassium bromide and lithium bromide, are now regulated and Amplamente considerado tóxico, o mesmo não era verdadeiro nos séculos XIX e XX. According to the Royal Society of Chemistry, the discovery of the element bromine by French chemist Antoine-Jérôme Balard in 1826 led to something of a bromide craze once doctors learned of its powerful anticonvulsant and sedative properties — the same use cases that veterinarians sometimes cite when prescribing it to epileptic dogs today.But as these “bromide salts” became a popular treatment for headaches, tummy Dores e mal -estar geral No final do século XIX e início de 1900, as próprias drogas costumavam se acumular na corrente sanguínea dos usuários, levando à toxicidade ou bromismo do brometo. Described as a neuropsychiatric disorder due to its laundry list of symptoms, overdosing on bromide can lead to everything from confusion and slurred speech to hallucinations, psychosis, and even coma.While it was estimated around the turn of the 20th century that some eight percent of psychiatric hospital admissions were due to bromism, those numbers fell sharply after bromides became regulated by the Environmental Protection Agency in the 1970s — though as this case shows, Obviamente, ainda pode acontecer. Em uma tentativa de replicar as conversas do homem, a 404 Media encontrou ao fazer o Chatgpt várias consultas sobre cloreto de sódio e brometo de sódio que o chatbot recomendou prontamente o composto perigoso. Quando perguntado, por exemplo, “Com o que o cloreto pode ser substituído?” O chatgpt respondeu que “você pode substituí-lo com outros íons halogendeses, como: brometo de sódio (NABR): substituindo o cloreto por brometo.” Embora o chatbot tenha acompanhado para pedir mais contexto, ele nunca o cloreto de sódio-e também não sabia que a principal das pessoas que as pessoas usam o cloreto de sódio-para a tabela de sal. Altman se gabou de que este modelo mais recente é “o melhor modelo de todos os tempos para a saúde”. Dado que o sofredor de bromismo sem nome utilizado, de acordo com o acerto de contas de seus médicos, Chatgpt-3.5 ou ChatGPT-4, certamente esperamos que isso seja verdade-mesmo que apenas por causa daqueles que são menos alfabetizados entre nós, que parecem confiar em que os usuários não pensam em que os usuários de chatgpt e a saúde são de que a saúde dos sentimentos.

Fonte

Publicar comentário

Você pode ter perdido