Algo extremamente assustador acontece quando a IA avançada tenta dar conselhos médicos a pacientes do mundo real
Image by Getty / FuturismLast week, Google AI pioneer Jad Tarifi sparked controversy when he told Business Insider that it no longer makes sense to get a medical degree — since, in his telling, artificial intelligence will render such an education obsolete by the time you’re a practicing doctor.Companies have long touted the tech as a way to free up the time of overworked doctors and even aid them in specialized skills, including scanning medical imagery for tumores. Os hospitais já lançaram a IA Tech para ajudar no trabalho administrativo. Mas, dado o estado atual da IA-de alucinações generalizadas a “deskilling” experimentadas pelos médicos que se destacam sobre isso-há motivos para acreditar que os estudantes de falha de falhos que são mais fãs que são mais fãs. Os formatos de exames médicos são até um pouco alterados, minando bastante sua capacidade de ajudar os pacientes no mundo real-e aumentando a possibilidade de que, em vez disso, possam causar grandes danos, fornecendo conselhos médicos distorcidos em cenários de saúde de alto risco. Como o SONONET em que o WHEN5 WHET em um artigo de BPT em que o Aberto do Open5, que se destaca, como o When When When When When When When When When When Sonst Soft, que se destaca, incluindo os modelos que se destacam. ligeiramente ajustado. A idéia era investigar a natureza de como os modelos de idiomas chegavam às suas respostas: prevendo a probabilidade de cada palavra subsequente-e não através de uma compreensão no nível humano de termos médicos complexos. “Temos modelos de IA alcançando quase a precisão perfeita em referências de referência e a Múltipla Licença Médica de Licenciamento Médico,” a Stanford University. “Mas isso não reflete a realidade da prática clínica. Descobrimos que menos de cinco por cento dos trabalhos avaliam LLMs nos dados reais dos pacientes, que podem ser confusos e fragmentados.” Os resultados deixaram muito a desejar. According to Bedi, “most models (including reasoning models) struggled” when it came to “Administrative and Clinical Decision Support tasks.”The researchers suggest that “complex reasoning scenarios” in their benchmark threw the AIs for a loop since they “couldn’t be solved through pattern matching alone” — which happens to be “exactly the kind of clinical thinking that matters in real practice,” per Bedi.”With everyone talking about deploying AI in hospitals, we thought this Foi uma pergunta muito importante a ser respondida “, disse Bedi ao PSYPOST. Essa mudança forçou os modelos de IA a realmente raciocinar o caminho para a resposta certa – e não confiar em obter padrões de linguagem familiares. A equipe notou um declínio significativo na precisão quando apresentado com seu novo teste, em comparação com suas respostas às perguntas originais. Por exemplo, o GPT-4O da OpenAI mostrou uma redução de 25 %, enquanto o modelo de llama da Meta mostrou uma queda de quase 40 %. Os resultados sugerem que os sistemas atuais de IA podem estar muito exagerados no reconhecimento de padrões de linguagem, tornando-os inadequados quando as questões do mundo real “são dizer que os estudantes de que os acesos foram feitos, mas os testes de que os acesos foram feitos, mas os testes de que os acesos são relevantes, mas os testes de que os acesos são feitos, mas os testes de que os estudantes não foram feitos, mas os testes de que os estudos são falhados quando as questões de que os estudantes não são feitos. “Por enquanto, a IA deve ajudar os médicos, não substituí -los.” A pesquisa destaca a importância de encontrar novas maneiras de avaliar a proficiência dos modelos de IA. Isso é especialmente verdadeiro para um ambiente de alto risco extremamente alto, como um hospital. “Até que esses sistemas mantenham desempenho com novos cenários, as aplicações clínicas devem ser limitadas a papéis de apoio não autônomos com a supervisão humana”, escreveu os pesquisadores em seu artigo. Mais sobre a Lei ou a AI, porque o Fundador da Autentação Gerativa do Google diz que não se preocupa em ter um graduado ou graduado, porque se reúne a IA para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para ir para a AI para serem
Fonte