Os cientistas criaram uma rede social inteira onde todo usuário é um bot, e algo selvagem aconteceu
It’s no secret that social media has devolved into a toxic cesspool of disinformation and hate speech.Without any meaningful pressure to come up with effective guardrails and enforceable policies, social media platforms quickly turned into rage-filled and polarizing echo chambers with one purpose: to keep users hooked on outrage and brain rot so they can display more ads.And given the results of a recent experiment by researchers at the University of Amsterdam, they may be doomed to stay that way.As detailed in a yet-to-be-peer-reviewed study, coauthors Petter Törnberg, AI and social media assistant professor, and research assistant Maik Larooij simulated a social media platform that was populated entirely by AI chatbots, powered by OpenAI’s GPT-4o large language model, to see if there was anything we could do to stop social media from turning into echo chambers.They tested Fora seis estratégias de intervenção específicas – incluindo a mudança para feeds de notícias cronológicos, aumentando diversos pontos de vista, ocultando estatísticas sociais como contagem de seguidores e removendo BIOS da conta – para impedir que a plataforma se transforme em uma paisagem infernal polarizada. Para sua consternação, nenhuma das intervenções trabalhou em grau satisfeito e apenas alguns efeitos modestos. Pior ainda, como relata a Ars Technica, alguns deles pioraram a situação. se transformar em um terreno de reprodução altamente polarizado para o pensamento extremista. “Podemos identificar como melhorar as mídias sociais e criar espaços on -line que estão realmente cumprindo as promessas precoces de fornecer uma esfera pública onde podemos deliberar e debater política de maneira construtiva?” Törnberg perguntou à AR.A IA e Professor Assistente de Mídia Social admitiu que o uso da IA não é uma “solução perfeita” devido a “todo tipo de preconceitos e limitações”. No entanto, a tecnologia pode capturar “o comportamento humano de uma maneira mais plausível”. Törnberg explicou que não está apenas desencadeando peças de conteúdo que resultam em comunidades on -line altamente polarizadas. Conteúdo tóxico “também molda as estruturas de rede que são formadas”, ele disse que “é o conteúdo que você vê, resultando em uma rede tóxica” “, como”, com o conteúdo que você vê, resultando em uma rede tóxica “”. As postagens obtêm mais visibilidade. E na era da IA generativa, esses efeitos podem se tornar ainda mais pronunciados. “Já vemos muitos atores – com base nessa monetização de plataformas como X – que estão usando a IA para produzir conteúdo que apenas busca maximizar a atenção”, disse Törnberg à ARS. “Portanto, informações erradas, muitas vezes informações altamente polarizadas-à medida que os modelos de IA se tornam mais poderosos, esse conteúdo assumirá o controle.” “Tenho dificuldade em ver os modelos convencionais de mídia social sobreviver a isso”, acrescentou.
Fonte



Publicar comentário