Previsão de IA em 2040

Jaime Sevilla (diretor da Epoch AI) e Yafah Edelman (Chefe de Dados e Análise da Epoch AI) discutem tendências de escala de IA, projeções futuras, impactos econômicos e potenciais gargalos, extrapolando dos dados atuais sobre crescimento de computação, treinamento e infraestrutura. Eles analisam e projetam as tendências históricas, com o objetivo de projetar previsões “linhas” e reconhecendo incertezas. Eles descrevem um cenário mundial modal em que o desenvolvimento da IA ​​se desenrola em três épocas, levando a mudanças transformadoras até 2035-2040. Os principais temas incluem lentidão de escala de computação, capacidades de IA, automação de empregos, aceleração de crescimento econômico e cercados para trajetórias pós-2035. Regime de escala atual e projeções de curto prazo (2025-2030) Tendências de escala e desaceleração: eles observam que a computação de treinamento de IA escalou 5x por ano recentemente, impulsionada por aglomerados maiores, mais GPUs e durações de treinamento um pouco mais longas (crescimento de 30%/ano). No entanto, eles prevêem uma desaceleração para 2,5-3x/ano dentro de 2 anos devido a: Durações de treinamento se estabilizam em 3 a 6 meses (não se estendendo devido ao progresso algorítmico, tornando as necessidades mais eficientes, de P&D/pós-treinamento e retornos decrescentes). Não usando clusters completos para execuções únicas (por exemplo, P&D, experimentação ou projetos paralelos têm prioridade). Atrasos da infraestrutura (os data centers levam tempo para construir). XAI como estudo de caso: eles usam o cluster de Memphis de Xai como exemplo. O GROK 3 foi treinado em ~ 80.000 GPUs, enquanto o cluster tinha 100.000 a 200.000 GPUs disponíveis (não totalmente utilizado). O GROK 4 foi GROK 3 com aprendizado de reforço adicional (RL), usando menos computação adicional – possivelmente menos GPUs por tempo mais curto ou similar. Eles acreditam que o cluster completo de Xai não foi dedicado às corridas da GROK, apoiando sua visão do uso parcial do uso do setor. 2030 PROJEÇÕES: Até 2030, as maiores corridas poderiam atingir 1E29 flops (1.000x a mais que a atual, semelhante ao GPT-2 para GPT-4 Gap). Os recursos incluem: agentes competentes para tarefas de computador consistentes e baratas, com menos falhas de raciocínio. Novas descobertas em matemática/física (por exemplo, IA resolvendo problemas famosos como a hipótese de Riemann com orientação humana). Automação de codificação (a IA escreve código sem bug; sistemas de design de humanos, mas não codificam manualmente). Impactos mais amplos: automatizar call centers, contratos preliminares; software de alta qualidade; Agentes para tarefas complexas. Impactos econômicos: as receitas de IA crescem de dezenas de bilhões para centenas de bilhões/ano (dobrando anualmente viáveis). Isso nos dobra de crescimento de ~ 2% para 4%. Os gastos com infraestrutura (por exemplo, GPUs, data centers, FABs) podem atingir trilhões/ano, exibindo no PIB através de efeitos secundários.NVIDIA Receita de US $ 100 bilhões/ano exemplifica isso; A IA impulsiona o investimento em chips/fabs (por exemplo, TSMC). Bifurcação pós-2030 e projeções de médio prazo (2030-2035) SUDDOWND vs. TOTOOFF: Pós-2030, a escala diminui ainda mais (por exemplo, cada infraestrutura de 10x leva um ano extra devido à relutância de planejamento/investimento). O investimento segue “Yafah Math”: ~ 10x receita atual, com o tempo de construção aumentando por escala de 10x. No entanto, as receitas crescem com a automação, justificando a escala continuada. Automação e recursos: até 2035 (modal: 2034-2035), a IA automatiza todas as tarefas cognitivas tão baratas quanto os seres humanos (via 1.000 a 10.000x mais computam que 2030). Isso inclui empregos de nível básico, P&D científico (por exemplo, resolver problemas difíceis em dias) e desperdício (a supervisão da IA ​​transforma trabalho qualificado em trabalho não qualificado). As tarefas físicas ficam devido a gargalos de robô. Impactos econômicos e sociais: o crescimento acelera para 10%+/ano (sustentável por anos), com a IA gerando trilhões de receita. Picos de desemprego (por exemplo, codificadores, call centers); Os empregos mudam para a administração/supervisão da IA. A difusão é rápida (por exemplo, a adoção de chatgpt precedente; AI se auto-integra). Reações sociais: alto desemprego leva a crimes, respostas políticas (por exemplo, estímulos como a Covid), as eleições dominadas por problemas de IA (automação, risco-x, ambiente). A desbloqueio reduz os salários, permite a terceirização, desbloqueia forças de trabalho maiores. A regra geral para o crescimento: automatizar 1% das tarefas/ano adiciona 1% ao crescimento. Até 2030, <10% tasks automated; by 2035, all cognitive (30% of US tasks are remote-only, enabling 10% growth over a decade).

Physical vs. Cognitive Automation: Cognitive automation easier; physical requires robots (costly to manufacture/scale). Alternatives: AI-augmented humans (e.g., AR headsets, phone cams for guidance) de-skill blue-collar work, boosting manufacturing output without full robots.

Long-Term Projections (2035+) and Cruxes
Robot Era and Hyperbolic Growth: Robots start scaling ~2035; takes 3+ years to reach hundreds of millions/billions (e.g., $100B for 1M robots at $100K each, scaling to $10T for 100M). By 2038–2040, robots enable full task automation (cognitive + physical), leading to “bananas” (wild sci-fi) world: Explosive growth (30%+/year for 5+ years), AI as the economy (1,000%+ GDP contribution). Models break down; possible Dyson spheres in decades (but bottlenecks like energy/space slow to centuries/millennia).
Three Key Cruxes for Post-2035 Speed:Robot Manufacturing: How fast/cost-effective? Needs foresight/investment; current humanoid robots ($100K–$1M) worse than humans.Returns to Scientific Labor: 1,000x more AI researchers could skip “decades” in fields (e.g., cure diseases, double lifespans), but diminishing returns if experiments bottlenecked by scale/physical limits.
Returns to Intelligence: Superintelligence (e.g., “Von Neumann the world”) might accelerate everything 2–100x, but tied to compute/experiments. If not, progress slows with compute.
Algorithmic Progress: Tied to large-scale experiments/compute; slows if compute does. If independent, leads to faster superintelligence (e.g., 2027 singularity).Overall Modal View: Trends continue unless intervened; world feels “too fast” yet plausible. Faster worlds (e.g., high returns to intelligence) more salient for planning; slower (e.g., investment reluctance) push medians later (Jaime’s median: ~decade later than modal).
Could They Be Wrong About xAI and the Percentage of Compute Used for Grok Model Runs?
Yes, they could be partially wrong or outdated in their specifics on xAI, based on available data as of September 9, 2025. Their claims stem from public reports and estimates up to mid-2025, but xAI (led by Elon Musk) has been opaque, with details often from Musk’s X posts or leaks. Let’s break it down:Grok 3 Training: They claim ~80,000 GPUs used, out of a Memphis cluster of 100,000–200,000. This aligns with reports: Musk announced in July 2024 that the Memphis “supercluster” started with 100,000 H100 GPUs, scaling to more.
Grok 3 (released April 2025) was trained on ~100,000 GPUs per estimates from Epoch AI’s prior work, but not the full cluster—likely 70–80% utilization due to downtime, testing, or parallel runs. However, they might underestimate: Musk claimed in August 2025 X posts that Grok 3 used “most” of the cluster during peak training, implying higher % (possibly 90%+ efficient utilization after optimizations).
Grok 4: They describe it as Grok 3 + RL, with less additional compute (possibly fewer GPUs/shorter run). This is accurate based on xAI’s November 2024 announcement: Grok 4 was a fine-tuned/RLHF version of Grok 3, not a full pre-train, using ~50,000–70,000 GPUs for weeks (vs. Grok 3’s months). But they could be wrong on “less than Grok 3″—total FLOPs for Grok 4’s post-training might exceed Grok 3’s if including inference-heavy RL, per recent xAI updates.
Overall Compute Usage %:
Their core point—not using 100% of clusters for frontier runs—holds broadly (industry norm: 60–80% utilization due to maintenance, multi-tenancy). For xAI specifically, Memphis (now ~300,000 GPUs as of Q3 2025) is reportedly 80–90% dedicated to Grok iterations, per Musk’s September 2025 posts on scaling. They might be wrong if xAI optimized for near-full usage (e.g., via better orchestration), but evidence supports partial usage historically.
They could be wrong due to underestimating xAI’s aggression:
Musk’s goal is rapid scaling, and recent data centers (e.g., Abilene expansion) suggest fuller utilization for Grok 5 (in training as of now, potentially on 200k+ GPUs).
Could the Scaling Be Tapering Off Less Than They Think?
Yes, scaling could taper less (i.e., stay closer to 5x/year longer) if their assumptions underestimate key drivers:
Longer Training Durations: They predict stabilization at 3–6 months, but if companies prioritize Chinchilla-optimal runs (longer for data efficiency), durations could grow 50%+/year, maintaining 4–5x scaling.
Fuller Cluster Usage: If labs like xAI shift to dedicating 90–100% of clusters to single runs (e.g., via better fault tolerance), this boosts effective compute without new hardware.
Faster Infrastructure: Stargate/Abilene (Microsoft/OpenAI/xAI plans) could come online sooner (mid-2026) with 1M+ GPUs, enabling 5x jumps if used aggressively.
Algorithmic Gains: If progress allows shorter runs or multi-cluster federation, tapering slows.
Their 2.5–3x prediction assumes R&D bottlenecks dominate, but if economic incentives (e.g., AI revenues exploding) push fuller utilization, scaling holds at 4x+ for 3–4 years.
What Would Tell Us in the Next Models and Data Centers If Scaling and Performance Will Be Better Than They Expect?
To assess if scaling/performance exceeds expectations (e.g., >3x/ano Calcule o crescimento, recursos melhores do que projetados), monitore esses indicadores nos próximos modelos (por exemplo, GROK 5, GPT-5/Orion, Claude 4) e data centers (2026-2027 Builds): Buils. Milhões de H100) por> 6 meses, ou> 1e28 flops no total, sinaliza menos redução de redução (uso mais completo). Grok 6 in early 2026 at 1 million B200/B300s and getting a leap with Rubin chips in 2026. Get to 10 million H100 equivalents in 2026 and 50 million in 2027. Performance: If it achieves >95% on benchmarks like GPQA (math/physics) or solves novel problems (eg, IMO gold-level without human aid), it implies better scaling laws (eg, emergent recursos de computação sozinhos). Duração/utilização: executa> 6 meses ou relatórios de eficiência de cluster de 90%+ contraria sua visão de estabilização de duração. Saltos de capacidade: excedendo a escala linear (por exemplo, rendimentos de computação de 10x> 10x Melhor raciocínio/agentes) sugere diminuir menos (retornos mais fortes). Rastrear via x pesquisas (por exemplo, almíscar em computação) ou benchmarks (por exemplo, LMSYs, Epoch Evals). Se 2026 modelos automatizarem> 20% de tarefas cognitivas (vs. <10% até 2030), espere aceleração. Precisa de 10 milhões de robotaxi até 2028, 1 milhão de robotruck até 2030 e 10 milhões de teslabots até 2030. Brian Wang é um líder de pensamento futurista e um blogueiro de ciências popular com 1 milhão de leitores por mês. Seu blog NextBigfuture.com está classificado como #1 Blog de notícias de ciências. Abrange muitas tecnologias e tendências disruptivas, incluindo espaço, robótica, inteligência artificial, medicina, biotecnologia antienvelhecimento e nanotecnologia. Conhecida por identificar tecnologias de ponta, ele atualmente é co-fundador de uma startup e angariador de fundos para empresas em estágio inicial de alto potencial. Ele é o chefe de pesquisa de alocações para investimentos em tecnologia profunda e um investidor anjo da Space Angels. Um orador frequente das empresas, ele foi um orador do TEDX, um orador da Universidade de Singularidade e convidado em inúmeras entrevistas para rádio e podcasts. Ele está aberto a falar em público e aconselhar compromissos.

Fonte

Você pode ter perdido