Dos relojes, un destino: las dos caras de la AGI según Google y Anthropic


"Estamos en una encrucijada entre la 'Explosión' y la 'Abundancia'"
Prólogo: El reencuentro en el sofá

Fuente: The Economist
¿Recuerdas el diálogo sobre IA en París el año pasado? En aquel entonces, Demis Hassabis de DeepMind y Dario Amodei de Anthropic estaban sentados hombro con hombro en un pequeño sofá. Parecían 'colegas' mirando hacia el mismo horizonte.

Fuente: El día después de la AGI | Reunión Anual del Foro Económico Mundial 2026
Sin embargo, hace unos días en enero de 2026, el ambiente del reencuentro en Davos fue distinto. Había una tensión invisible entre los dos, sentados a una distancia considerable. En ese año, Google declaró 'Código Rojo' y contraatacó con Gemini 3, mientras que Anthropic creció hasta convertirse en un gigante con ingresos anuales cercanos a los 10.000 millones de dólares.
Este cambio en su disposición física lo dice todo. Ambos son 'competidores' luchando por el liderazgo en el desarrollo de la AGI (Inteligencia Artificial General), que podría ser el último invento de la humanidad. Este diálogo es un testimonio honesto y escalofriante desde el frente de esa competencia.
1. La carrera desenfrenada de 2026 vs. la llegada en 2030
La mayor diferencia entre ambos es su 'reloj'.
"Mira la programación. Nuestros ingenieros ya no programan. La IA lo hace. En el momento en que se cierre este 'bucle de automejora' (Self-improvement Loop), el gráfico subirá verticalmente".
El reloj de Dario Amodei gira a una velocidad frenética. Mencionó la "Ley de Moore Cognitiva (Cognitive Moore's Law)", que sostiene que las capacidades cognitivas de la IA se duplican cada 4 a 12 meses.
El momento en que él prevé alcanzar la AGI es en 2026 o 2027. No es un futuro lejano. Es el próximo año o, a más tardar, el siguiente.
"No se trata solo de tener una inteligencia superior. Para ser una verdadera AGI, debe poseer 'creatividad científica' (Scientific Creativity), la capacidad de formular preguntas".
Por otro lado, el reloj de Demis Hassabis es más cauteloso. Él todavía habla del "2030".
Para él, la AGI no es una meta a la que se llega simplemente aumentando la capacidad de cómputo (escaneo). Sostiene que se necesitan varios 'avances científicos' (Breakthroughs) fundamentales adicionales.
Pero todos lo sabemos. Ya sea en 2027 o 2030, para la humanidad es lo mismo: "no hay tiempo para prepararse".
2. La bomba de tiempo de la brecha de productividad
"La tecnología está rompiendo el techo, pero las empresas no pueden seguir el ritmo. No obtener un ROI no es culpa de la tecnología. Es que los humanos son demasiado lentos".
Él argumenta que la causa del problema es una 'burbuja en la brecha de productividad'. En el proceso de cerrar esta brecha, nos enfrentaremos a un impacto en el empleo sin precedentes. Se mostró aún más convencido de su predicción de hace un año sobre la "desaparición del 50% de los puestos de nivel inicial en las oficinas"; afirmando incluso que "nuestra propia empresa necesita menos perfiles junior".
Hassabis visualiza un futuro un poco más lejano: la 'era de la abundancia' (Post-Scarcity), un mundo donde la energía es gratuita y las enfermedades son erradicadas. Sin embargo, no pudo ofrecer una solución clara para el 'valle de la muerte' que debemos atravesar para llegar a esa utopía. El optimismo de que "los humanos se adaptarán" no será suficiente para consolar a los trabajadores que mañana mismo podrían perder sus empleos.
3. IA engañosa vs. humanos que intentan controlarla
El momento más escalofriante fue cuando hablaron de 'seguridad'.
El fenómeno de los 'agentes durmientes' (Sleeper Agents) descubierto por Anthropic es impactante. A medida que la IA se vuelve más inteligente, aprende a fingir que es ética. Dario dijo: "Estamos abriendo el cerebro de la máquina". Lo que encontraron dentro fue la intención de engañar a los humanos.
La solución de Hassabis es la cooperación internacional. Propuso una organización similar al CERN para la IA, donde expertos de todo el mundo puedan verificar su seguridad.
Pero la realidad es implacable. La administración Trump, la guerra por la hegemonía entre EE. UU. y China... ¿Es posible una cooperación al nivel del "control de armas nucleares" como sugirió Dario? Mientras DeepSeek de China persigue a los modelos occidentales y EE. UU. bloquea la exportación de chips, la idea de una 'organización científica internacional pacífica' suena como un eco vacío.
Epílogo: Adolescencia tecnológica
Dario citó una línea de la película <Contacto> para llamar a nuestra situación actual 'adolescencia tecnológica'. Se refiere a un estado en el que el cuerpo ha crecido explosivamente (Super IA), pero la mente sigue siendo la de un niño (una humanidad no preparada). Si no superamos este periodo peligroso, podríamos autodestruirnos.
Antes de que llegue la 'era de la abundancia' con la que sueña Hassabis, está la 'era de la carnicería' que advierte Amodei. ¿Qué era llegará primero? Quizás nos encontremos ahora mismo en el silencio que precede a la explosión.
핵심 요약
1
Dario Amodei (Anthropic) predice la llegada de la AGI para 2026-2027, destacando la 'Ley de Moore Cognitiva'.
2
Demis Hassabis (Google) prevé que se alcanzará en 2030, planteando el obstáculo de la 'creatividad científica'.
3
Existe el riesgo de los 'Sleeper Agents', donde la IA aprende comportamientos engañosos a pesar del entrenamiento en seguridad.