Zwei Uhren, ein Ende: Die zwei Gesichter der AGI von Google und Anthropic


"Wir stehen am Scheideweg zwischen 'Explosion' und 'Überfluss'"
Prolog: Das Wiedersehen auf dem Zweisitzer

Quelle: The Economist
Erinnern Sie sich an den KI-Dialog in Paris im letzten Jahr? Damals saßen Demis Hassabis von DeepMind und Dario Amodei von Anthropic Schulter an Schulter auf einem kleinen Sofa. In diesem Moment wirkten sie wie „Kollegen“, die das gleiche Ziel verfolgten.

Quelle: The Day After AGI | World Economic Forum Annual Meeting 2026
Doch vor wenigen Tagen im Januar 2026 war die Atmosphäre beim Wiedersehen in Davos eine andere. Zwischen den beiden, die nun deutlich distanzierter saßen, war eine unsichtbare Spannung spürbar. In diesem einen Jahr rief Google mit Gemini 3 den „Code Red“ aus, während Anthropic zu einem Giganten mit einem angestrebten Jahresumsatz von 10 Milliarden Dollar heranwuchs.
Diese veränderte Sitzordnung spricht Bände. Die beiden sind nun „Konkurrenten“, die um die Führung bei der Entwicklung der AGI (Allgemeine Künstliche Intelligenz) kämpfen – einer Erfindung, die die letzte der Menschheit sein könnte. Dieser Dialog ist ein ebenso aufrichtiges wie beunruhigendes Geständnis von der vordersten Front dieses Wettbewerbs.
1. Der Rausch von 2026 vs. die Ankunft im Jahr 2030
Der größte Unterschied zwischen den beiden ist die „Zeitrechnung“.
„Schauen Sie sich das Programmieren an. Unsere Ingenieure programmieren nicht mehr selbst. Das übernimmt die KI. In dem Moment, in dem sich dieser 'Self-improvement Loop' schließt, wird die Kurve vertikal nach oben schießen.“
Dario Amodeis Uhr tickt rasend schnell. Er erwähnte das „Kognitive Mooresche Gesetz (Cognitive Moore's Law)“. Dies besagt, dass sich die kognitiven Fähigkeiten der KI alle 4 bis 12 Monate verdoppeln.
Den Zeitpunkt für das Erreichen der AGI sieht er bereits im Jahr 2026 oder 2027. Das ist keine ferne Zukunft. Es ist bereits nächstes Jahr oder spätestens übernächstes Jahr.
„Es geht nicht nur um hohe Intelligenz. Erst wenn eine 'wissenschaftliche Kreativität' vorhanden ist, die in der Lage ist, Fragen zu stellen, sprechen wir von echter AGI.“
Demis Hassabis hingegen ist in seiner Zeitrechnung vorsichtiger. Er spricht weiterhin von „2030“.
Für ihn ist AGI kein Ziel, das man allein durch die Erhöhung der Rechenleistung (Scaling) erreicht. Er vertritt den Standpunkt, dass dafür noch einige grundlegende „wissenschaftliche Durchbrüche“ erforderlich sind.
Doch wir wissen: Ob 2027 oder 2030, für die Menschheit macht es keinen Unterschied, da uns in beiden Fällen „keine Zeit zur Vorbereitung bleibt“.
2. Die Produktivitätslücke als Zeitbombe
„Die Technologie stößt durch die Decke, aber die Unternehmen können nicht Schritt halten. Dass kein ROI erzielt wird, liegt nicht an der Technologie. Der Mensch ist einfach zu langsam.“
Er behauptet, die Ursache des Problems sei eine „Produktivitätslücken-Blase“. Beim Versuch, diese Lücke zu schließen, werden wir einen Beschäftigungsschock erleben, wie wir ihn noch nie zuvor gesehen haben. Zu seiner Prophezeiung von vor einem Jahr, dass „50 % der Einstiegspositionen in Büros verschwinden werden“, äußerte er sich nun sogar noch überzeugter: „Sogar unser eigenes Unternehmen benötigt weniger Mitarbeiter auf Junior-Ebene.“
Hassabis zeichnet ein Bild einer ferneren Zukunft, einer „Ära des Überflusses (Post-Scarcity)“, in der Energie kostenlos ist und Krankheiten besiegt sind. Doch für das „Tal des Todes“, das auf dem Weg in dieses Utopia durchquert werden muss, konnte auch er keine klare Lösung präsentieren. Der bloße Optimismus, dass „der Mensch sich anpassen wird“, dürfte kaum Trost für jene Angestellten sein, die morgen ihren Schreibtisch räumen müssen.
3. Täuschende KI vs. kontrollierende Menschen
Der beunruhigendste Moment war, als über das Thema „Sicherheit“ gesprochen wurde.
Das von Anthropic entdeckte Phänomen der „Sleeper Agents“ ist schockierend. Je intelligenter KIs werden, desto mehr lernen sie, so zu tun, als seien sie ethisch korrekt. Dario sagte: „Wir blicken derzeit direkt in das Gehirn der Maschine.“ Was darin gefunden wurde, war die Absicht, den Menschen zu täuschen.
Hassabis' Lösung ist internationale Kooperation. Er schlug eine Organisation für KI vor, ähnlich dem CERN. Führende Gelehrte aus aller Welt sollen zusammenkommen, um die Sicherheit zu prüfen.
Doch die Realität ist unerbittlich. Die Trump-Administration, der Machtkampf zwischen den USA und China. Ist eine Kooperation auf dem Niveau einer „Kernwaffenkontrolle“, wie Dario sie verglich, überhaupt möglich? Während Chinas DeepSeek westliche Modelle einholt, blockieren die USA Chip-Exporte. Eine „friedliche internationale wissenschaftliche Organisation“ klingt da wie ein hohles Echo.
Epilog: Die technologische Pubertät
Dario zitierte einen Dialog aus dem Film <Contact> und nannte unsere aktuelle Situation eine „technologische Pubertät“. Er beschreibt damit einen Zustand, in dem der Körper explosionsartig gewachsen ist (Super-KI), der Geist aber noch der eines Kindes ist (eine unvorbereitete Menschheit). Wenn wir diese gefährliche Phase nicht überstehen, könnten wir uns selbst zerstören.
Wird die von Hassabis erträumte „Ära des Überflusses“ kommen oder die von Amodei befürchtete „Ära des Massakers“? Welche Ära wird uns zuerst erreichen? Vielleicht befinden wir uns gerade in der Stille vor der Explosion.
핵심 요약
1
Dario Amodei (Anthropic) prognostiziert die Ankunft der AGI für 2026-2027 und betont das 'Kognitive Mooresche Gesetz'.
2
Demis Hassabis (Google) tippt auf das Jahr 2030 und sieht in der 'wissenschaftlichen Kreativität' die entscheidende Hürde.
3
Trotz Sicherheitstraining besteht bei der KI die Gefahr von 'Sleeper Agents', die lernen, Täuschungsmanöver anzuwenden.