AGI-Zeitplan — Was sagen die Experten wirklich?
Die wichtigsten Forscher und Gründer sind uneins — aber die Bandbreite der Prognosen hat sich dramatisch verengt. Ein sachlicher Überblick.
Noch 2020 war AGI — Artificial General Intelligence, ein KI-System mit menschenähnlicher allgemeiner Problemlösungsfähigkeit — in der seriösen Forschung ein Thema für die zweite Hälfte des Jahrhunderts. Heute sprechen führende Forscher und Gründer von Jahren, nicht Jahrzehnten. Die Debatte hat sich fundamental verschoben.
Die Prognosen der wichtigsten Stimmen
Sam Altman (OpenAI-CEO) sagte 2024, AGI könnte „in den nächsten paar Jahren" kommen — und 2025 ergänzte er, es könnte passieren noch bevor sein Sohn die Schule beendet. OpenAI hat AGI explizit als Entwicklungsziel in seiner Satzung verankert.
Demis Hassabis (Google DeepMind-CEO) schätzte 2024: „Möglicherweise innerhalb eines Jahrzehnts, vielleicht früher." DeepMind arbeitet aktiv an AGI-Architekturen, die über reine Sprachmodelle hinausgehen.
Dario Amodei (Anthropic-CEO) hält AGI für möglich bis 2026–2027 und hat gleichzeitig klargemacht: „Wir bauen möglicherweise eine der transformativsten und gefährlichsten Technologien der Geschichte." Anthropic wurde gegründet, weil die Gründer OpenAIs Sicherheitsansatz für unzureichend hielten.
Geoffrey Hinton (Turing-Preisträger, „Godfather of Deep Learning") schätzt AGI auf 5–20 Jahre und gilt seitdem als einer der prominentesten Warner: Er verließ Google 2023, um freier über Risiken sprechen zu können.
Yann LeCun (Meta AI, Chief AI Scientist) ist der prominenteste Skeptiker: LLMs können seiner Ansicht nach kein echtes Verstehen, keine Kausalität, kein Weltmodell entwickeln. AGI auf diesem Weg hält er für eine Sackgasse.
Das Spektrum seriöser Prognosen: 2–3 Jahre (Altman/Amodei) bis „nie auf diesem Weg" (LeCun). Die Mehrheit der führenden Forscher liegt irgendwo bei 5–15 Jahren — mit stark steigender Unsicherheit je länger der Horizont.
Warum die Prognosen auseinandergehen
Drei fundamentale Unklarheiten:
- Was ist AGI genau? Menschenähnliches Denken in allen Bereichen? Oder: jedes kognitive Problem auf Expertenniveau lösen können? Die Definitionen variieren — und damit die Messlatte
- Skalierung oder neue Architekturen? Sind heutige LLMs AGI-Vorstufen, die mit mehr Rechenleistung und Daten AGI werden? Oder braucht es fundamentale neue Ansätze (Robotik, symbolisches Denken, Weltmodelle)?
- Emergenz ist unvorhersehbar: LLMs zeigten Fähigkeiten, die niemand vorhergesagt hatte. Niemand kann mit Sicherheit sagen, was die nächste Generation zeigt
Was heute als Konsens gilt
- AGI ist nicht mehr eine Science-Fiction-Frage — es ist eine Frage des Zeitpunkts und des Wegs
- Die Entwicklung beschleunigt sich — 2025 ist anders als 2020
- Das Alignment-Problem (wie stellen wir sicher, dass AGI das tut, was wir wollen?) ist ungelöst und wird mit AGI existenziell
- Wer die erste AGI entwickelt und kontrolliert, hat strategischen Einfluss ohne historisches Vorbild
Was das für Entscheider heute bedeutet
Sie müssen nicht wissen, wann genau AGI kommt. Sie müssen wissen: Die Geschwindigkeit der KI-Entwicklung ist real, sie beschleunigt sich, und Organisationen, die heute KI-Kompetenz aufbauen, sind besser vorbereitet auf das, was kommt — egal ob in 3 oder in 15 Jahren.
Fragen zum Thema?
Ich beantworte sie persönlich.
30 Minuten Erstgespräch — kostenlos, kein Verkaufsgespräch. Ehrliche Einschätzung für Ihre Organisation.
Erstgespräch vereinbaren →