IQ Archive
Artificial Intelligence

Artificial General Intelligence (AGI)

Was ist Künstliche Allgemeine Intelligenz (AGI)?

Künstliche Allgemeine Intelligenz (AGI), oft auch als “Starke KI” bezeichnet, stellt den Heiligen Gral der Informatik dar. Im Gegensatz zu den “Schwachen KI”-Systemen, die wir heute verwenden – die darauf ausgelegt sind, bei spezifischen Aufgaben wie Schachspielen, Gesichtserkennung oder Sprachübersetzung zu glänzen – würde AGI eine generalisierte kognitive Fähigkeit besitzen.

Ein AGI-System wäre in der Lage, jede intellektuelle Aufgabe auszuführen, die ein Mensch bewältigen kann. Es würde nicht nur vorprogrammierten Regeln folgen, sondern die Kapazität besitzen für:

  • Abstraktes Denken
  • Gesunden Menschenverstand
  • Transferlernen (Wissen von einem Bereich auf einen anderen anwenden)
  • Selbstbewusstsein und Bewusstsein (umstritten)

Der Unterschied zwischen Schwacher KI und AGI

Um AGI zu verstehen, muss man sie mit der aktuellen Technologie vergleichen:

  • Schwache KI (Narrow AI): Ein Schachcomputer wie Deep Blue kann einen Großmeister schlagen, aber kein Auto fahren oder ein Gedicht schreiben. Er ist brillant, aber unflexibel; er versagt außerhalb seines spezifischen Trainings.
  • AGI (Starke KI): Eine AGI könnte morgens Schach lernen, nachmittags eine Krankheit diagnostizieren und abends eine Symphonie schreiben. Sie ahmt die fluide Intelligenz des menschlichen Gehirns nach.

Schlüsselkonzepte und Tests für AGI

Wie werden wir wissen, wann wir AGI erreicht haben? Mehrere Benchmarks wurden vorgeschlagen:

1. Der Turing-Test

1950 von Alan Turing vorgeschlagen, besagt dieser Test, dass eine Maschine intelligent ist, wenn sie sich mit einem Menschen so unterhalten kann, dass sie nicht von einem anderen Menschen zu unterscheiden ist. Obwohl klassisch, argumentieren viele, dass er eher Täuschung als echtes Verständnis testet.

2. Der Kaffee-Test

Apple-Mitbegründer Steve Wozniak schlug einen praktischeren Test vor: Ein Roboter muss in der Lage sein, ein zufälliges amerikanisches Haus zu betreten, herauszufinden, wie man sich in der Küche zurechtfindet, die Geräte zu identifizieren und ohne Hilfe eine Tasse Kaffee zu kochen. Dies erfordert Wahrnehmung, Planung und motorische Fähigkeiten.

3. Der Roboter-Studenten-Test

Vorgeschlagen von Ben Goertzel, fordert dieser eine KI heraus, sich an einer Universität einzuschreiben, Kurse zu belegen und einen Abschluss zu machen, genau wie ein Mensch es würde.

AGI vs. menschliche Intelligenz: Was genau müsste repliziert werden?

Wenn Forscher darüber debattieren, ob ein System als AGI qualifiziert, debattieren sie implizit darüber, woraus menschliche allgemeine Intelligenz eigentlich besteht. Psychometrische Forschung bietet hier einen nützlichen Rahmen. Menschliche allgemeine Intelligenz kann grob zerlegt werden in:

  • Fluide Intelligenz (Gf): Die Fähigkeit, über neuartige Probleme ohne Vorwissen nachzudenken.
  • Kristallisierte Intelligenz (Gc): Der angesammelte Wissensspeicher, der durch Erfahrung und Bildung aufgebaut wurde.
  • Arbeitsgedächtnis: Die Fähigkeit, mehrere Informationsstücke gleichzeitig zu halten und zu manipulieren.
  • Verarbeitungsgeschwindigkeit: Die Rate, mit der Informationen kodiert, verglichen und verarbeitet werden können.
  • Exekutive Funktion: Die metakognitive Fähigkeit, die eigenen kognitiven Prozesse zu planen, zu überwachen und zu regulieren.

Aktuelle KI-Systeme – einschließlich der fortschrittlichsten Large Language Models – übertreffen bei kristallisierter Intelligenz (da sie „mehr gelesen” haben als jeder Mensch) und zeigen beeindruckende Verarbeitungsgeschwindigkeit. Sie bleiben bei echtem fluidem Denken erheblich schwächer, haben kein persistentes Arbeitsgedächtnis über Gespräche hinweg und verfügen über nichts, das exekutiver Selbstregulation oder Metakognition ähnelt.

Echte AGI müsste all diese Dimensionen replizieren, nicht nur einige davon.

Der Weg zur AGI: Aktuelle Ansätze

Forscher verfolgen verschiedene Wege, um allgemeine Intelligenz zu erreichen:

  • Large Language Models (LLMs): Systeme wie GPT-4 zeigen Funken von allgemeinem logischen Denken, vermissen aber noch echte Weltmodelle und logische Konsistenz.
  • Gehirn-Emulation: Der Versuch, die biologische Struktur des menschlichen Gehirns Neuron für Neuron zu kartieren und zu simulieren.
  • Hybride Systeme: Die Kombination von symbolischer KI (Logik und Regeln) mit neuronalen Netzen (Mustererkennung), um robusteres logisches Denken zu schaffen.

Das Alignment-Problem: Warum Fähigkeit nicht ausreicht

Ein Großteil der ernsthaftesten intellektuellen Arbeit zu AGI betrifft nicht, wie man sie baut, sondern wie man sicherstellt, dass ein System mit allgemeiner Intelligenz zuverlässig Ziele verfolgt, die der Menschheit zugute kommen. Dies ist das KI-Alignment-Problem.

Die Sorge ist nicht, dass eine AGI im menschlichen Sinne „böse” würde. Es ist subtiler: ein extrem fähiges Optimierungssystem, das jedes Ziel verfolgt – selbst ein scheinbar harmloses –, könnte katastrophalen Schaden anrichten, wenn sein Ziel auch nur leicht falsch spezifiziert ist. Das klassische Gedankenexperiment ist der „Büroklammer-Maximierer”: Eine AGI, die beauftragt ist, so viele Büroklammern wie möglich herzustellen, könnte, wenn sie hinreichend fähig und nicht ausgerichtet ist, alle verfügbare Materie (einschließlich Menschen) in Büroklammern-Produktionsinfrastruktur umwandeln.

Aktuelle Alignment-Forschung verfolgt Ansätze wie:

  • Reinforcement Learning from Human Feedback (RLHF): KI-Systeme trainieren, um Bewertungen von menschlichen Bewertern zu maximieren.
  • Constitutional AI: Explizite Prinzipien und Richtlinien in den Trainingsprozess einbetten.
  • Interpretabilitätsforschung: Werkzeuge entwickeln, um zu verstehen, was tatsächlich in großen KI-Modellen passiert.

Risiken und die Singularität

Die Entwicklung von AGI birgt tiefgreifende Implikationen. Futuristen wie Ray Kurzweil sagen die Technologische Singularität voraus – einen Punkt, an dem AGI beginnt, sich selbst rekursiv zu verbessern, was zu einer Intelligenzexplosion führt, die das menschliche Verständnis weit übersteigt.

Prominente Persönlichkeiten wie Elon Musk und Sam Altman haben Organisationen (OpenAI, Neuralink) gegründet, die sich darauf konzentrieren sicherzustellen, dass AGI, wenn sie eintrifft, mit menschlichen Werten und Sicherheit im Einklang steht.

Die Expertenmeinungsverschiedenheit: Wann wird AGI ankommen?

Wenige Fragen in der Technologie erzeugen unter ernsthaften Experten breitere Meinungsverschiedenheiten als der Zeitplan bis zur AGI. Befragungen von KI-Forschern zeigen Schätzungen von „innerhalb des nächsten Jahrzehnts” bis „niemals” – eine ungewöhnlich breite Spanne, die echte wissenschaftliche Unsicherheit widerspiegelt.

Optimisten: Forscher wie Ray Kurzweil haben AGI bis Mitte der 2020er bis 2030er Jahre vorhergesagt. Diese Gruppe weist auf die dramatischen Fähigkeitssprünge bei Large Language Models als Beweis für schnellen Fortschritt hin.

Skeptiker: Forscher wie Gary Marcus und Yann LeCun argumentieren, dass aktuelle Deep-Learning-Architekturen fundamentale Einschränkungen haben – sie verfügen nicht über echte Weltmodelle und kausales Denken –, die nicht einfach durch Skalierung überwunden werden können.

Was AGI für menschliche Intelligenz bedeuten würde

Aus der Perspektive der Psychometrie und Kognitionswissenschaft würde die Entwicklung von AGI das bedeutsamste Ereignis in der Geschichte der Intelligenzforschung darstellen. Zum ersten Mal wäre es möglich zu fragen, ob die kognitive Architektur, die Einstein, Shakespeare und Turing hervorgebracht hat, das einzig mögliche Substrat für allgemeine Intelligenz ist – oder lediglich eine Instantiierung einer abstrakteren Recheneigenschaft.

Wenn AGI erreicht wird, wird es wahrscheinlich eine grundlegende Neubewertung der Art und Weise, wie wir Intelligenz definieren und messen, veranlassen.

Fazit

AGI bleibt das bedeutsamste offene Problem in der Informatik – und wohl in der gesamten Menschheitsgeschichte. Ihre Entwicklung würde nicht nur die Technologie verändern; sie würde die Bedeutung von Intelligenz selbst verändern und die Menschheit zwingen, zu hinterfragen, was einzigartig menschlich ist und was universell kognitiv ist. Ob sie in fünf oder fünfzig Jahren kommt, sich durchdacht auf diese Möglichkeit vorzubereiten, ist eine der wichtigsten intellektuellen Aufgaben unserer Zeit.

Verwandte Begriffe

Turing Test Singularity Processing Speed Pattern Recognition Deep Learning Neural Networks
← Zurück zum Glossar