Kommt die Artificial General Intelligence? Und wie gefährlich ist sie?

Digitale Superintelligenz

künstliche Intelligenz
Wie intelligent kann KI werden? Und wir gefährlich ist sie? © Devrimb/ Getty images

Die rasanten Fortschritte der künstlichen Intelligenz sorgen für Faszination und Sorge gleichermaßen. Einige KI-Experten warnen sogar vor der Gefahr durch selbstoptimierende KI-Systeme mit übermenschlicher Intelligenz. Doch wie intelligent ist die generative KI wirklich? Und könnte sie tatsächlich eines Tages zu einer Bedrohung für die Menschheit werden?

Es scheint paradox: Ausgerechnet führende KI-Experten warnen vor den Folgen ihrer eigenen Produkte, einige zeichnen sogar düstere Szenarien einer unkontrollierbaren, unberechenbaren künstlichen Intelligenz, die auf lange Sicht sogar den Fortbestand der Menschheit gefährden könnte. Anstoß für diese Warnungen sind unerwartete Leistungssprünge von KI-Systemen bei Skalierung und die mögliche Entstehung einer allgemeinen künstlichen Intelligenz (AGI) – einer KI, die uns in allen Belangen überlegen sein könnte. Doch woran machen sich diese Befürchtungen fest? Und wie realistisch sind sie?

Zwischen Science-Fiction und Realität

Maschinelle Superhirne

Schon jetzt lösen die Leistungen generativer künstlicher Intelligenzen wie ChatGPT, BARD oder LamBDA Staunen und Faszination aus – selbst bei ihren Schöpfern. Denn mit jeder Skalierung der Großen Sprachmodelle und neuronalen Netze zeigen diese KI-Systeme einen riesigen Sprung in ihren Fähigkeiten.

GPT

Entwicklung in rasantem Tempo

Ein Beispiel ist das generative KI-System, auf dem ChatGPT basiert: Die Ende 2022 vom US-Unternehmen Open AI lancierte Version GPT-3.5 verblüffte zwar die Welt mit ihren Fähigkeiten, Texte aller Art zu verfassen, versagte aber in vielen akademischen Tests faktischen Wissens. Auch in Mathematik, im Programmieren oder im Rechnungswesen schnitt GPT-3.5 deutlich schlechter ab als die meisten Menschen – selbst im bayrischen Abitur wäre die künstliche Intelligenz krachend durchgefallen.

Doch das änderte sich mit der Folgeversion GPT-4 drastisch. Das neue, auf mehr Parametern, Trainingsdaten und leistungsfähigeren neuronalen Netzen basierende System hat ersten Schätzungen zufolge zwei Drittel mehr Fähigkeiten als sein Vorgänger. Die KI meisterte nahezu alle Tests, in denen GPT-3.5 noch versagte, bestand das bayrische Abitur, das US-Jura-Examen sowie professionelle US-Zertifikatsprüfungen im Rechnungswesen. Zudem kann das System nun auch Bilder, mathematische Operationen und Computercode besser verarbeiten und erstellen als zuvor.

Erster Schritt zur „Artificial General Intelligence“?

„Obwohl es sich nur um ein reines Sprachmodell handelt, demonstriert schon die frühe Version von GPT-4 bemerkenswerte Fähigkeiten in einer Vielzahl von Gebieten und Aufgaben, darunter in Abstraktion, Verständnis, visuellen Fähigkeiten, Coding, Mathematik, Medizin und Jura, aber auch im Verstehen menschliche Motive und Emotionen“, konstatierte ein Microsoft-Forschungsteam um Sebastien Bubeck im April 2023 nach einem umfassenden Test des KI-Systems. Das Team attestierte dem KI-System in einigen Aufgabenbereichen sogar schon erste „Funken“ einer echten Intelligenz.

„All dies lässt uns zu dem Schluss kommen, dass GPT-4 ein signifikanter Schritt zu einer künstlichen allgemeinen Intelligenz (AGI) ist“, so Bubeck und seine Kollegen. Als „Artificial General Intelligence“ (AGI) bezeichnen KI-Forschende Systeme, die uns Menschen in ihren kognitiven Fähigkeiten ebenbürtig sind oder uns sogar übertreffen. Eine solche künstliche Intelligenz, auch als starke KI bezeichnet, verfügt nicht nur über genauso viel Wissen und Denkfähigkeit wie ein Mensch, sie kann auch vorausplanen, aus Erfahrungen lernen und sich selbstständig weiterentwickeln. Einigen Definitionen nach erfordert eine AGI auch die Fähigkeit zu zielgerichtetem Handeln und zur Selbsterkenntnis.

künstliche und menschliche Intelligenz
Kann ein KI-System eine uns ebenbürtige oder überlegene Intelligenz entwickeln? © ismagilov/ Getty images

Keine bloße Science-Fiction mehr

Aber wie realistisch ist es, dass maschinelle Systeme und im Speziellen Große Sprachmodelle, tatsächlich eine echte Intelligenz entwickeln? Genau darüber wird aktuell unter KI-Experten heftig debattiert. Lange galt AGI als bloße Science-Fiction, allein schon, weil es den verfügbaren Systemen an Flexibilität und der Fähigkeit zum selbstständigen Lernen mangelte. Mit der Entwicklung neuronaler Netze und generativer Transformer-Modelle hat sich dies jedoch gewandelt – und damit auch die Einschätzung vieler ursprünglich skeptischer KI-Forscher.

Zu diesen gehörte auch der britische KI-Forscher Geoffrey Hinton, einer der Pioniere in der Entwicklung künstlicher neuronaler Netze. „Nur wenige glaubten, dass diese Systeme tatsächlich klüger werden könnten als Menschen. Die meisten – und auch ich – dachten, dass es bis dahin noch sehr lange dauern würde. Ich schätzte, dass wir 30 bis 50 Jahre oder noch länger davon entfernt wären. Aber das hat sich offensichtlich geändert“, erklärte er im Mai 2023 gegenüber der New York Times.

Schon da oder noch Zukunft?

Auch Microsoft-Gründer Bill Gates hält es nur noch für eine Frage der Zeit, bis KI-Systeme eine allgemeine Intelligenz entwickeln: „AGI existiert noch nicht. […] Aber mit der Ankunft des maschinellen Lernens und der wachsenden Computerleistung sind fortgeschrittene künstliche Intelligenzen schon Realität – und sie werden sehr schnell sehr viel besser werden“, schreibt er im April 2023 in seinem Blog. Viele große Namen in der KI-Branche schätzen heute, dass es weniger als ein Jahrzehnt dauern wird, bis AGI erreicht ist – vielleicht sogar weniger.

Andere KI-Experten sehen sogar in aktuellen KI-Systemen schon erste Anfänge einer AGI, wie eine von der Stanford University im April 2023 durchgeführte Umfrage unter Computerwissenschaftlern und KI-Forschern ergab. 56 Prozent der Befragten hielten es demnach für wahrscheinlich, dass generative Modelle schon Anzeichen einer allgemeinen Intelligenz zeigen. Zudem gibt es erste Gerüchte darüber, dass das zurzeit von OpenAI entwickelte Sprachmodell GPT-5 eine solche AGI erreichen könnte.

Aber was heißt dies konkret? Wie erkennt man, ob ein KI-System schon eine allgemeine Intelligenz entwickelt hat?

Was umfasst Intelligenz und wie weit ist die KI?

Eine Frage der Definition

Was ist Intelligenz? Diese Frage ist nicht nur zentral, wenn es um unsere eigenen geistigen Fähigkeiten geht. Sie spielt auch eine entscheidende Rolle in der Diskussion um Fortschritte, Vorteile und Risiken der künstlichen Intelligenz.

IQ-Test
In IQ-Tests sind uns KI-Systeme schon ebenbürtig. © vaeenma/ Getty images

Kognitiv schon nahe dran

„Intelligenz ist ein facettenreiches und schwer fassbares Konzept, das Psychologen, Philosophen und Computerwissenschaftler seit langem herausfordert“, erklärt der KI-Forscher Sebastien Bubeck von Microsoft Research. „Es gibt keine allgemein akzeptierte Definition der Intelligenz.“ Einig ist sich die Forschung allerdings darin, dass sie eine breite Palette an kognitiven Fähigkeiten umfasst – gängige IQ-Tests versuchen dies durch eine Batterie verschiedenster Aufgaben abzudecken.

In solchen rein kognitiven Fähigkeiten scheinen uns KI-Systeme wie GPT-4 oder BARD bereits ebenbürtig. Die Computerhirne haben in gängigen IQ-Tests besser als 99,9 Prozent der menschlichen Absolventen abgeschnitten und auch einige Tests zur Maschinenintelligenz bestanden. Dazu gehört der berühmte Turing-Test. Er gilt als bestanden, wenn ein Mensch nicht unterscheiden kann, ob er mit einem Computer kommuniziert oder einem echten Menschen. Auch akademische Prüfungen oder berufliche Tätigkeiten absolvieren KI-Systeme inzwischen ähnlich erfolgreich wie menschliche Testpersonen.

Starke und schwache KI

Was aber sagt dies über die Intelligenz der künstlichen Intelligenz? Im Jahr 1980 entwickelte der US-Philosoph John Searle dazu die Theorie der starken und schwachen KI. Als schwache KI sieht er Systeme, die zwar die ihnen gestellten Aufgaben lösen, aber nicht wirklich verstehen, was sie tun und auch keine Intentionen oder ein Bewusstsein entwickeln. Gängiges Beispiel dafür sind Expertensysteme in der Technik oder die Spracherkennungssysteme digitaler Assistenten wie Siri, Alexa und Co. Ein starkes KI-System kann dagegen nicht nur die Aufgaben lösen, sondern auch ihren Sinn verstehen, eigene Pläne und Vorgehensweisen entwickeln und Neues erschaffen.

Das Problem jedoch: Woher erkenne ich, ob eine künstliche Intelligenz weiß, was sie tut? Bisher wissen selbst die Entwicklung der Großen Sprachmodelle nicht, wie und warum ihre Systeme zu ihrem Antworten und Lösungen kommen. „Wir nennen es eine ‚Black Box: Wir können nicht genau sagen, warum die KI dies sagt oder jenes falsch macht“, erklärte Google-CEO Sundar Pichai kürzlich in einem Interview des US-Senders CBS. Dadurch ist es nahezu unmöglich einzuschätzen, was im Maschinenhirn wirklich vor sich geht.

Kann eine KI ein Bewusstsein entwickeln?
Kann es Intelligenz ohne Bewusstsein geben? © Jackie Niam/ Getty images

Bloße Imitation oder echte Einsicht?

Anders ausgedrückt: Wenn die künstliche Intelligenz so funktioniert, als hätte sie ein Bewusstsein, lässt sich nur schwer herausfinden, ob sie dies nur imitiert oder wirklich ein tieferes Verständnis ihres Tuns besitzt. Unter anderem deshalb argumentieren einige Kritiker der aktuellen Debatte, ChatGPT und Co seien nicht einmal ansatzweise intelligent, denn sie folgen nur stur bestimmten Wahrscheinlichkeiten in der Wortfolge.

„Einige denken, dass KI-Systeme nie wirklich intelligent sein werden, weil sie nicht verstehen, was sie tun, weil sie kein Bewusstsein haben“, erklärt der Technikphilosoph Paul Formosa von der Macquarie University in Australien. „Aber die Fortschritte in der KI legen nahe, dass es auch Intelligenz ohne Bewusstsein geben kann.“ Anders ausgedrückt: Wenn ein „unverständiges“ selbstlernendes System die gleichen Leistungen zeigt wie ein wirklich intelligentes, sind die Konsequenzen für uns Menschen letztlich die gleichen.

„Ich denke, dass KI die menschliche Intelligenz übertreffen kann. Es ist nur eine Frage der Zeit“, konstatierte jüngst der australische KI-Experte Seyedali Mirjalili vom Center for Artificial Intelligence Research. Schon jetzt habe der rapide Fortschritt bei Algorithmen, Datenmenge und Computerressourcen zu einem Niveau der Intelligenz geführt, das zuvor unvorstellbar war. „Wenn diese Entwicklung anhält, ist eine generalisiertere KI nicht länger eine bloße Möglichkeit, sondern wird zur Gewissheit.“

Soziale Intelligenz, Bewusstsein und Kreativität

Haben Maschinenhirne Gefühle?

Wir Menschen sind kreativ, können abstrakt denken und über das bloß Faktische hinausreichende Konzepte entwickeln. Zudem verfügen wir über ein Bewusstsein: Wir haben eine Persönlichkeit, können über unsere Handlungen, Gefühle und Denkweisen reflektieren und auch über die unserer Mitmenschen – Psychologen bezeichnen diese Fähigkeit zur Perspektivübernahme als „Theory of Mind“. Und nicht zuletzt sind wir Menschen zu Emotionen und Empathie fähig.

Doch wie sieht in dieser Hinsicht bei den künstlichen Intelligenzen aus? Immerhin erfordern all diese Aspekte menschlicher Intelligenz mehr als nur eine bloße Rekombination bereits existierenden Wissens – so die gängige Annahme.

GPT-4 erklärt sich
GPT-4 erklärt seine (falsche) Antwort und reagiert auf eine Korrektur. © Bubeck et al./ arXiv 2303.12712, CC-by 4.0

Das eigene Verhalten erklären

Doch auch hier scheint die künstliche Intelligenz große Fortschritte zu machen, wie der KI-Forscher Sebastien Bubeck und seine Kollegen bei ihren Tests mit dem KI-System GPT-4 feststellten. Eine Frage war dabei, ob die künstliche Intelligenz erklären kann, warum sie bestimmte Antworten gegeben hat und ob diese Herleitung sinnhaft erscheint. „Die Fähigkeit, sein eigenes Verhalten zu erklären, ist ein wichtiger Aspekt der Intelligenz“, erklärt das Team von Microsoft Research. Denn dies erfordere Selbsterkenntnis und das Eingehen auf andere.

Tatsächlich lieferte GPT-4 größtenteils einleuchtende und nachvollziehbare Erklärungen – sowohl für korrekte wie für falsche Antworten. Als die Forscher das KI-System beispielsweise baten, eine bestimmte Melodiefolge zu optimieren, lieferte GPT-4 eine entsprechende Änderung und begründete dies mit einem harmonischeren Übergang in eine neue Tonart an dieser Stelle.

In einem anderen Beispiel erklärte GPT-4, warum er bei der portugiesischen Übersetzung des englischen Satzes „The doctor is here“ die männliche Form „Medeco“ verwendete: „Ich habe die männliche Form gewählt, weil der englische Satz das Geschlecht nicht spezifiziert. Im Portugiesischen haben Nomen ein grammatikalisches Geschlecht und die Standardform ist gewöhnlich die maskuline“, so die KI. „GPT4 zeigt damit bemerkenswerte Fähigkeiten bei der Erzeugung Output-konsistenter Erklärungen, also Erklärungen, die angesichts des Inputs und des Kontextes konsistent sind“, berichtet das Forscherteam.

Hat künstliche Intelligenz eine Theory of Mind?

Wie aber sieht es mit der sozialen Intelligenz der KI aus? Beherrscht GPT-4 die als „Theory of Mind“ bezeichnete Fähigkeit, sich in andere Menschen hineinzuversetzen? Immerhin entwickeln menschliche Kinder diese Fähigkeit zur Perspektivübernahme erst im Alter zwischen drei und vier Jahren. Um die KI darauf zu testen, gaben Bubeck und sein Team GPT-4 jeweils eine kurze Beschreibung einer Situation oder einen kurzen Dialog, die einen sozialen oder emotionalen Konflikt zwischen zwei Menschen nahelegten.

GPT-4 erklärt menschliches Verhalten
GPT-4 interpretiert die Emotionen und Motivationen eines Menschen, der ein fiktives Etwas (ZURFIN) verloren hat. © Bubeck et al./ arXiv 2303.12712, CC-by 4.0

Dann baten sie GPT-4, zu beschreiben, worin der Konflikt besteht und was die beteiligten Personen fühlen und denken. „Diese realistischen Szenarien erfordern für ihr Verständnis eine weit fortgeschrittene Theory of Mind“, schreiben die Wissenschaftler. Zusätzlich baten sie das Sprachmodell um Vorschläge, wie die beteiligten Personen den Konflikt lösen könnten. „Dafür muss man Rückschlüsse über die möglichen Konsequenzen der jeweiligen Handlungen ziehen können“, so das Team.

Auch in diesen Tests schlug sich die künstliche Intelligenz erstaunlich gut: Sie bewältigte 90 Prozent der Aufgaben erfolgreich. „GPT-4 kann schlussfolgern, in welchem mentalen Zustand die Charaktere sind und auch erkennen, wo Fehlkommunikation und Missverständnisse liegen“, berichten die Forscher. Ihrer Ansicht nach deutet dies darauf hin, dass GPT-4 ein fortgeschrittenes Niveau der Theory of Mind zeigt. Auch andere Forschungsteams haben GPT-4 Aufgaben aus dem Bereich der Perspektivübernahme gestellt und kamen zu ähnlichen Ergebnissen.

Allerdings: Wie bei vielen anderen Fähigkeiten lassen sich viele Antworten des KI-Systems durch ihre Trainingsdaten erklären. Da in ihnen unzählige Romane und andere Texte enthalten sind, in denen menschliche Konflikte und typisch menschliches Verhalten beschrieben werden, kann GPT-4 aus diesem Fundus schöpfen, um die wahrscheinlichsten sozialen und emotionalen Reaktionen zu beschreiben. Kritiker sehen deshalb in solchen Testergebnissen noch keinen Beweis für ein echtes Verständnis des menschlichen Verhaltens.

Wie kreativ ist die künstliche Intelligenz?

Bleibt noch die Frage nach der Kreativität der Maschinenhirne: Können generative KI-Systeme wie ChatGPT, Dall-E, Stable Diffusion und Co etwas fundamental Neues und Innovatives erschaffen? Auf den ersten Blick legen die Texte und Bilder dieser Modelle dies nahe. Doch ist das schon Kreativität? Ein Mensch gilt dann als kreativ, wenn er entweder durch Assoziation bekannten Wissens etwas ganz Neues entwickelt oder wenn er „Out oft he Box“ denken kann. Bei dieser divergenten Kreativität entstehen Innovationen jenseits von bekannten Assoziationen, Denk- und Sichtweisen.

kreative KI
Kann KI mehr als nur Bestehendes neu zusammenstellen und imitieren? © R_type/ Getty images

Wie sieht es damit bei den künstlichen Intelligenzen aus? Die US-Forscherin Yennie Jun hat dies für GPT-4 und seine Vorgängermodelle anhand von drei gängigen Kreativitätstests untersucht. Zwei davon testen die divergente Kreativität, indem Testpersonen möglichst viele ungewöhnliche Einsatzmöglichkeiten für Gegenstände finden müssen oder viele Wörter auflisten, die möglichst wenig miteinander zu tun haben. Im Assoziationstest soll dagegen das Verbindende zwischen drei Wörtern gefunden werden – hier geht es um die konvergente Kreativität.

Das Ergebnis: Im Assoziationstest schnitt GPT-4 ähnlich gut ab wie eine durchschnittliche menschliche Testperson. Beim divergenten Denken lag das KI-System im Alternative-Nutzungen-Test etwa gleichauf mit den meisten Menschen, beim Wortfindungstest sogar deutlich darüber. Allerdings: Ähnlich wie bei der Theory of Mind ist auch hier nicht auszuschließen, dass solche Kreativitätstests und ihre Lösungen schon in den Trainingsdaten der KI enthalten waren. Ob die künstliche Intelligenz demnach über echte Kreativität im menschlichen Sinne verfügt oder nicht, bleibt strittig.

Nur eine Frage der Zeit?

„Menschliche Intelligenz hat mehrere Aspekte, darunter Kreativität, emotionale Intelligenz und Intuition, die aktuelle KI-Modelle zwar imitieren, aber nicht wirklich beherrschen“, sagt die auf Deep-Learning spezialisierte KI-Forscherin Dana Rezazadegan von der Swinburne University of Technology. Sie hält es aber für durchaus möglich, dass größere KI-Systeme sich auch in diesen Bereichen weiterentwickeln und einer allgemeinen Intelligenz nahekommen. Dies gelte vor allem dann, wenn generative KI-Modelle eines Tages auf Quantencomputern laufen.

Wenn KI unberechenbar wird

Emergenz

Ein Faktor, der bei vielen KI-Experten zum Umdenken in Bezug auf generalisierte künstliche Intelligenz geführt hat, ist die sprunghafte und überraschend große Zunahme der KI-Leistungen. Mit jeder Skalierung der neuronalen Netze und ihrer Parameter entwickeln die Systeme neue, oft unerwartete Fähigkeiten. KI-Entwickler sprechen in diesem Kontext von Emergenz.

sich entwickelnde KI
Mit der Skalierung der KI-Systeme entwickeln einige von ihnen völlig unerwartete neue Fähigkeiten. © metamorworks/ Getty images

Fähigkeiten aus dem Nichts

„Von allen Aspekten der KI sind die emergenten Eigenschaften die rätselhaftesten“, sagte Google-CEO Sundar Pichai jüngst in einem Interview des US-Sender CBS. „Einige KI-Systeme bringen sich selbst Fähigkeiten bei, die wir bei ihnen nicht erwartet hätten. Wie dies passiert, ist noch nicht gut verstanden.“ Die beim Skalieren von KI-Systemen auftretenden emergenten Eigenschaften lassen sich nicht auf Basis der Vorversion extrapolieren, ihr Auftreten ist daher unberechenbar.

Als Beispiel nennt Pichai eine Google-KI, die sich selbst Bengali beibrachte, die in Bangladesch gesprochene Sprache. Ohne dass sie mit dem Internet verbunden war oder speziell auf diese Sprache trainiert worden war, antwortete die künstliche Intelligenz auf einen Prompt in Bengali in der gleichen Sprache. Einige Prompts später konnte sie fließend in Bengali parlieren. Ein weiterer Fall ist die Google-KI AlphaZero, die es durch selbstständiges Training nicht nur in kürzester Zeit zu Meisterschaftsniveau in mehreren Strategiespielen brachte – sie entwickelte auch ganz eigene, innovative Spielzüge.

Strategiesprung im Rollenspiel

Ähnliche Fälle von emergentem Verhalten beobachtet man auch bei OpenAI, dem Unternehmen das ChatGPT entwickelt hat. In einem Beispiel ließ man mehrere KI-Systeme in einer Art Rollenspiel gegeneinander antreten. Um eine Festung zu erobern, musste die eine künstliche Intelligenz ihre Avatare so steuern, dass sie Hindernisse wie Wälle und Mauern überwinden und dabei umherliegende Rampen und Kisten möglichst sinnvoll einsetzen. Die Verteidiger-KI musste wiederum Strategien entwickeln, um diese Angriffe abzuwehren.

Im Laufe von rund 25 Millionen Spieldurchläufen lernten beide KI-Agenten vier grundlegende Strategien – wie vom Forschungsteam erwartet. Doch nach rund 380 Millionen Durchgängen zeigten die KI-Modelle zwei neue Strategien, von denen selbst die Wissenschaftler nicht wussten, dass sie physikalisch überhaupt möglich waren. Zwar sind solche unerwarteten Fähigkeiten künstlicher Intelligenzen im Kontext solcher Rollenspiele oder bei der Bengali-lernenden KI eher unproblematisch und sogar positiv. Doch in anderen Zusammenhängen könnte dies anders sein.

„Wir sprechen von einer Black Box“

Die emergenten Fähigkeiten aktueller KI-Systeme illustrieren ein grundlegendes Problem: Was genau in den künstlichen Intelligenzen vorgeht, wissen auch ihre Entwickler nicht. Je komplexer die Systeme werden, desto intransparenter sind die Mechanismen, durch die selbstlernende künstliche Intelligenzen ihre Fähigkeiten entwickeln. „Wir sprechen hier von einer Black Box“, sagt Pichai. Zwar könnte man die künstlichen Intelligenzen theoretisch um eine Erklärung bitten und sie fragen, wie sie ihre Fähigkeiten entwickelt haben. Aber die Antworten wären angesichts der Neigung der KIs zum Fabulieren weder verlässlich noch notwendigerweise wahr.

Letztlich bedeutet dies, dass die Entwicklung im Grunde nicht kontrollierbar ist. „Wenn KI-Agenten solche unerwarteten Verhaltensweisen zeigen, dann kann das in der Zukunft zu einem Sicherheitsproblem werden, wenn wir sie in komplexeren Umgebungen einsetzen“, sagt Bowen Baker von OpenAI.

Ist künstliche Intelligenz eine existenzielle Bedrohung?

P(doom)

Noch ist strittig, ob und wann es eine generelle künstliche Intelligenz geben wird – KI-Systeme, die uns ebenbürtig oder sogar überlegen sind. Doch schon jetzt warnen einige KI-Experten vor den möglichen Folgen. Bereits im April 2023 veröffentlichen mehr als tausend Personen aus der Tech-Branche – darunter Elon Musk und der Apple-Mitgründer Steve Wozniak – einen offenen Brief, in dem sie eine sechsmonatige Pause in der Entwicklung neuer KI-Systeme forderten.

HAl 9000
Der intelligente Bordcomputer „HAL 9000“ aus dem Film „2001 – Odyssee im Weltraum“ ist der Prototyp einer gefährlichen KI. © tiero/ Getty images

Droht die Auslöschung der Menschheit?

Im Mai 2023 veröffentlichte das Center for AI Safety (CAIS) ein Statement, in dem sogar vor einem existenziellen Risiko für die Menschheit durch künstliche Intelligenz gewarnt wurde: „Die Auslöschung der Menschheit durch KI zu verhindern, sollte eine ebenso große Priorität erhalten wie andere Risiken von global-gesellschaftlichem Ausmaß, darunter Pandemien oder ein Atomkrieg“, so das Statement.

Unter den hunderten Unterzeichnern des CAIS-Statements waren auch OpenAI-CEO Sam Altman, der Leiter von Google DeepMind Demis Hassabis und andere führende Vertreter der KI-Branche. „Einige Menschen in der KI-Forschung denken, dass die Risiken einer AGI und ihren Nachfolgesystemen reine Fiktion sind. Wir wären entzückt, wenn sie Recht haben sollten“, sagt Altman. „Aber wir werden weiterhin so arbeiten, als wenn diese Risiken existenziell sind.“

In Umfragen beziffern KI-Experten das Risiko für eine Auslöschung der Menschheit durch künstliche Intelligenzen – auch P(doom) genannt – auf Werte zwischen weniger als 0,1 Prozent und mehr als zehn Prozent.

Das „HAL 9000“-Szenario

Doch worin genau besteht die Bedrohung? Wie könnte uns eine superintelligente KI gefährlich werden? Ein Szenario beschrieb der britische Mathematiker und KI-Visionär Irving John Good schon im Jahr 1965: Ein KI-System könnte immer bessere, leistungsfähigere Versionen seiner selbst entwickeln, bis sich das Ganze so verselbstständigt, dass die Maschinenintelligenz die menschlichen Fähigkeiten weit hinter sich lässt – und unkontrollierbar wird.

„Die erste ultraintelligente Maschine wäre dann die letzte Erfindung, die der Mensch jemals machen wird“, so Good. Die möglichen Folgen einer solchen nicht mehr kontrollierbaren Superintelligenz gingen in die Filmgeschichte ein: Good war der Mastermind, der Stanley Kubrick bei seinem Film „2001 – Odyssee im Weltraum“ beriet und der wesentlich zur Ausgestaltung des berühmten Bordcomputers „HAL 9000“ beitrug. Dieses fiktionale KI-System erkennt, dass die Unzulänglichkeiten der menschlichen Besatzung die Raummission gefährden – und beginnt daher prompt damit, die Astronauten zu töten.

Ein aktuelles Analog dazu: Was würde passieren, wenn man einer superintelligenten künstlichen Intelligenz die Aufgabe gäbe, den Klimawandel zu stoppen? Es wäre nicht ausgeschlossen, dass sie ähnlich wie HAL zu dem Schluss kommt, dass der Mensch das Problem ist. Ein anderes, oft zitiertes Szenario ist eine KI, die für die Erfüllung ihres Auftrags – beispielsweise die massenhafte Produktion einer bestimmten Ware oder Technologie – alle verfügbaren Ressourcen aufbraucht. Dann könnte die Menschheit quasi als Kollateralschaden zugrunde gehen.

Killerroboter und KI-gesteuerte Infrastruktur

Doch solche „Doomsday“-Szenarien setzen einiges voraus: Anders als die meisten heutigen generativen KI-Systeme müssten solche künstlichen Intelligenzen Zugriff auf Steuersysteme, Roboter, Waffen und andere physikalische Systeme haben. Noch ist dies bei GPT und Co nicht der Fall. Allerdings gibt es schon jetzt spezialisierte KI-Systeme, die beispielsweise in der Industrie oder Logistik eingesetzt werden und damit durchaus Zugriff auf sensible Infrastruktur haben könnten.

Noch bedrohlicher: Schon jetzt nutzt das Militär Waffensysteme, die von lernfähigen Computeralgorithmen gesteuert werden. Experten schätzten im Jahr 2018, dass weltweit schon gut 380 teilautonome oder vollautonome Waffensysteme existierten oder in Arbeit waren. Mindestens zwölf Staaten sind aktiv an der Entwicklung von Killerdrohnen oder Killerrobotern beteiligt. Bisher agierten diese KI-System zwar primär unterstützend und nicht ohne menschliche Kontrolle – doch das könnte sich in Zukunft ändern.

KI erzeugt KI
Wenn eine künstliche Intelligenz sich selbst optimieren kann und selbstständig noch intelligentere Nachfolger erzeugt, wäre sie kaum mehr kontrollierbar.. © NanoStockk/ Getty images

Das Alignment-Problem

Ein weiterer Faktor: Eine künstliche Intelligenz wird dann zur Gefahr, wenn sie grundlegende moralische und ethische Prinzipien und Grenzen missachtet. Ziel aktueller KI-Forschung ist es daher, den lernfähigen Modellen diese Grundregeln beizubringen und dafür zu sorgen, dass sie diese befolgen. Diese auch als „Alignment“ bezeichneten Kontrollmechanismen gelten als Voraussetzung für eine sichere Weiterentwicklung der KI.

„Wir müssen neue Techniken des Alignments entwickeln, wenn unsere Modelle leistungsfähiger werden“, räumt OpenAI-CEO Sam Altman ein. „Und wir benötigen Tests, um zu verstehen, wo unsere aktuellen Maßnahmen versagen.“ Denn bisher scheitern die KI-Entwickler schon daran, ihren Systemen Vorurteile, diskriminierende Aktionen oder Fehlinformationen auszutreiben. Und mit zunehmender Komplexität der Systeme wird das Alignment nicht einfacher.

Kontrollverlust durch Emergenz?

In diesem Kontext kommt auch die Emergenz wieder zum Tragen: Wenn KI-Systeme sich zunehmend selbstständig weiterentwickeln und neue Fähigkeiten erlangen, schwindet auch der menschliche Einfluss auf diesen Prozess. Wie aber kann man dann sicherstellen, dass eine künstliche Intelligenz nicht einen Nachfolger ihrer selbst kreiert, dem die ursprünglich eingeimpften moralischen Regeln fehlen?

Im schlimmsten Fall bekäme man eine künstliche Superintelligenz, die ohne Rücksicht auf Verluste agiert. Der „Zauberlehrling“ Mensch hätte dann die Kontrolle über sein Werkzeug verloren. „Wenn sich das bestätigt, dann wird die Welt zu einer vollkommen anderen werden als sie es heute ist und das wäre mit außerordentlichen Risiken verknüpft. Eine fehlgeleitete superintelligente AGI könnte der Welt schweren Schaden zufügen“, schreibt Sam Altman in einem Statement.

„Das hoffnungsvollste und angsteinflößendste Projekt der Menschheit“

Allerdings: Längst nicht alle Wissenschaftler halten solche Szenarien für realistisch. Sie plädieren eher dafür, sich auf die aktuellen, sehr realen Risiken durch künstliche Intelligenz zu konzentrieren: den Verlust von Arbeitsplätzen, die Erzeugung von Deep-Fakes und Fake-News und die Frage, wo in Wirtschaft und Gesellschaft KI eingesetzt werden sollte und wo nicht. Andererseits unterstreichen schon diese jetzt und in naher Zukunft anstehenden Fragen, wie groß das disruptive Potenzial dieser Technologie ist.

Klar scheint, dass sich die rasante Entwicklung der künstlichen Intelligenz kaum mehr aufhalten lässt. Die generativen KI-Systeme und neuronalen Netze werden immer leistungsfähiger und komplexer werden. Dies bietet viele Chancen für einen sinnvollen und der Menschheit zugutekommenden Einsatz dieser Technologien. Ob die Menschheit sie jedoch im Griff behalten und kontrollieren kann, wird sich zeigen müssen.

„Der erfolgreiche Übergang in eine Welt mit einer künstlichen Superintelligenz ist das wahrscheinlich wichtigste, hoffnungsvollste und angsteinflößendste Projekt in der Geschichte der Menschheit“, konstatiert Sam Altman. Der Erfolg sei alles andere als garantiert.