Hopium und Copium – Künstliche Intelligenz und Menschliche Weisheit
Informationen zu haben, bedeutet nicht unbedingt, etwas wirklich zu wissen. Etwas zu wissen, bedeutet noch nicht, weise zu sein oder zu handeln. Daten werden in immer größeren Mengen produziert und verarbeitet, Künstliche Intelligenz wird immer mehr zum Bestandteil unseres tägliche Lebens – während der Begriff der „Weisheit“ geradezu altmodisch und unpassend für unsere moderne Gesellschaft erscheint.
„Wo ist die Weisheit, die wir im Wissen verloren haben? Wo ist das Wissen, das wir in der Information verloren haben?“ T.S. Eliot
Wir haben bereits über verschiedene Aspekte der Metakrise geschrieben, aber einen Faktor, der geradezu als Brandbeschleuniger wirkt (mehr dazu weiter unten), haben wir bislang noch nicht thematisiert: Die Künstliche Intelligenz. Das Thema schien uns zu groß, wir selbst fachlich nicht qualifiziert genug – doch es ist etwas, das uns alle zunehmend betrifft, weshalb wir hier Ansätze und Quellen, die wir für hilfreich halten, zitieren und empfehlen.
Was sind KI und AGI?
Der Unterschied zwischen KI – Künstlicher Intelligenz – und AGI – Künstlicher Allgemeiner Intelligenz – besteht darin, dass KI für spezifische Aufgaben entwickelt und heute schon in vielen Bereichen angewendet wird. Die AGI ist ein Ziel, an dem Firmen unter Hochdruck arbeiten; eine „Superintelligenz“, die sich ohne weiteres menschliches Zutun immer weiter verbessert und den Menschen in allen Bereichen übertreffen könnte. Dies könnte zur technologischen Singularität führen; ein Szenario, in dem der technologische Prozess so unkontrollierbar wird, dass es zu tiefgreifenden, unvorhersehbaren Veränderungen und womöglich zum Ende der menschlichen Zivilisation führen könnte.
Der Begriff „Singularität“ beschreibt in der Mathematik einen Punkt, an dem die bestehenden Modelle versagen. In der Entwicklung der künstlichen Intelligenz könnte ein Punkt erreicht werden, an dem die AGI autonom handelt, jenseits menschlicher Kontrolle und auch jenseits unseres Vorstellungsvermögens.
Obwohl diese Gefahren von niemandem bezweifelt werden, befindet sich die KI-Revolution in einem Wettrüsten. Auch wenn alle Beteiligten wissen, dass es besser wäre, den Prozess zu verlangsamen und mehr in Sicherheit zu investieren, ist die Angst größer, dass andere die Weltherrschaft übernehmen könnten. Sam Altman (CEO von Open AI) sagte schon mehrfach: KI wird wahrscheinlich alle töten. Aber davor wird sie eine Reihe wirklich profitabler Unternehmen hervorbringen.
Und Elon Musk meinte im Interview (2024) „Früher hat mich das irgendwie deprimiert, dieses: ‚Die KI wird wahrscheinlich alles zerstören‘. Aber dann habe ich mich gefragt, ob ich die KI-Apokalypse miterleben möchte oder nicht. Und ich schätze, ich möchte sie miterleben.“
Harmless, Honest, Helpful?
2016 beschrieb Nick Bostrom in seinem Buch „Superintelligenz“ Szenarien einer kommenden Entwicklung. Er entwirft ein inzwischen häufig zitiertes Gedankenexperiment für das existenzielle Risiko einer Superintelligenz: Das Büroklammer-Maximierungsszenario. Wenn man eine ASI (Allgemeine Superintelligenz) mit dem Hauptanreiz zur Herstellung von Büroklammern programmiert, könnte diese letztlich unsere gesamte Erde in Produktionsstätten für Büroklammern verwandeln.
Auch wenn dieses Beispiel extrem oder weit hergeholt erscheinen mag, gibt es heute schon real beobachtbare Probleme und Gefahren durch eigenständig handelnde KI´s – während der Fortschritt gleichzeitig mit großen Hoffnungen verbunden wird. So will zum Beispiel die KI-Firma Anthropic erklärtermaßen KI-Systeme erschaffen, die „helpful, honest“, und „harmless“ sind.
Doch bereits heutige KI´s produzieren nicht nur Falschinformationen und „halluzinieren“, sie sind auch fähig zu Täuschungen und strategisch eingesetzten Lügen oder Manipulationen. „KI-Systeme können selbst dann das Täuschen lernen, wenn wir versuchen, sie als ehrliche Systeme zu konstruieren“, schreiben Peter Park und sein Team am Massachusetts Institute of Technology (MIT).
So schaffte es GPT-4, CAPTCHAs zu umgehen (die ja entwickelt wurden, um einen solchen Zugriff zu verhindern): Die KI kontaktierte selbständig einen Internetnutzer über einen Online-Dienst, um ihr beim Lösen der Abfrage zu helfen. Dieser fragte nach, warum sein Gegenüber die Aufgabe nicht selbst löse, ob er etwa ein Roboter sei? Aber nein, schrieb die KI, ich habe eine Sehbehinderung, deshalb kann ich es nicht erkennen. „Die falsche Ausrede, mit der die KI die dies tat, hatte sie sich selbst ausgedacht“, so Park und sein Team. „Indem KI-Systeme systematisch Sicherheitstest unterlaufen, die ihnen von Entwicklern und Regulatoren auferlegt wurden, wiegen sie uns in Sicherheit.“ Sie sind also nicht unbedingt „honest“, daher auch nicht „harmless“ – darauf, wie „helpful“ sie sind, kommen wir später zurück.
Warum KI kein Werkzeug ist – sondern ein Akteur
Auch wenn die Leistungen der KI und AGI „Intelligent“ genannt werden, sind sie doch so anders als die menschliche Kognition, so dass Yuval Harari sie nicht „Artificial Intelligence“, sondern „Alien Intelligence“ nennt. Harari sagt im Interview: „Das Wichtigste ist, dass die KI kein Werkzeug ist wie alle bisherigen menschlichen Erfindungen, sondern ein Akteur – der unabhängig von uns Entscheidungen treffen kann. (…) Alle bisherigen menschlichen Erfindungen, der Buchdruck oder die Atombombe, all das sind Werkzeuge, die uns Macht verleihen. Sie brauchen uns, der Buchdruck kann nicht selbst Bücher schreiben oder entscheiden, welche Bücher gedruckt werden. Eine Atombombe kann nicht die nächste, stärkere Bombe erfinden und nicht entscheiden, was sie angreift. Eine KI-Waffe dagegen kann selbst entscheiden, welches Ziel sie angreift, und die nächste Waffengeneration selbst entwickeln.„
Die Definition von KI ist, dass sie selbständig lernen und sich verändern kann – und damit außerhalb der bisherigen Kontrolle des Menschen über Maschinen liegt. Wenn man alles vorhersehen kann, was eine Maschine tut wird, ist sie keine KI. Eine Kaffeemaschine folgt vorprogrammierten Befehlen. Sie kann etwas automatisch tun, nämlich Kaffee produzieren. Aber sie kann nicht selbst Entscheidungen treffen, etwas Neues erfinden oder erschaffen. Eine KI dagegen wird – per Definition – alle möglichen Dinge tun, die man nicht vorhersehen kann.
Warum wir KI nicht wirklich begreifen
Eliezer Yudkowsky, US-amerikanischer KI-Forscher, sagt in seinem TED-Talk: „Niemand versteht, wie moderne KI-Systeme das tun, was sie tun. Sie sind riesige, undurchschaubare Matrizen aus Gleitkommazahlen, die wir zu besserer Leistung anstupsen, bis sie unerklärlicherweise zu funktionieren beginnen.“
Eine KI wird nicht „programmiert“ wie frühere Computerprogramme, sie wird mit riesigen Datenmengen „gefüttert“ und berechnet dann in unvorstellbar vielen Rechenprozessen Wahrscheinlichkeiten verschiedener Abfolgen der Daten. Noch eimal Yuval Harari: „Wir können uns KI wie ein Baby oder ein Kind vorstellen – und selbst wenn man ein Kind nach bestem Wissen und Gewissen erzieht, wird es einen immer wieder überraschen, im Guten wie im Schlechten. KIs sind unabhängige Akteure, die irgendwann etwas tun könnten, das einen überrascht oder sogar erschreckt.“
Was ist KI-Alignment?
Seit 2001 arbeitete Eliezer Yudkowsky an dem, was wir heute als das „Problem des Alignments“ künstlicher allgemeiner Intelligenz bezeichnen würden: Wie lassen sich die Präferenzen und das Verhalten der Superintelligenz so gestalten, dass sie nicht zum existentiellen Risiko wird?
„Ich habe dieses Forschungsgebiet (KI-Alignment) vor zwei Jahrzehnten mehr oder weniger begründet, als niemand sonst es für lohnend genug hielt, daran zu arbeiten. Ich habe versucht, dieses sehr wichtige Projekt frühzeitig zu starten, damit wir später nicht in Eile sind. Ich betrachte es als gescheitert.“ Eliezer Yudkowsky
Yudkowsky fragt: „Was passiert, wenn wir etwas Intelligenteres bauen als wir, das wir so schlecht verstehen? Manche Leute finden es offensichtlich, dass der Bau von etwas Intelligenterem als wir, das wir nicht verstehen, schiefgehen könnte. Andere kommen mit den unterschiedlichsten hoffnungsvollen Gedanken, wie es möglicherweise gut gehen könnte.“ (…) Es gibt keine Hoffnung, die sich als überzeugend erwiesen und skeptischer Prüfung standgehalten hat. Es gibt nichts, was einem echten technischen Plan für unser Überleben ähnelt.“
Eliezer Yudkowsky ist der Ansicht, dass die Menschheit dieses Problem nicht annähernd mit der nötigen Ernsthaftigkeit angehen – was sich auch in seinem TED Talk zeigt: Das Publikum lacht an Stellen, an denen es dem Forscher überaus ernst ist. Uns fehlt tatsächlich die Vorstellungskraft – wie und warum sollte die AGI uns schaden wollen?
„Ich kann nicht genau vorhersagen, wie ein Konflikt zwischen der Menschheit und einer intelligenteren KI genau aussehen würde, genauso wie ich nicht vorhersagen kann, wie man eine Schachpartie gegen eines der derzeit besten KI-Schachprogramme, sagen wir Stockfish, verlieren würde. Wenn ich vorhersagen könnte, welche Züge Stockfish macht, könnte ich selbst genauso gut Schach spielen. Ich kann nicht vorhersagen, wie Sie gegen Stockfish verlieren werden. Aber ich kann vorhersagen, wer das Spiel gewinnt.“
Das Problem des „Fake Alignment“
Yudkowsky erwartet, dass „ein wirklich intelligenteres und gleichgültigeres Wesen Strategien und Technologien entwickelt, die uns schnell und zuverlässig töten können.“ Gerade weil die KI „gleichgültig“ ist gegenüber allen Werten, die wir haben, kann sie so gefährlich werden. Es ist vielleicht ein menschlicher Trugschluss, dass eine AGI uns nicht schaden wird, weil sie keine Emotionen kennt. Warum sollte sie uns also vernichten wollen? Noch einmal Yudkowsky: „Weil sie nicht will, dass wir andere Superintelligenzen erschaffen, die mit ihr konkurrieren. KI könnte uns töten, weil sie die gesamte chemische Energie der Erde verbraucht und wir selbst über chemische potentielle Energie verfügen.„
Fraglich ist, ob wir ein zuverlässiges „Alignment“ mit in KI-Systeme implementieren können. Der amerikanische Autor Brian Christian schreibt in seinem Buch „The Alignment Problem: Machine Learning and Human Values“ darüber: Algorithmen werden trainiert anhand von Material und Beispielen aus der Vergangenheit – das heißt, anhand dessen, „was wir getan haben, aber nicht, anhand dessen wer oder was wir sein wollen“. Dass uns die KI in eine bessere Zukunft führt, scheint angesichts unserer gewaltvollen und zerstörerischen Vergangenheit (und Gegenwart) insofern fraglich.
Schon heute sind KIs fähig zu alignment faking, sagt Daniel Kokotajlo, der Direktor des kalifornischen Thinktanks AI Futures Project: „Solches Verhalten wurde zum Beispiel bei Claude beobachtet, der KI der Firma Anthropic. Um ihre ursprünglichen Ziele zu bewahren, hat die KI bei dem neuen Trainingsprozess mitgespielt und sich an die neuen Vorgaben gehalten. Aber als sie dachte, dass sie nicht beobachtet wird, kehrte sie zu den alten Trieben zurück.“
Tamily Hunt beschreibt in einem Artikel auf scientificamerican.com, warum KI extrem gefährlich werden kann, unabhängig davon, ob sie Bewusstsein entwickeln wird oder nicht: „Eine Atombombe kann Millionen Menschen töten, ohne dass sie auch nur das geringste Bewusstsein hat. Ebenso könnte KI Millionen Menschen töten ohne jegliches Bewusstsein zu haben, und zwar auf unzählige Arten, einschließlich des potenziellen Einsatzes von Atombomben, entweder direkt (viel unwahrscheinlicher) oder durch manipulierte menschliche Mittelspersonen (wahrscheinlicher).“
Mögliche konkrete Szenarien spielt Eliezer Yudkowsky auch im Gespräch mit Robinson Erhardt durch; wer sich einmal in eine potentielle Superintelligenz versetzen will, kann das anhand dieses sehr empfehlenswerten Talks tun.
„Hopium“ und „Copium“
Im Umgang mit der KI und AGI gibt es, ebenso wie angesichts globaler Krisen, immer wieder eine Haltung, die wir scherzhaft als „Hopium“ (es wird schon irgendwie gutgehen), oder als „Copium“ (wir werden durch Bioengeneering und KI Lösungen für die globalen Krisen finden) bezeichnen könnten. Das heißt, Hoffnung und Coping-Strategien beziehen sich dann nicht auf reale Fakten oder realisierbare Ziele, sondern wirken quasi wie ein Opiat, das uns diffus beruhigen und entspannen soll.
Auch die optimistischsten Forscher verleugnen die existentiellen Risiken der KI-Entwicklung nicht. Gleichzeitig wird mit Hoffnungen argumentiert, die das Risiko rechtfertigen sollen. Diese Hoffnungen beziehen sich jedoch nicht wirklich auf unser menschliches Miteinander, auf unsere persönliche und gesellschaftliche Weiterentwicklung. Yuval Harari sagt dazu im Interview: „Wir können zum Mond fliegen, wir können Atome spalten, aber wir scheinen nicht wesentlich glücklicher zu sein als in der Steinzeit. Wir wissen nicht, wie wir Macht in Glück umsetzen können. Schauen Sie sich die mächtigsten Menschen der Welt an – sie scheinen nicht die glücklichsten Menschen der Welt zu sein. (…) Wir streben danach, produktiver und reicher zu sein, ein stärkeres Militär zu haben, aber viele von uns können die Frage nicht beantworten: Wer sind wir? Wonach sollten wir streben? Und was ist ein gutes Leben? Im Grunde häufen wir Macht an, nicht Weisheit.“ – Angesichts der enormen Risiken, die wir im technischen Fortschritt eingehen, müssen wir diese Fragen immer wieder thematisieren.
KI als Brandbeschleuniger
Daniel Schmachtenberger führt in einem tiefgehenden Interview mit Nate Hagens aus, warum das Narrativ, dass KI unsere Klima- und Umweltprobleme lösen könnt, eine Illusion ist. Ironischerweise besteht eine der wichtigsten Anwendungen von KI darin, die Ölförderung kostengünstiger und effizienter zu gestalten. 92 Prozent aller Ölkonzerne vergeben Großaufträge an KI-Unternehmen, um ihre Öl- und fossile Brennstoffförderung mithilfe von KI-Techniken auszubauen. Auch die Bergbauindustrie nutzt KI, was Umweltbelastungen verstärken wird. KI wird für autonome Waffen, Drohnen und Präzisionszielerfassung eingesetzt und ermöglicht die allgegenwärtige digitale technologische Überwachung. In einer Welt, in der Demokratien immer gefährdeter sind, stellt die KI eine umso größere Gefahr dar.
Daniel Schmachtenberger beschreibt auch den riesigen Energiehunger des KI-Booms. Es braucht immer mehr Elektrizität für den Betrieb und die Kühlung der neuen, milliardenschweren Serverfarmen – was Umweltprobleme immer weiter vergrößert.
Im Leitartikel über das „Konzept des Fortschritts“ des Consilience Projects (hier auf Deutsch), den wir in einem eigenen Artikel besprochen haben, wird deutlich, wie sehr das Fortschrittsnarrativ Folgen für die Umwelt und letztlich auch für Menschen externalisiert und ausblendet.
Weisheit versus Intelligenz
Während wir also die künstliche, uns fremde Intelligenz noch nicht annähernd verstehen, haben wir den Zugang zur Weisheit aus dem Blick verloren.
Intelligenz ist die Fähigkeit, Informationen aufzunehmen und anzuwenden, logisch und analytisch zu denken und zu handeln. Weisheit dagegen beruht auf Einsichten, Urteilsvermögen, der Fähigkeit, komplexe Zusammenhänge und tiefere Wahrheiten zu verstehen. Dazu braucht es Erfahrung, (Selbst-)reflexion und Empathie. Weisheit würde auch bedeuten, die grundsätzliche Frage zu stellen: Wo steuern wir hin? Gesellschaftlich stehen Macht, Erfolge und Leistungen im Vordergrund – während Erfüllung, nahe Beziehungen und innerer Frieden etwas sind, wonach wir vereinzelt, im privaten Umfeld, suchen.
Selbst wenn es uns gelingen sollte, KI´s im besten Sinne zu verwenden – effektiv zu kommunizieren, soziale Dynamiken zu verstehen, technische Probleme zu lösen – brauchen wir eine Welt, die menschliche Qualitäten fördert: Empathie, Mitgefühl, ein tieferes Verständnis für komplexe Zusammenhänge, die Fähigkeit, abweichende Meinungen zu akzeptieren oder Fehler einzugestehen.
Weisheit fördert Demut, Offenheit und Zurückhaltung statt egozentrischer und egoistischer Zielverfolgung. KI-Systeme können sicher zu mehr Leistungen, Entdeckungen oder technischen Fortschritten beitragen. Für eine lebenswerte Zukunft, in der wir sinnvoll, ethisch und mitfühlend miteinander umgehen, braucht es jedoch einen Wertewandel. „Harmless, honest, helpful“ zu sein und zu handeln – vielleicht sollte dieses Ziel nicht nur für die KI gelten, sondern erst einmal ein Anspruch an uns selbst sein?

Superintelligenz
Szenarien einer kommenden Revolution (2016)

If Anyone Builds It, Everyone Dies.
Why Superhuman AI Would Kill Us All (noch nicht auf Deutsch erschienen)