t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomePolitikAuslandKrisen & Konflikte

Historiker Harari warnt vor existenziellen Risiken der Künstlichen Intelligenz


Star-Historiker Harari über KI
"Sie könnten uns sogar vernichten"


Aktualisiert am 11.09.2024Lesedauer: 10 Min.
Interview
Unsere Interview-Regel

Der Gesprächspartner muss auf jede unserer Fragen antworten. Anschließend bekommt er seine Antworten vorgelegt und kann sie autorisieren.

Zum journalistischen Leitbild von t-online.
Russischer Raketentest: Yuval Harari warnt davor, dass Künstliche Intelligenzen Macht über Atomwaffen erhalten.Vergrößern des Bildes
Russischer Raketentest (Archivbild): Yuval Harari warnt davor, dass Künstliche Intelligenzen Macht über Atomwaffen erhalten könnten. (Quelle: Russian Defence Ministry/imago-images-bilder)

Globale Spannungen verschärfen sich, die Klimakrise spitzt sich zu: Nun soll Künstliche Intelligenz der Menschheit bei der Lösung existenzieller Probleme helfen. Der Historiker und Visionär Yuval Noah Harari warnt vor existenziellen Risiken.

Kriege, Seuchen, Klimakrise: Die Welt befindet sich in einem schlimmen Zustand. Künstliche Intelligenz soll nun bei der Bewältigung der größten Probleme helfen und das Leben der Menschheit einfacher und besser machen. So preisen Entwickler und Techfirmen die KI-Revolution an. Dabei werden enorme Risiken übersehen, warnt Yuval Noah Harari, einer der wichtigsten Vordenker der Gegenwart. Die neue Technologie könne der Herrschaft der Menschheit das Ende bereiten.

Wie abhängig sind wir bereits von KI? Welche Gefahren drohen uns? Und was können wir Menschen tun, um uns zu schützen und die Vorteile der KI für uns sinnvoll zu nutzen? Diese Fragen beantwortet Yuval Noah Harari, dessen neues Buch "Nexus. Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz" gerade erschienen ist, im t-online-Interview.

t-online: Professor Harari, Krise um Krise erschüttert die Welt, mit der rasanten Entwicklung der Künstlichen Intelligenz steht der Menschheit eine weitere Herausforderung bevor, deren Ausmaß sie noch gar nicht abschätzen kann. Haben Sie Angst vor der Zukunft?

Yuval Noah Harari: Ich habe tatsächlich Angst vor der Zukunft. Bis zu einem gewissen Grad zumindest. Es gibt gute Gründe, uns vor mächtigen neuen Technologien zu fürchten. Durch die Künstliche Intelligenz liegen zahlreiche Risiken und Gefahren vor uns. Wir steuern aber nicht unweigerlich auf eine Katastrophe zu.

In Ihrem aktuellen Buch "Nexus" weisen Sie darauf hin, dass die KI bei falscher Handhabung die menschliche Herrschaft auslöschen könnte. Das klingt dramatisch.

Ich will die Menschen vor einigen der gefährlichsten Szenarien warnen. Das ist der Sinn meines Buches – alles in der Annahme, dass wir dann bessere Entscheidungen treffen und das Schlimmste verhindern können.

Worauf gründen Sie Ihr Vertrauen in die Menschheit?

Mir ist bewusst, dass Menschen zu den schrecklichsten Dingen fähig sind. Aber ebenso sind wir zu den wunderbarsten Taten imstande. Letzten Endes liegt es an uns, welche Zukunft eintreten wird. Weder Naturgesetze noch himmlische Kräfte walten in dieser Frage, sondern es ist allein unsere Verantwortung, was wir aus der KI machen. Ich weiß nicht, was passieren wird, aber ich hoffe inständig, dass wir alle in den kommenden Jahren vernünftige Entscheidungen treffen werden.

Zur Person

Yuval Noah Harari, geboren 1976, lehrt Geschichte an der Hebrew University in Jerusalem und gilt als einer der wichtigsten Vordenker der Gegenwart. Seine Bücher "Eine kurze Geschichte der Menschheit", "Homo Deus" und "21 Lektionen für das 21. Jahrhundert" sind internationale Bestseller. Zusammen mit seinem Ehemann Itzik Yahav gründete Harari 2019 die Organisation "Sapienship", um Antworten zur Lösung globaler Probleme anzubieten. Mit "Nexus. Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz" erscheint am 10. September 2024 Hararis neuestes Werk.

Wie weit vertrauen Sie denn der KI, die ja durch menschliche Hilfe immer mächtiger wird?

Ich habe kaum Vertrauen in KI. Denn KI ist, anders als bisweilen angenommen, eben keine geniale, unfehlbare Maschine. Sie ist neu, sie ist fehlbar. Sie macht sogar eine ganze Menge Fehler – und wir wissen zu wenig darüber. Das Schlimmste: Wir Menschen sind unsicher, wie wir die KI kontrollieren können. Das ist eine sehr gefährliche Kombination.

Worin sehen Sie die große Gefahr, die von KI ausgeht?

Bei der KI handelt es sich um die erste Technologie in der Geschichte, die selbstständige Entscheidungen treffen kann. Und nicht nur das: KI kann aus sich selbst heraus neue Ideen entwickeln. Jeder Mensch sollte verstehen, was das bedeutet. KI ist kein Werkzeug, sondern ein Akteur.

Oft wird die Entwicklung der KI im 21. Jahrhundert mit der Erfindung der Druckerpresse im 15. Jahrhundert verglichen. Verharmlost diese Gleichsetzung die potenzielle Gefahr, die von KI ausgeht?

Die Druckerpresse dient dem Zweck, menschliche Ideen zu verbreiten. Sie kann ein Buch kopieren, aber sie kann es nicht schreiben. Die Druckerpresse vermag auch nicht zu entscheiden, welches Buch sie kopieren soll. Immer haben Menschen diese Entscheidung getroffen. Ein anderes Beispiel: Die Atombombe ist eine so mächtige Waffe, aber sie entscheidet nicht, ob sie im Krieg eingesetzt wird. Sie kann keine besseren und stärkeren Atomwaffen entwerfen. Auch das haben bislang Menschen getan. Mit der KI schafft sich die Menschheit aber nun selbst Konkurrenz. Es entstehen immer anspruchsvollere Künstliche Intelligenzen, die sich selbstständig fortentwickeln. Das ist ihr entscheidendes Merkmal: Sie lernen und verändern sich von selbst. Der Begriff KI wird wahllos für Dinge verwendet, aber ein Computerprogramm, das nicht über diese grundlegenden Fähigkeiten verfügt, ist schlicht und einfach keine KI. Die ganze Idee hinter KI besteht darin, dass menschliche Ingenieure das ursprüngliche System schaffen – dieses dann aber wie eine Art technisches Baby durch Interaktion mit der Welt selbstständig lernt.

Das kann Fluch und Segen zugleich sein.

Allerdings. Die Programmierer haben viele Entwicklungen der KI überhaupt nicht vorhergesehen. Darin besteht einerseits ein immenses positives Potenzial, denn die KI könnte zum Beispiel neue Medikamente entdecken, die kein menschlicher Mediziner für möglich halten würde. Andererseits kann eine KI auch neue Massenvernichtungswaffen schaffen und dann sogar eigenständig einsetzen. Und das ist längst nicht die einzige Gefahr für die Menschheit.

Welche Bedrohungen fürchten Sie noch?

KI kann zu finanziellen, politischen und sozialen Krisen führen, mit denen wir bisher nicht gerechnet haben. Was versprachen uns die Erschaffer von Internet und sozialen Medien einst nicht alles: Diese Technologien würden zur Verbreitung von Wahrheit und Freiheit beitragen, zum Zusammenbruch von Diktaturen und zum Aufstieg der Demokratie auf der ganzen Welt! Heute wissen wir, dass dies ein Irrtum war, denn das Internet und die sozialen Medien haben brutale, unvorhergesehene Folgen: Wir erleben jetzt, wie sie Polarisierung, Lügen und Hass schüren, wie Demokratien auf der ganzen Welt destabilisiert werden und zusammenbrechen.

Nennen Sie doch mal ein Beispiel.

Israel, mein eigenes Heimatland, ist dabei, sich selbst zu zerstören: Überall regiert der Hass. Sie können aber auch auf die USA schauen oder auf Brasilien oder die Philippinen: Allerorten bricht das demokratische Gespräch der Gesellschaften zusammen. Stattdessen beschimpfen sich die Leute und machen sich gegenseitig fertig. Wir haben die fortschrittlichste Informationstechnologie der Geschichte – aber die Menschen sind nicht mehr in der Lage, ein konstruktives Gespräch zu führen. Wir verlernen, einander zuzuhören. Noch nicht einmal mehr auf Fakten können wir uns einigen! Die naive Erwartung, dass eine leistungsfähigere Informationstechnologie zur Verbreitung von Wahrheit und Freiheit führt, ist völlig unsinnig.

Loading...
Loading...

Die Entwicklung der KI hat gerade erst begonnen. Wie schlimm könnte es am Ende kommen?

Zahlreiche Technologien zeitigen viele unbeabsichtigte Folgen. Bei der KI ist die Gefahr aber wesentlich größer als bei jeder anderen Technologie. Es könnte entsprechend schlimm werden.

Bitte konkreter.

Die Zerstörung der Menschheit ist das schlimmste denkbare Szenario. Nehmen wir die Atomtechnologie: Es gibt im Grunde nur zwei gefährliche Szenarien, in denen sie eine zentrale Rolle spielt. Erstens könnte es zu einem nuklearen Unfall wie 1986 im sowjetischen Atomkraftwerk Tschernobyl kommen. Zweitens zu einem Atomkrieg, der die menschliche Zivilisation auslöschen könnte. Beide Gefahren sind bekannt und können nach den bisherigen Spielregeln zumindest eingedämmt werden. Zumal die Atomwaffen von sich aus keine neuen Szenarien schaffen können.

Eine KI aber sehr wohl?

Ja, denn KI ist anders – und sie erzeugt weitere beunruhigende Szenarien. Stellen wir uns einen Staat vor, in dem eine KI die Kontrolle über Atomwaffen ausübt. Bei diesem Staat handelt es sich mit großer Wahrscheinlichkeit um eine Diktatur, denn im Falle einer Demokratie ist es wesentlich unrealistischer, dass sie die Kontrolle über ihre Atomwaffen einer KI überlässt. Wenn nun in der betreffenden Diktatur die KI einen Fehler begeht oder gar eine versteckte Strategie verfolgt, die in einen Atomkrieg mündet, dann ist kein Halten mehr.

Klingt nach einem Science-Fiction-Albtraum.

Es ist aber keineswegs unrealistisch. Paranoiden Diktatoren ist es zuzutrauen, dass sie einer KI die Kontrolle über ihre Atomwaffen einräumen. In vielerlei Hinsicht sind die Diktatoren dieser Welt tatsächlich das schwächste Glied im Schutzschild der Menschheit gegen die KI. Denn sie würden es einer machthungrigen KI ziemlich einfach machen: Diese müsste nur eine einzige paranoide Person manipulieren. Wer den Diktator kontrolliert, kann alles kontrollieren. Für eine KI wäre es also ziemlich einfach, die Kontrolle über Atomwaffen zu erlangen. Nicht nur Machthaber haben also Grund, sich vor KI zu fürchten. Wir alle sollten sie fürchten.

Tipp

Im Oktober kommt Yuval Noah Harari für zwei exklusive Lesungen nach Deutschland: Am Montag, 14. Oktober 2024 um 20 Uhr, spricht der israelische Bestsellerautor und Historiker im Tempodrom Berlin mit Moderator Constantin Schreiber (ARD/Tagesschau) und Anne-Dore Krohn (rbb) über sein neues Buch, Lesung: Axel Milberg. Am Mittwoch, 16. Oktober 2024 um 19.30 Uhr, diskutiert Yuval Noah Harari unter dem Titel "Nexus: Mit Systemsturz in die Zukunft?" im Rahmen der Frankfurter Buchmesse mit dem Philosophen Kohei Saito im Congress Center.

Aber Diktatoren mit Atomwaffen und ihre labilen mentalen Zustände sind vermutlich nicht die einzige Gefahrenquelle.

Leider nicht. Stellen Sie sich eine Gruppe von Terroristen vor, die einer KI die Herstellung einer biologischen Waffe befiehlt. Islamistische Terroristen beispielsweise mögen zwar auf dem Gebiet mittelalterlicher Theologie bewandert sein, aber sie haben eher wenig Ahnung von Biologie, Genetik und Epidemiologie, um eine Massenvernichtungswaffe selbst herzustellen. Mittels KI könnten sie jedoch in den Besitz eines neuen Virus gelangen, der so tödlich wie Ebola und so ansteckend wie Covid-19 sein könnte.

Eine Horrorvorstellung.

Es könnte noch schlimmer kommen. KI kann die beste Strategie aushecken, ein Virus über Flughäfen oder die Lebensmittelversorgung global zu verbreiten. Dieses Szenario ist für uns Menschen noch leicht zu verstehen und nachvollziehbar. KI kann aber zusätzlich zahllose andere Szenarien erzeugen, die für uns ungleich schwerer vorstellbar sind, weil wir es bei der KI mit einem unabhängigen Agenten zu tun haben. Eine KI kann auf Basis einer Denkweise, die unserem Verständnis der Welt fremd ist, neue Ideen entwickeln.

2016 bezwang eine KI namens AlphaGo sensationell den weltstärksten Spieler Lee Sedol im Brettspiel Go. Spielen Sie darauf an?

Go ist ein altes Brettspiel, das in Ostasien seit mehr als 2.000 Jahren gespielt wird. Bemerkenswert am Sieg von AlphaGo über Lee Sedol war nicht nur die Tatsache, dass die KI gewann. Sondern die Art und Weise, wie sie gewann. AlphaGo verwendete eine Strategie, die uns Menschen völlig fremd war. Kein Mensch wäre jemals auf die Idee gekommen, einen solchen Zug zu spielen, wie AlphaGo es tat. Alle Zuschauer dachten, dass dies ein schrecklicher Fehler der KI gewesen sei. Aber am Ende stellte sich heraus, dass es eine brillante Strategie war. Sie hat die Art und Weise verändert, wie Menschen Go spielen.

Bemerkenswert.

In der Tat. Seit mehr als 2.000 Jahren spielt die Menschheit Go, Abermillionen Individuen unserer Spezies. Aber wie AlphaGo bewiesen hat, haben wir nur einen Teil der Möglichkeiten genutzt, wie man Go spielen kann. Das liegt an den Grenzen unseres organischen Gehirns und unseres Verstandes. Diese Grenzen zu überschreiten, bietet viele Möglichkeiten.

Von denen sich in Zeiten der alles bedrohenden Klimakrise auch manche als hilfreich erweisen könnten.

Grenzen zu überschreiten, kann positiv sein. In Spielen wie Go, ja, auch in der Pharmazie und in vielen anderen Bereichen. Aber es können auch gänzlich neue Bedrohungen entstehen, und auf diese Gefahr sind wir überhaupt nicht vorbereitet. Denn bei der KI handelt es sich um eine absolut fremdartige Intelligenz. Wir haben es nicht nur mit einem einzigen großen KI-Computer zu tun. Worüber wir hier sprechen, ist die Erschaffung von Millionen, wenn nicht gar Milliarden von Agenten: Künstlichen Intelligenzen, die Teil jedes Systems, jeder Bürokratie, jeder Armee und jedes Finanzsystems sein werden. Wir haben weit mehr als nur eine neue Art von Entität auf der Welt geschaffen.

Wer beherrscht dann künftig wen?

Die Macht verlagert sich von uns Menschen hin zu diesen Künstlichen Intelligenzen, die zunehmend Entscheidungen über uns treffen. Was könnten die Folgen für die Menschheit, für die Gesellschaft sein? Das liegt außerhalb unserer Vorstellungskraft. Der Prozess ist längst im Gange. Sie beantragen einen Kredit oder bewerben sich für eine Stelle an der Universität? Dann ist es schon heute zunehmend eine KI, die darüber entscheidet, ob Sie den Kredit oder den Job bekommen.

Der Krieg gegen die Ukraine lässt auch die Zukunft des Krieges erahnen.

In Kriegen wird es nun immer häufiger eine KI sein, die darüber entscheidet, welche Ziele angegriffen werden sollen. In ein, zwei Jahren werden vielleicht völlig autonome Waffensysteme gegen andere völlig autonome Waffensysteme in einem KI-Wettrüsten gegeneinander antreten. Ein Wettrüsten, von dem jeder weiß, dass es sehr gefährlich ist, aber in dem trotzdem niemand zurückbleiben will. Wenn es die anderen tun, muss man selbst mitziehen: Das ist die verheerende Logik.

Ist die Menschheit dazu verdammt, sich selbst zu zerstören?

Es ist fraglich, wie viel Ehre wir unserem Namen Homo sapiens – der weise Mensch – tatsächlich machen. Wir haben gewaltige Macht erlangt, jetzt haben wir uns in eine existenzielle Krise manövriert. Künstliche Intelligenzen könnten sich schon bald unserer Kontrolle entziehen, sie könnten uns versklaven oder gar vernichten. Über das Potenzial verfügen sie. KI könnte zukünftig auch einen neuen Weltkrieg auslösen.

Was schlagen Sie vor, um die schlimmsten Szenarien zu verhindern?

Die Macht verlagert sich zu den Künstlichen Intelligenzen, aber das ist nicht unausweichlich. Es gibt Gegenmaßnahmen, die wir ergreifen können. Wir Menschen müssen uns international gegen diese Bedrohung verbünden. Wir müssen viel mehr in Sicherheit und Kontrolle investieren. Es ist wie beim Auto: Auch das ist eine tolle Technologie, die potenziell sehr gefährlich ist – aber wir haben sie durch Sicherheitsmaßnahmen wie Airbags, Knautschzonen und die Straßenverkehrsordnung entschärft. Wenn Menschen das Autofahren erlernen, bringt man ihnen zuerst die Betätigung der Bremse bei, nicht des Gaspedals. So sollte es auch bei KI sein. Stattdessen geschieht das Gegenteil. Schauen Sie sich die Budgets der KI-Konzerne an: Da fließt fast gar kein Geld in die Sicherheit. Sie drücken das Gaspedal immer stärker durch.

Teilen Sie Ihre Meinung mit

Chance oder Risiko für die Menschheit: Wie bewerten Sie den Fortschritt Künstlicher Intelligenz? Schreiben Sie eine E-Mail an Lesermeinung@stroeer.de. Bitte nutzen Sie den Betreff "KI" und begründen Sie.

Sie fordern also, dass Regierungen mehr Druck auf die Tech-Konzerne ausüben sollten?

Es wäre gut, wenn die KI-Unternehmen selbst in die Sicherheit investieren und über Kontrolle nachdenken. Aber wir können ihnen nicht zutrauen, dass sie sich allein regulieren. Kein Mensch hat für diese Unternehmen gestimmt, sie repräsentieren nicht das Volk. Das ist vielmehr die Aufgabe einer gewählten Regierung. Und natürlich brauchen wir auch verschiedene globale Regelungen zur KI. Weil sie eben eine globale Bedrohung ist.

Trauen Sie den Regierungen der Welt die Regulierung der KI-Unternehmen zu?

Wir dürfen diese Chance nicht verpassen. Je früher die Regierungen damit beginnen, desto besser. Internationale Vereinbarungen zur KI brauchen zunächst erhebliche Veränderungen der Funktionsweise des internationalen Systems. Um auf all diese Probleme hinzuweisen, habe ich mein Buch "Nexus" geschrieben.

Professor Harari, vielen Dank für das Gespräch.

Wenn Sie sich vertieft über die Risiken Künstlicher Intelligenz informieren möchten, finden Sie hier den detaillierten Bericht weltweit führender Wissenschaftler.

Wie die neuesten KI-Formen entwickelt werden und welche Risiken dabei entstehen, hat Florian Harms anlässlich eines Besuchs in Kalifornien in diesem Tagesanbruch zusammengefasst.

Was sollten Regierungen konkret tun, um die Gefahren von KI einzudämmen? Das erklärt Yuval Noah Harari in einem zweiten Interview auf t-online, das anlässlich seines Deutschland-Besuchs im kommenden Oktober veröffentlicht wird.

Verwendete Quellen
  • Persönliches Gespräch mit Yuval Noah Harari via Videokonferenz
  • Yuval Noah Harari: "Nexus. Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz", München 2024
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Neueste Artikel



TelekomCo2 Neutrale Website