Der Gesprächspartner muss auf jede unserer Fragen antworten. Anschließend bekommt er seine Antworten vorgelegt und kann sie autorisieren.
Zum journalistischen Leitbild von t-online.Experte zu Künstlicher Intelligenz "Die Superintelligenz wird kommen"
Die KI-Firma OpenAI erlebte in dieser Woche ein Führungschaos. Anlass dafür soll der Umgang mit einer angeblichen Superintelligenz gewesen sein. Was es damit auf sich haben könnte, erklärt der IT-Experte Eldar Sultanow.
Die Digitalwelt rätselte in dieser Woche über ein Führungsdrama in Kalifornien: Der Chef des Unternehmens OpenAI, Sam Altman, wurde erst gefeuert, dann vom Hauptinvestor Microsoft eingestellt und nur wenige Tage später saß er wieder im Chefsessel bei OpenAI. Die Firma, die vor einem Jahr das KI-Programm ChatGPT herausgebracht hat, ist mitverantwortlich für den aktuellen Hype um Künstliche Intelligenz. Der Kündigung soll ein Brandbrief von OpenAI-Entwicklern vorausgegangen sein. Darin hätten sie vor dem Durchbruch einer Superintelligenz mit Namen Q* (gesprochen: Q-Star) gewarnt, die eine Bedrohung für die Menschheit darstellen könne.
Altman selbst hatte in seiner letzten öffentlichen Rede vor der Kündigung von einer mysteriösen Entdeckung gesprochen: "Die Leute werden überrascht sein, welchen Sprung nach vorne wir gemacht haben", sagte Altman. "Ist das ein Werkzeug, das wir gebaut haben, oder ist es ein Wesen, das wir geschaffen haben?"
Was hinter der Superintelligenz stecken könnte und wie gefährlich sie möglicherweise ist, darüber hat t-online mit Eldar Sultanow gesprochen. Er ist IT-Experte für künstliche Intelligenz und digitale Menschlichkeit in München.
t-online: Herr Sultanow, müssen wir uns wegen des Führungsdramas bei OpenAI sorgen?
Eldar Sultanow: Die Nachricht hat mich nicht umgehauen, denn das macht natürlich schnell die Runde. Ich glaube, wir sollten das Ganze nicht zu sehr dramatisieren, sondern mit einem kühlen Kopf beobachten. Da spielten vermutlich auch Investorenentscheidungen eine Rolle.
In dem Brandbrief der ChatGPT-Entwickler soll von einem Programm namens Q* die Rede sein. Dieses habe ein mathematisches Problem gelöst. Die Entwickler sorgten sich wohl darum, wie dieses Programm eingesetzt wird. Zu Recht?
Da bin ich tendenziell entspannt, ohne technische Details wie den Code zu kennen. Wir haben ja klassische KI-Systeme schon seit Jahren, das ist überhaupt nichts Neues. Neu ist die sogenannte generative KI, die in der Lage ist, aus vielen Daten etwas Neues zu erzeugen. Klassische KI kann schon längst kompliziertere mathematische Probleme lösen oder Beweise führen, als die Aufgaben, die Q* gelöst haben soll. Deshalb würde ich noch nicht behaupten wollen, dass wir einen großen Schritt näher an der Singularität sind.
Eldar Sultanow
ist einer der führenden IT-Strategen in Deutschland, promovierter Wirtschaftsinformatiker und blickt auf mehr als 20 Jahre Erfahrung in der Softwareentwicklung zurück: von der Programmierung bis hin zum KI-Design.
Was genau bedeutet Singularität?
Die Singularität oder auch sogenannte Superintelligenz bedeutet – stark verallgemeinert –, dass intelligente Maschinen die Fähigkeiten des Menschen nicht nur erreicht haben, sondern übersteigen. Wir sehen das im autonomen Fahren, wenn man vier Stunden unterwegs ist, müde wird und über die weiße Linie fährt. Dann ruckelt das Lenkrad und der Bordcomputer sagt: Hey, bleib mal auf der Spur. Das ist auch KI. Wir verbauen KI schon jetzt in Autos, vielleicht auch irgendwann mal in Flugzeugen. Bisher brauchen diese künstlichen Intelligenzsysteme noch eine Entscheidung vom Menschen. Irgendwann werden sie selbst entscheiden können.
Wann wird dieser Zustand der Singularität Ihrer Meinung nach eintreffen?
Es gibt eine Studie aus dem Jahr 2016, dass KI-Systeme allgemein menschliche Fähigkeiten mit einer Wahrscheinlichkeit von mehr als 50 Prozent zwischen 2040 und 2050 erreichen werden. Und mit einer Wahrscheinlichkeit von fast 90 Prozent wird das bis 2075 passieren. Also da haben wir noch viel Luft. Ich möchte die Entwicklung aber keinesfalls herunterspielen, und ich glaube, wir sollten nicht so pessimistisch sein. Die Entwicklungskurve ist schnell. Die Singularität wird kommen und wahrscheinlich auch ein bisschen schneller, aber sicherlich nicht, weil Q* es geschafft hat, die angesprochenen mathematischen Aufgaben zu lösen.
Sind wir zu ängstlich im Umgang mit KI?
Auf europäischer Ebene wird natürlich darüber nachgedacht, wie wir die KI-Entwicklung simulieren können. Auch der deutsche Ethikrat befasst sich intensiv damit, wie ein menschenwürdiger Umgang mit der weiteren Entwicklung von KI aussehen kann. Deutschland gibt sich immer sehr viel Mühe, die Dinge akkurat zu machen und zu regulieren – und das nimmt leider oft sehr viel Zeit in Anspruch. Was ausbremst. Stichwort Datenschutz: Wir gehen mit Daten deutlich sensibler um, als zum Beispiel andere Länder das machen. Ich möchte das nicht schlechtreden, aber wir könnten das Ganze etwas beschleunigen.
Welche Dinge sollten denn strenger reguliert werden und welche nicht?
Jede Medaille hat zwei Seiten: Mit einem Messer kann ich jemandem ein Brot schmieren, der gerade Hunger hat. Ich kann aber auch andere dumme Sachen damit anstellen. Und genauso ist es mit KI: Die Sachen, die wirklich hochkritisch sind, Entwicklungen von biologischen oder chemischen Waffen zum Beispiel – das geht natürlich absolut nicht. Da sind wir in Deutschland superstreng und da gibt es auch keine Diskussion. Aber KI kann auch Menschen helfen, etwa in der Medizin. Durch unseren strengen Umgang verlieren wir aber in diesen Bereichen Top-Wissenschaftler. Sie gehen in andere Länder, weil man dort besser forschen kann. Das finde ich schade und ich glaube, dass wir da besser werden können.
In welchen Bereichen kann die KI den Menschen denn heute schon helfen?
Etwa, um das Waldsterben durch den Borkenkäfer zu erkennen. Da wird anhand von Satellitenbildern bis auf zehn Meter genau erkannt: Hier haben wir einen Befall und da müssen wir jetzt eingreifen. Oder: Elefanten und Nashörner werden in Afrika immer noch illegal getötet. Und mittlerweile werden Geräusche-Sensoren aufgestellt, die die Tiere mithilfe von KI verfolgen und Anomalien erkennen, zum Beispiel Schüsse. Dadurch wissen die Ranger zu jeder Zeit, wo sich die Wilderer aufhalten, können besser auf die Tiere aufpassen und sofort eingreifen. Das zeigt doch: Wir reden zu viel über Schreckensszenarien. Stattdessen bietet KI eine enorme Chance, zur Rettung des Planeten oder vieler Arten beizutragen.
Die Diskussion über Risiken muss aber auch geführt werden, oder?
Ja, und das passiert ja auch. Ich möchte das nicht schlechtreden: Es ist wichtig, dass wir aufmerksam machen – ansonsten hätten wir die Debatten nicht. Was mir aber zu kurz kommt, ist zu zeigen, was wir auch alles Gutes damit machen können. Wir erkennen Milbenbefall bei Bienenstöcken. Die KI erkennt Wale anhand von Fotos wieder und versteht deren Wanderung – und so kann man dann auch die Wale schützen. Davon hört man halt leider wenig.
Das heißt, aus Ihrer Sicht bietet künstliche Intelligenz mehr Chancen als Risiken?
Ich sehe die Entwicklung sehr positiv und wir haben sowohl Chancen als auch Risiken mit künstlicher Intelligenz. Wobei die Chancen deutlich überwiegen, wenn der gesunde Menschenverstand und die Ethikräte mithelfen zu regulieren. Der ganze Fortschritt kostet Ressourcen und jetzt ist der richtige Zeitpunkt, zurückzugeben. Und das tun wir mittlerweile auch. Ich würde mich freuen, wenn mehr über diese positiven Entwicklungen berichtet werden würde.
- Interview mit Dr. Eldar Sultanow