t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAktuelles

Gastbeitrag: Künstliche Intelligenz? Wohl eher "Fauxtomation"!


Meinung
Was ist eine Meinung?

Die subjektive Sicht des Autors auf das Thema. Niemand muss diese Meinung übernehmen, aber sie kann zum Nachdenken anregen.

Was Meinungen von Nachrichten unterscheidet.

Software-Schwindel
Darum wird künstliche Intelligenz völlig überschätzt

MeinungEin Gastbeitrag von Jürgen Geuter

29.08.2019Lesedauer: 5 Min.
Eine Roboter-Hand tippt eine Taste auf einem Laptop: Die vollmundigen KI-Versprechen der Industrie basieren nicht auf Fakten.Vergrößern des Bildes
Eine Roboterhand tippt eine Taste auf einem Laptop: Die vollmundigen KI-Versprechen der Industrie basieren nicht auf Fakten. (Quelle: Thinkstock by Getty-Images-bilder)

Künstliche Intelligenz gilt als großes Zukunftsthema. In Deutschland soll die Industrie sogar mit Milliarden gefördert werden. Dabei gibt es erhebliche Zweifel an den Fähigkeiten intelligenter Software.

Die Wahrheit über Sprachassistenten kam in diesem Sommer häppchenweise ans Licht. Nacheinander mussten die Tech-Giganten Amazon, Google, Apple und Facebook einräumen, dass ihre ach-so-intelligente Sprach-Software und -Assistenten nicht ohne menschliche Hilfe funktionieren. Alle vier Konzerne leiten die Sprachaufnahmen ihrer Nutzerinnen und Nutzer an Subunternehmen weiter, wo sie "zu Trainingszwecken" von Menschen abgehört und transkribiert werden.

Die Medien behandelten diese "Enthüllungen" vor allem als einen Datenschutzskandal. Dabei weisen sie auf ein viel tiefgreifenderes Problem hin: Die Fähigkeiten von sogenannter "künstlicher Intelligenz" werden permanent überschätzt. Und ihre Schöpfer haben keinerlei Interesse daran, den Irrtum aufzuklären.

Im Fall der Sprachassistenten wurden Anwenderinnen und Anwender in dem Glauben gelassen, sie redeten mit einer Maschine. Das nimmt ihnen die Scheu und Angst um die Privatsphäre. In Wahrheit war die angeblich so mächtige "KI" der Tech-Giganten nie in der Lage, ihre Aufgabe allein zu erfüllen. Deshalb wurde sie an billige Arbeitskräfte ausgelagert.

Künstliche Intelligenz? Wohl eher "Fauxtomation"!

Facebook und Co. befinden sich beim Einsatz von Menschen anstatt von künstlicher Intelligenz in guter Gesellschaft. Eine durch die Londoner Investmentfirma MMC durchgeführte Studie kam zu dem ernüchternden Ergebnis, dass 40 Prozent aller europäischen "KI-Start-ups" für ihre zentralen Geschäftsbereiche keinerlei KI-Technologien anwenden. Das Start-up Engineer.ai etwa versprach, die Programmierung von Apps durch "KI" zu automatisieren. Doch statt auf komplexe Softwaresysteme setzt die Firma in der Praxis doch lieber auf menschliche Programmiererinnen und Programmierer.

Im englischsprachigen Raum hat sich für diese Form der vorgetäuschten Automatisierung der Begriff "Fauxtomation" etabliert (abgeleitet vom französischen Wort für "falsch"). Fauxtomation bezeichnet Prozesse, bei denen von den Verantwortlichen behauptet wird, sie würden durch fortschrittliche Automatisierung und Technologie abgewickelt. In der Realität basieren sie aber auf unsichtbar gemachter menschlicher Arbeit.

In der Geschichte der KI hat das eine lange Tradition. Schon 1769 führte der Mechaniker Wolfgang von Kempelen das Publikum mit dem sogenannten "Schachtürken" hinters Licht. Der erste schachspielende "Roboter" war nichts weiter als ein Jahrmarktsschwindel: Im Kasten der angeblich intelligenten Maschine hockte ein Mensch, der die Vorrichtung bediente.

Schon der Begriff "künstliche Intelligenz" führt in die Irre

Für einen Schachcomputer brauchen Entwickler heutzutage freilich keine Taschenspielertricks mehr. Ein Programm mit klar definierten Regelsätzen tut es auch. Die KI-Forschung wendet sich bereits komplexeren Problemen zu. Mit echter Intelligenz hat das aber nach wie vor wenig zu tun.

"Künstliche Intelligenz" ist, wenn wir die Domäne von Science-Fiction-Romanen und -Filmen verlassen, in seiner aktuell praktizierten Form nur eine spezielle Form der Automatisierung. Beim sogenannten "Machine Learning" werden verschiedene statistische Verfahren automatisiert und auf sehr große Datenmengen angewendet, um Software für bestimmte Aufgaben zu trainieren.

Das System soll die Daten nach statistischen Mustern und Zusammenhängen durchsuchen und daraus "lernen". Ziel der Übung ist es, dass es später in einem ähnlichen Szenario dieselben Muster wiedererkennt und selbstständige Entscheidungen trifft.

Die Technik scheitert an der Wirklichkeit

Solche automatisierten Statistiksysteme sind zu durchaus beeindruckenden Leistungen in der Lage. Sie erkennen recht zuverlässig bestimmte Objekte wie Katzen, Verkehrszeichen oder Sehenswürdigkeiten auf Bildern. Oder sie werden zum Beispiel zur frühzeitigen Erkennung bestimmter Krankheitsbilder eingesetzt.

Doch selbst die beste Mustererkennungssoftware stößt in der Realität oft an ihre Grenzen. Ganze Onlinesammlungen handeln davon, dass KI-Systeme frittierte Hühnerschenkel nicht von zotteligen Welpen unterscheiden können oder Schoko-Brötchen mit Faultieren verwechseln.

Empfohlener externer Inhalt
X
X

Wir benötigen Ihre Einwilligung, um den von unserer Redaktion eingebundenen X-Inhalt anzuzeigen. Sie können diesen (und damit auch alle weiteren X-Inhalte auf t-online.de) mit einem Klick anzeigen lassen und auch wieder deaktivieren.

Darüber kann man sich lustig machen. In Form von automatisierten Entscheidungssystemen, zum Beispiel bei Bewerbungsverfahren oder Sicherheitssystemen, sind solche fehleranfälligen und intransparenten Verfahren aber zu Recht umstritten. Diskriminierung und andere unerwünschte Effekte sind geradezu vorprogrammiert.

Ein Mustererkennungssystem kann nämlich nur das lernen, was in den Trainingsdaten vorkommt. Trainiere ich zum Beispiel eine Gesichtserkennung nur mit weißen Gesichtern, dann wird es die Gesichter von Menschen mit nicht-weißer Hautfarbe nicht erkennen. Die Verzerrung, die durch die Auswahl der Trainingsdaten ins System eingebracht wird, der sogenannte Bias, lässt sich der "KI" leider nicht direkt ansehen, sondern kann nur durch sorgfältige Beobachtung der Entscheidungen des Systems erahnt werden.

Die unsichtbaren Click-Arbeiter

Die Unternehmen, die KI-Systeme in den Markt bringen wollen, halten die Probleme offenbar für lösbar. Und wo sie es noch nicht sind, wird eben durch menschliche Zuarbeit nachgeholfen. Eine Armee an unterbezahlten Click-Arbeitern überbrückt – unsichtbar für die Benutzerinnen und Benutzer – die Kompetenzlücken der Systeme, damit sie scheinbar reibungslos funktionieren.

Von den Unternehmen wird der Rückgriff auf menschliche Arbeit immer nur als temporär dargestellt. Trotzdem ist diese Fauxtomation auf mehreren Ebenen problematisch. Denn eine realistische Auseinandersetzung mit KI ist unter diesen Voraussetzungen nahezu unmöglich. Und das hat Folgen.

Es beginnt damit, dass unter dem Stichwort der "KI" große öffentliche Förderprogramme für Wirtschaft und Forschung losgetreten werden. Die vorgetäuschte Leistungsfähigkeit der "intelligenten" Systeme nährt zudem das Narrativ der "KI" als quasi-magischer Technologie, die die großen Herausforderungen unserer Zeit wie zum Beispiel die Klimakatastrophe oder auch die Moderation von problematischen Inhalten im Internet lösen soll.

Facebook mag behaupten, dass die Darstellung von Kindesmissbrauch, von Gewalt oder anderen Grausamkeiten durch Maschinen aussortiert werden kann. In den Löschzentren sitzen am Ende aber doch Menschen vor Bildschirmen, die quasi ohne psychologische Betreuung und unter extremen Arbeitsbedingungen den ganzen Tag in diesen Inhalten waten.

Angst vor dem Jobverlust

Doch nicht nur Facebook weiß den Mythos von der mächtigen KI für sich zu nutzen. Auch andere Industrien können profitieren, indem sie Zukunftsängste schüren und Menschen glauben lassen, Software könne ihren Arbeitsplatz ersetzen. In den nächsten Jahren sollen "intelligente" Systeme sogar sicher geglaubte Jobs wie zum Beispiel die von Journalistinnen und Journalisten erledigen.

Diese Erzählung von der KI als ultimativem Job-Killer erhöht den Druck auf die Arbeitenden in den betreffenden Sektoren. Wenn die Maschinen ab morgen deine Arbeit machen könnten, dann darfst du nicht nach mehr Lohn oder der Anerkennung deiner Überstunden fragen. So wird dem Lohndumping und der weiteren Entwertung menschlicher Arbeit Vorschub geleistet.

Über den Autor
Jürgen Geuter alias @tante beschäftigt sich als unabhängiger Theoretiker mit soziotechnischen Systemen, insbesondere mit den politischen und gesellschaftlichen Auswirkungen der Einführung und Nutzung von Technologien. Er schreibt für verschiedene nationale und internationale Publikationen und ist Gründungsmitglied des transdisziplinären Otherwise Network, welches sich mit Fragen der Digitalisierung beschäftigt.

Loading...
Loading...

Raus aus dem Teufelskreis

"Künstliche Intelligenz" ist ein Hype-Begriff. Er fungiert als Projektionsfläche für diverse, oft unrealistische Zukunftsvisionen und Versprechen. So heißt es schon seit gut zehn Jahren, autonome Autos seien "fast marktreif". Inzwischen kommen zu Recht Zweifel daran auf.

Unsere Vorstellung von KI ist abwechselnd geprägt von übertriebener Angst und übertriebenem Optimismus. Das ist womöglich auch kein Zufall, sondern Teil eines Programms. Mächtige Akteure haben den KI-Begriff für sich vereinnahmt und in ihrem Interesse geprägt.

Das fatale daran ist, dass die erfundenen Wirkungen und Fähigkeiten von KI reale Konsequenzen haben. Sie führen zu einer vergifteten Debatte und fehlgeleiteter Politik. Darum ist es höchste Zeit, die Debatte zu versachlichen. Wir müssen darüber reden, was Statistiksysteme (und um nichts anderes geht es hier) heutzutage leisten können, und was nicht.


Mit vielen angeblichen "KI"-Produkten verhält es sich nämlich wie mit den "magischen" Gewändern im Märchen "Des Kaisers neue Kleider". Zumindest für eine Weile funktioniert der Glaube an die wundersame Technik besser, als es die Technik jemals könnte. Doch wenn wir Zweifel zulassen, wird das Volk bald feststellen: In Wahrheit ist der Kaiser nackt.

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website