Manipulierte KI? Fehler bei Apples Diktierfunktion ersetzt "Rassist" durch "Trump"

Ein kurioser Fehler bei Apple kursiert derzeit auf Social Media: Die iPhone-Diktierfunktion übersetzt das Wort "Rassist" als "Trump". Was steckt dahinter?
In den sozialen Medien erregten Videos der vergangenen Woche Aufsehen, die einen kuriosen Fehler der Apple-Diktierfunktion dokumentierten. Dabei versuchten Nutzer das Wort "Racist" (auf Deutsch "Rassist") in einem Messenger-Chat zu diktieren. Statt der richtigen Eingabe erschien für einen kurzen Moment das Wort "Trump", bevor es sich schließlich selbst korrigierte.
Auf TikTok äußerten sich viele Nutzer in den Kommentaren und bestätigten den Fehler. Auch die "New York Times" konnte bei einem Test dieselbe Beobachtung machen.
- Apple-KI kommt nach Deutschland: Das sollten iPhone-Nutzer wissen
Spekulationen zur Ursache
Handelt es sich hierbei um eine manipulierte KI? Ein Apple-Sprecher führte das Problem auf phonetische Überschneidungen zwischen den beiden Wörtern zurück. So könne die KI fälschlicherweise "Trump" als Antwort auf mehrere Wörter mit einem "r"-Konsonanten vorgeschlagen haben. Apple versicherte, bereits an einer Lösung zu arbeiten.
Wir benötigen Ihre Einwilligung, um den von unserer Redaktion eingebundenen TikTok-Inhalt anzuzeigen. Sie können diesen (und damit auch alle weiteren TikTok-Inhalte auf t-online.de) mit einem Klick anzeigen lassen und auch wieder deaktivieren.
Möglicher Streich
John Burkey, Gründer des KI-Start-ups "wonderrush.ai" und früheres Mitglied des Apple-Siri-Teams, meinte jedoch, es sei unwahrscheinlich, dass die grundlegenden, gesammelten Daten das Problem verursachten. Vielmehr könne ein technischer Fehler des Softwarecodes dafür verantwortlich sein. Burkey stehe laut der "New York Times" noch immer in regelmäßigem Kontakt mit dem Apple-Team und spekulierte auch über einen möglichen Streich als Ursache.
Dieser Fehler ist ein weiteres Problem seit der Einführung des neuen KI-Systems namens Apple Intelligence im letzten Jahr. Bereits im vergangenen Monat kündigte Apple die Deaktivierung einer Funktion des Systems aufgrund fehlerhafter Nachrichten-Zusammenfassungen an. 2018 ereignete sich ebenfalls ein Skandal um die Siri-Sprachassistenz, als sie ein Nacktbild auf die Frage nach Donald Trump zeigte – verursacht durch manipulierte Wikipedia-Daten.
- nytimes.com: "Apple’s Dictation System Transcribes the Word ‘Racist’ as ‘Trump’" (Englisch)
- nbcnews.com: "Apple says a bug caused its iPhone voice-to-text feature to spit out 'Trump' when a user says 'racist'" (Englisch)