t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAktuelles

Apple-Fehler: Diktierfunktion ersetzt "Rassist" mit "Trump"


Manipulierte KI?
Fehler bei Apples Diktierfunktion ersetzt "Rassist" durch "Trump"

Von t-online, hja

26.02.2025 - 14:09 UhrLesedauer: 2 Min.
Chats auf dem iPhone: Die Diktierfunktion soll Nutzern beim Verfassen einer Nachricht helfen.Vergrößern des Bildes
Chats auf dem iPhone: Die Diktierfunktion soll Nutzern beim Verfassen einer Nachricht helfen (Symbolbild). (Quelle: DENYS PRYKHODOV/imago-images-bilder)
News folgen

Ein kurioser Fehler bei Apple kursiert derzeit auf Social Media: Die iPhone-Diktierfunktion übersetzt das Wort "Rassist" als "Trump". Was steckt dahinter?

In den sozialen Medien erregten Videos der vergangenen Woche Aufsehen, die einen kuriosen Fehler der Apple-Diktierfunktion dokumentierten. Dabei versuchten Nutzer das Wort "Racist" (auf Deutsch "Rassist") in einem Messenger-Chat zu diktieren. Statt der richtigen Eingabe erschien für einen kurzen Moment das Wort "Trump", bevor es sich schließlich selbst korrigierte.

Loading...

Auf TikTok äußerten sich viele Nutzer in den Kommentaren und bestätigten den Fehler. Auch die "New York Times" konnte bei einem Test dieselbe Beobachtung machen.

Spekulationen zur Ursache

Handelt es sich hierbei um eine manipulierte KI? Ein Apple-Sprecher führte das Problem auf phonetische Überschneidungen zwischen den beiden Wörtern zurück. So könne die KI fälschlicherweise "Trump" als Antwort auf mehrere Wörter mit einem "r"-Konsonanten vorgeschlagen haben. Apple versicherte, bereits an einer Lösung zu arbeiten.

Empfohlener externer Inhalt
TikTok

Wir benötigen Ihre Einwilligung, um den von unserer Redaktion eingebundenen TikTok-Inhalt anzuzeigen. Sie können diesen (und damit auch alle weiteren TikTok-Inhalte auf t-online.de) mit einem Klick anzeigen lassen und auch wieder deaktivieren.

Möglicher Streich

John Burkey, Gründer des KI-Start-ups "wonderrush.ai" und früheres Mitglied des Apple-Siri-Teams, meinte jedoch, es sei unwahrscheinlich, dass die grundlegenden, gesammelten Daten das Problem verursachten. Vielmehr könne ein technischer Fehler des Softwarecodes dafür verantwortlich sein. Burkey stehe laut der "New York Times" noch immer in regelmäßigem Kontakt mit dem Apple-Team und spekulierte auch über einen möglichen Streich als Ursache.

Dieser Fehler ist ein weiteres Problem seit der Einführung des neuen KI-Systems namens Apple Intelligence im letzten Jahr. Bereits im vergangenen Monat kündigte Apple die Deaktivierung einer Funktion des Systems aufgrund fehlerhafter Nachrichten-Zusammenfassungen an. 2018 ereignete sich ebenfalls ein Skandal um die Siri-Sprachassistenz, als sie ein Nacktbild auf die Frage nach Donald Trump zeigte – verursacht durch manipulierte Wikipedia-Daten.

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



Telekom