Für diesen Beitrag haben wir alle relevanten Fakten sorgfältig recherchiert. Eine Beeinflussung durch Dritte findet nicht statt.
Zum journalistischen Leitbild von t-online.Betrugsmasche Audio-Fakes So erkennen Sie gefälschte Stimmen
Neben gefälschten Bildern und Videos werden im Internet und über soziale Medien auch immer mehr gefälschte Audiodateien verbreitet. So können Sie diese erkennen.
Wo Licht ist, ist auch Schatten: Die Beatles veröffentlichen eine neue Single, "Tagesschau"-Sprecher Jens Riewa entschuldigt sich für angebliche Lügen. Mithilfe Künstlicher Intelligenz (KI) lassen sich Stimmen restaurieren und generieren – aber auch fälschen.
Was vor wenigen Jahren noch sehr aufwändig war, ist dank KI heutzutage binnen weniger Sekunden erledigt. Das Programm nutzt Trainingsdaten, die den Klang und die Farbe der Stimme analysieren und nachbauen. Je mehr Daten das Programm zur Verfügung hat, desto besser ist in der Regel auch das Ergebnis.
"Völlig neue Dimension des Missbrauchs"
Die Stiftung Wissenschaft und Politik (SWP) schreibt dazu auf ihrer Webseite: "Die menschliche Neigung, emotional auf diese Medien zu reagieren, eröffnet deren Produzenten eine völlig neue Dimension des Missbrauchs." Daher ist es umso wichtiger, gefälschte Audios auch als solche zu erkennen.
Laut dem Bundesamt für Sicherheit in der Informationstechnik (BSI) sind vor allem die Aufklärung und die Schulung potenziell betroffener Personen wichtig. Es gibt aber auch Möglichkeiten, "typische Artefakte bei synthetischen Stimmen" zu erkennen:
- Sound: Digital erzeugte Stimmen erzeugen oft ein Audio-Signal, das als "metallisch" oder "fragmentarisch" klingt.
- Aussprache: KI-Programme zur Erzeugung von Stimmen sprechen Wörter mitunter nicht korrekt aus. Viele wurden (noch) nicht mit der deutschen Sprache trainiert.
- Betonung: Oft wirken Stimmen, die künstlich generiert werden, etwas monoton.
- Sprechweise: Die spezifischen Charakteristika einer Stimme – wie zum Beispiel Akzente, Dialekte oder besondere Betonungen einzelner Wörter – werden oft nicht naturgetreu wiedergegeben.
Andreas Dengel, geschäftsführender Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), betont zudem, dass der Inhalt der Nachricht glaubhaft sein sollte: "Dass ein Nachrichtensender solche Audios veröffentlicht, ist sehr unrealistisch. Da sollte sich der gesunde Menschenverstand einschalten und sagen, dass diese Audios nicht echt sein können."
- bsi.bund.de: "Deepfakes – Gefahren und Gegenmaßnahmen"
- swp-berlin.org: "Deepfakes – Wenn wir unseren Augen und Ohren nicht mehr trauen können"