t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAudio

Betrugsmasche mit Audiodatei: Daran erkennen Sie Audio-Fälschungen


Betrugsmasche Audio-Fakes
So erkennen Sie gefälschte Stimmen

Neben gefälschten Bildern und Videos werden im Internet und über soziale Medien auch immer mehr gefälschte Audiodateien verbreitet. So können Sie diese erkennen.

14.11.2023|Lesedauer: 2 Min.
Von t-online, mho
News folgen

Wo Licht ist, ist auch Schatten: Die Beatles veröffentlichen eine neue Single, "Tagesschau"-Sprecher Jens Riewa entschuldigt sich für angebliche Lügen. Mithilfe Künstlicher Intelligenz (KI) lassen sich Stimmen restaurieren und generieren – aber auch fälschen.

imago images 0257764434Vergrößern des Bildes
Gesicht inmitten von Schallwellen (Symbolbild): Stimmen lassen sich mithilfe von KI innerhalb weniger Sekunden erzeugen und fälschen. (Quelle: IMAGO / Design Pics)

Was vor wenigen Jahren noch sehr aufwändig war, ist dank KI heutzutage binnen weniger Sekunden erledigt. Das Programm nutzt Trainingsdaten, die den Klang und die Farbe der Stimme analysieren und nachbauen. Je mehr Daten das Programm zur Verfügung hat, desto besser ist in der Regel auch das Ergebnis.

"Völlig neue Dimension des Missbrauchs"

Die Stiftung Wissenschaft und Politik (SWP) schreibt dazu auf ihrer Webseite: "Die menschliche Neigung, emotional auf diese Medien zu reagieren, eröffnet deren Produzenten eine völlig neue Dimension des Missbrauchs." Daher ist es umso wichtiger, gefälschte Audios auch als solche zu erkennen.

Laut dem Bundesamt für Sicherheit in der Informationstechnik (BSI) sind vor allem die Aufklärung und die Schulung potenziell betroffener Personen wichtig. Es gibt aber auch Möglichkeiten, "typische Artefakte bei synthetischen Stimmen" zu erkennen:

  • Sound: Digital erzeugte Stimmen erzeugen oft ein Audio-Signal, das als "metallisch" oder "fragmentarisch" klingt.
  • Aussprache: KI-Programme zur Erzeugung von Stimmen sprechen Wörter mitunter nicht korrekt aus. Viele wurden (noch) nicht mit der deutschen Sprache trainiert.
  • Betonung: Oft wirken Stimmen, die künstlich generiert werden, etwas monoton.
  • Sprechweise: Die spezifischen Charakteristika einer Stimme – wie zum Beispiel Akzente, Dialekte oder besondere Betonungen einzelner Wörter – werden oft nicht naturgetreu wiedergegeben.

Andreas Dengel, geschäftsführender Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), betont zudem, dass der Inhalt der Nachricht glaubhaft sein sollte: "Dass ein Nachrichtensender solche Audios veröffentlicht, ist sehr unrealistisch. Da sollte sich der gesunde Menschenverstand einschalten und sagen, dass diese Audios nicht echt sein können."

Verwendete Quellen
  • bsi.bund.de: "Deepfakes – Gefahren und Gegenmaßnahmen"
  • swp-berlin.org: "Deepfakes – Wenn wir unseren Augen und Ohren nicht mehr trauen können"
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Themen



TelekomCo2 Neutrale Website