"Düsterer Ausblick" Polizei warnt vor kriminellem Missbrauch von ChatGPT
Die Künstliche Intelligenz ChatGPT kann umfangreiche Texte schreiben und Sprachstile imitieren. Die EU-Polizeibehörde Europol warnt vor einem Missbrauch durch Kriminelle.
Die EU-Polizeibehörde Europol hat davor gewarnt, dass Kriminelle Künstliche Intelligenz (KI) wie ChatGPT für Betrug und andere Cyberverbrechen nutzen werden. Dies biete einen "düsteren Ausblick", heißt es in einem neuen Bericht der europäischen Polizeibehörde mit Sitz in Den Haag.
Die sich schnell entwickelnden Fähigkeiten von Chatbots würden künftig nicht nur genutzt, um die Menschheit zu verbessern – sondern auch, um sie zu betrügen.
Europols neues Innovationslabor hat den Einsatz von Chatbots im Allgemeinen untersucht, sich aber auf ChatGPT konzentriert, da es sich um den bekanntesten und meistbenutzten Chatbot handelt.
ChatGPT kann Sonette schreiben und programmieren
ChatGPT erstellt mithilfe von Künstlicher Intelligenz Texte. Nutzer können einzelne Befehle oder Sätze vorgeben, die das System dann mithilfe von Unmengen von Daten aus dem Internet eigenständig ergänzt.
Schnell waren Nutzer nach dem Auftauchen des Chatbots begeistert von dessen Fähigkeiten, schwierige Fragen zu beantworten, Sonette zu schreiben oder zu programmieren und sogar Prüfungen zu bestehen.
Kriminelle könnten ChatGPT nutzen, um den Rechercheprozess in Bereichen außerhalb ihres Wissens "erheblich zu beschleunigen", erklärte die Behörde.
Der Chatbot könne etwa Informationen geben, "wie man in ein Haus einbricht, bis hin zu Terrorismus, Cyberkriminalität und sexuellem Missbrauch von Kindern", hieß es.
Der Chatbot könne bestimmte Sprachstile imitieren, sodass er besonders wirksam für das sogenannte Phishing eingesetzt werden könne, stellte Europol fest.
Beim Phishing werden Nutzer dazu verleitet, in E-Mails auf Links zu klicken, mithilfe derer ihnen dann ihre Daten gestohlen werden.
Sicherheitsexperten warnen ebenfalls
Auch Christian Lueg, IT-Experte beim Sicherheitsunternehmen Eset, sieht eine drohende Gefahr durch ChatGPT. "Phishing-Mails könnten für die Empfänger zukünftig deutlich schwerer zu erkennen sein, denn die Sprache wird durch Textroboter fehlerfrei sein", sagte Lueg im Gespräch mit t-online.
Und er sieht noch einen weiteren Bereich für einen böswilligen Einsatz: automatisierte Lösegeldverhandlungen durch Chatbots. "Die Betreiber können sich so seriöser präsentieren und weniger ungewollte Informationen preisgeben, die Ermittler auf ihre Spur bringen", sagte Lueg.
Auch Telefonbetrug kann laut Lueg mit Plattformen wie ChatGPT einfacher und besser werden. "Die Betrüger klingen, als kämen sie aus der Region und wirken vertrauenswürdiger."
"Ideal für Propaganda- und Desinformationszwecke"
Europol hat noch ein weiteres Bedrohungsszenario ausgemacht. ChatGPTs Fähigkeit, schnell echt wirkende Texte zu verfassen, mache es "ideal für Propaganda- und Desinformationszwecke", warnt die Behörde.
Zwar verfüge ChatGPT über Sicherheitsvorkehrungen und beantworte keine Fragen, die als schädlich oder voreingenommen eingestuft wurden, erklärte Europol. Durch geschickte Eingabeaufforderungen könne das aber umgangen werden.
KI befinde sich noch im Anfangsstadium, und eine Verbesserung ihrer Fähigkeiten sei "zu erwarten", fügte die Behörde hinzu. "Es ist von größter Wichtigkeit, dass das Bewusstsein für dieses Thema geschärft wird, um sicherzustellen, dass alle potenziellen Schlupflöcher so schnell wie möglich entdeckt und geschlossen werden."
- Mit Material der Nachrichtenagentur dpa
- Eigenes Interview