Künstliche Intelligenz Google-Mitarbeiter bezeichnen Chatbot als "pathologischen Lügner"
ChatGPT, Bing und jetzt auch Bard: Immer mehr Sprach-KIs kommen auf den Markt. Um den Anschluss nicht zu verlieren, macht Google folgenreiche Abstriche.
Um beim Wettrennen bei der KI-Technologie mitzuhalten, übergeht Google Berichten von Bloomberg zufolge seine eigene Ethikkommission. Aktuelle sowie ehemalige Mitarbeiter hätten angegeben, dass Google ein schneller Markteintritt wichtiger sei, als ethische Grundsätze einzuhalten, lautet die Kritik.
Im Jahr 2021 hatte Google sein Ethik-Team noch verdoppelt, um die möglichen Risiken von Künstlicher Intelligenz besser einschätzen zu können. Doch nachdem Ende des vergangenen Jahres ChatGPT veröffentlicht und Microsofts die KI in seine Suchmaschine Bing einbaute, musste es auch für Google schnell gehen.
Lebensgefährliche Fehlinformationen
Das Ergebnis: Ein ehemaliger Mitarbeiter bezeichnet Bard als "pathologischen Lügner". Der Chatbot würde beispielsweise auf die Frage, wie man ein Flugzeug lande, jedes Mal falsche und lebensgefährliche Angaben machen.
Google nimmt die Fehlinformationen offenbar in Kauf, um überhaupt ein Produkt auf dem Markt zu haben. Der Bot ist bislang als Experiment gekennzeichnet. Dadurch hofft der Internet-Konzern auf Verständnis seitens der Nutzer für Fehler.
- golem.de "Google soll ethische Grundsätze bei Bard aufgeben"
- bloomberg.com "Google’s Rush to Win in AI Led to Ethical Lapses, Employees Say" (Englisch)