Schritt für Schritt Neues KI-Modell von OpenAI "denkt" wie ein Mensch
OpenAI präsentiert ein neues KI-Modell mit verbesserter Fähigkeit, Probleme zu lösen. Die Software soll komplexe Aufgaben bewältigen und könnte in der Forschung eingesetzt werden.
ChatGPT-Entwickler OpenAI hat ein neues KI-Modell namens o1 vorgestellt. Wie das Unternehmen auf seiner Webseite mitteilt, zeichne sich die Software durch eine verbesserte Fähigkeit zur Lösung komplexer Probleme aus. Im Gegensatz zu bisherigen Chatbots nehme sich o1 mehr Zeit zum "Nachdenken", bevor es eine Antwort gibt.
Das neue Modell soll besonders in den Bereichen Wissenschaft, Programmierung und Mathematik komplexe Aufgaben durchdenken und schwierigere Probleme lösen können. Bei gewissen Standardtests in den Bereichen Physik, Chemie und Biologie sei die Leistung von o1 laut OpenAI vergleichbar mit der von Doktoranden. So habe o1 in einem Test 83 Prozent der Prüfungsaufgaben für die internationale Mathematik-Olympiade lösen können. Das aktuelle ChatGPT-4 kam lediglich auf 13 Prozent.
Wie genau funktioniert o1?
Die neue KI-Software wurde darauf trainiert, sogenannte "Gedankenketten" zu bilden. Dabei zerlege o1 komplexe Aufgaben in einfachere Einzelschritte – und zwar selbstständig. OpenAI erklärt, dass das Modell verschiedene Ansätze ausprobiere und dadurch seine eigenen Fehler erkennen und korrigieren würde.
Dieser Prozess ähnelt dem menschlichen Problemlösungsverhalten. Im Gegensatz zu bisherigen Modellen, die ihre Antworten möglichst schnell liefern, nimmt sich o1 mehr Zeit für die Lösungsfindung. OpenAI betont, dass dieser Ansatz zu einer verbesserten Genauigkeit und einer geringeren Anzahl von sogenannten Halluzinationen geführt habe.
Was ist eine "Halluzination" bei KI?
Bei Künstlicher Intelligenz (KI) spricht man von einer Halluzination, wenn die KI Informationen erzeugt, die nicht der Realität entsprechen oder falsch sind. Das Modell gibt eine Antwort, die zwar plausibel klingt, aber keine tatsächliche Grundlage in den Daten hat. Solche Halluzinationen entstehen, weil die KI versucht, eine sinnvolle Antwort auf Basis der vorhandenen Daten zu formulieren – selbst wenn die Informationen unzureichend oder widersprüchlich sind.
Einschränkungen und Sicherheitsaspekte
Trotz der besseren Genauigkeit räumt das Unternehmen ein, dass das Problem der Halluzinationen noch nicht vollständig gelöst sei. Bei einer Testauswahl von 100.000 Anfragen gab o1 in 0,38 Prozent der Fälle wissentlich eine falsche Antwort. Dies geschah vor allem dann, wenn das Modell aufgefordert wurde, auf Artikel, Websites oder Bücher zu verweisen – ohne jedoch Zugang zur Internetsuche zu haben.
Auch andere nützliche Funktionen von ChatGPT fehlen o1 bisher. So könne das Modell keine Dateien und Bildern hochladen. Außerdem ist o1 laut OpenAI bisher langsamer als seine Vorgänger. Dennoch sieht OpenAI großes Potenzial für den Einsatz von o1 in der Forschung, insbesondere bei der Datenanalyse.
- openai.com: "Learning to Reason with LLMs" (englisch)