t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAktuelles

OpenAI stellt neues KI-Modell o1 vor: "Denkt" wie ein Mensch


Schritt für Schritt
Neues KI-Modell von OpenAI "denkt" wie ein Mensch

Von t-online, mho

Aktualisiert am 14.09.2024Lesedauer: 2 Min.
imago images 0366422519Vergrößern des Bildes"Denkt" wie ein Mensch: OpenAI-Gründer Sam Altman hat das neue KI-Modell o1 vorgestellt. (Quelle: Jaap Arriens/imago-images-bilder)

OpenAI präsentiert ein neues KI-Modell mit verbesserter Fähigkeit, Probleme zu lösen. Die Software soll komplexe Aufgaben bewältigen und könnte in der Forschung eingesetzt werden.

ChatGPT-Entwickler OpenAI hat ein neues KI-Modell namens o1 vorgestellt. Wie das Unternehmen auf seiner Webseite mitteilt, zeichne sich die Software durch eine verbesserte Fähigkeit zur Lösung komplexer Probleme aus. Im Gegensatz zu bisherigen Chatbots nehme sich o1 mehr Zeit zum "Nachdenken", bevor es eine Antwort gibt.

Das neue Modell soll besonders in den Bereichen Wissenschaft, Programmierung und Mathematik komplexe Aufgaben durchdenken und schwierigere Probleme lösen können. Bei gewissen Standardtests in den Bereichen Physik, Chemie und Biologie sei die Leistung von o1 laut OpenAI vergleichbar mit der von Doktoranden. So habe o1 in einem Test 83 Prozent der Prüfungsaufgaben für die internationale Mathematik-Olympiade lösen können. Das aktuelle ChatGPT-4 kam lediglich auf 13 Prozent.

Wie genau funktioniert o1?

Die neue KI-Software wurde darauf trainiert, sogenannte "Gedankenketten" zu bilden. Dabei zerlege o1 komplexe Aufgaben in einfachere Einzelschritte – und zwar selbstständig. OpenAI erklärt, dass das Modell verschiedene Ansätze ausprobiere und dadurch seine eigenen Fehler erkennen und korrigieren würde.

Dieser Prozess ähnelt dem menschlichen Problemlösungsverhalten. Im Gegensatz zu bisherigen Modellen, die ihre Antworten möglichst schnell liefern, nimmt sich o1 mehr Zeit für die Lösungsfindung. OpenAI betont, dass dieser Ansatz zu einer verbesserten Genauigkeit und einer geringeren Anzahl von sogenannten Halluzinationen geführt habe.

Was ist eine "Halluzination" bei KI?

Bei Künstlicher Intelligenz (KI) spricht man von einer Halluzination, wenn die KI Informationen erzeugt, die nicht der Realität entsprechen oder falsch sind. Das Modell gibt eine Antwort, die zwar plausibel klingt, aber keine tatsächliche Grundlage in den Daten hat. Solche Halluzinationen entstehen, weil die KI versucht, eine sinnvolle Antwort auf Basis der vorhandenen Daten zu formulieren – selbst wenn die Informationen unzureichend oder widersprüchlich sind.

Einschränkungen und Sicherheitsaspekte

Trotz der besseren Genauigkeit räumt das Unternehmen ein, dass das Problem der Halluzinationen noch nicht vollständig gelöst sei. Bei einer Testauswahl von 100.000 Anfragen gab o1 in 0,38 Prozent der Fälle wissentlich eine falsche Antwort. Dies geschah vor allem dann, wenn das Modell aufgefordert wurde, auf Artikel, Websites oder Bücher zu verweisen – ohne jedoch Zugang zur Internetsuche zu haben.

Auch andere nützliche Funktionen von ChatGPT fehlen o1 bisher. So könne das Modell keine Dateien und Bildern hochladen. Außerdem ist o1 laut OpenAI bisher langsamer als seine Vorgänger. Dennoch sieht OpenAI großes Potenzial für den Einsatz von o1 in der Forschung, insbesondere bei der Datenanalyse.

Verwendete Quellen
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website