Madrid - Die neuesten KI-Modelle von OpenAI, O3 und O4-mini, weisen im Vergleich zu ihren Vorgängern eine höhere 'Halluzinations'-Rate auf. Interne Tests mit der PersonQA-Evaluierung ergaben, dass diese Modelle häufiger falsche oder erfundene Informationen produzieren. Das O3-Modell halluzinierte in 33 % der Antworten, fast doppelt so häufig wie das O1-Modell, während das O4-mini-Modell eine Halluzinationsrate von 48 % erreichte. Diese neuen Modelle sind für Aufgaben wie Programmierung, Webnavigation und autonome Bildgenerierung konzipiert. Trotz ihrer fortschrittlichen Fähigkeiten räumt OpenAI das Problem ein und forscht aktiv nach der Ursache für die erhöhten Halluzinationsraten. Die Behebung dieser Ungenauigkeiten ist ein kontinuierlicher Schwerpunktbereich für OpenAI, wie der Sprecher Niko Felix bestätigte.
OpenAIs neue KI-Modelle O3 und O4-Mini zeigen höhere 'Halluzinations'-Raten
Bearbeitet von: Veronika Nazarova
Weitere Nachrichten zu diesem Thema lesen:
Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?
Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.