GPT-4.5 erreicht im Turing-Test menschliches Leistungsniveau und täuscht 73 % der Teilnehmer

Bearbeitet von: gaya ❤️ one

Eine aktuelle Studie deutet darauf hin, dass das GPT-4.5-Modell von OpenAI im Rahmen eines dreigliedrigen Turing-Tests eine Leistung auf menschlichem Niveau gezeigt hat. Die von der University of California, San Diego, durchgeführte Forschung ergab, dass GPT-4.5 in 73 % der Fälle als Mensch identifiziert wurde, wenn es aufgefordert wurde, eine bestimmte Persona anzunehmen. Dies übertrifft die Basislinie von 50 % deutlich, was darauf hindeutet, dass die Teilnehmer die KI oft mit einem Menschen verwechselten. An der Studie nahmen fast 300 Teilnehmer teil, die sich in textbasierten Gesprächen mit einem Menschen und einem KI-Modell austauschten. Die Aufgabe der Fragesteller war es, den menschlichen Teilnehmer zu identifizieren. Die KI-Modelle wurden unter zwei Bedingungen bewertet: mit einer minimalen Anweisungsaufforderung und mit einer erweiterten Persona-Aufforderung, die die KI anleitete, ein spezifisches, menschenähnliches Verhalten anzunehmen. Die Forschung bewertete auch das Llama 3.1-405B-Modell von Meta, das GPT-4o-Modell von OpenAI und einen frühen Chatbot namens ELIZA. Die Ergebnisse zeigten, dass GPT-4.5 bei Verwendung der Persona-Aufforderung eine Erfolgsquote von 73 % erreichte. Llama 3.1-405B mit der Persona-Aufforderung erreichte eine Erfolgsquote von rund 56 %, während GPT-4o unter No-Persona-Bedingungen nur eine Erfolgsquote von 21 % erreichte. Dies deutet darauf hin, dass die Persona-Aufforderung die Fähigkeit der KI, menschliche Konversationen nachzuahmen, erheblich verbessert hat. Die Studie unterstreicht die Fortschritte in der Fähigkeit der KI, menschliche Interaktion zu simulieren, und wirft Fragen nach den Auswirkungen einer solchen Technologie auf.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.