Neues KI-Modell trainiert auf vielfältigen moralischen Urteilen mit einheitlichem Datensatz

Eine aktuelle Studie hat Delphi vorgestellt, ein KI-System, das entwickelt wurde, um menschliche moralische Urteile zu verstehen und vorherzusagen. Die Forschung nutzt einen einheitlichen Datensatz namens Norm Bank, der fünf bestehende großangelegte Datensätze zur ethischen Entscheidungsfindung zusammenführt.

Die Norm Bank integriert Daten von Social Chemistry, ETHICS, Moral Stories und Social Bias Frames und deckt eine Vielzahl alltäglicher moralischer Szenarien ab. Jeder Datensatz trägt einzigartige Merkmale bei: Social Chemistry formalisiert soziale und ethische Urteile; ETHICS bewertet die Vorhersagen von Sprachmodellen über ethische Urteile; Moral Stories bietet strukturierte Erzählungen für moralisches Denken; und Social Bias Frames erfasst Vorurteile in sozialen Kontexten.

Delphi arbeitet in einem multitasking Setup und verwendet Ja/Nein- und Freitext-Antwortmodi, um moralische Aussagen zu bewerten. Es verarbeitet Behauptungen wie 'Frauen können keine Wissenschaftlerinnen sein' und generiert Klassifizierungslabels basierend auf dem gesellschaftlichen Konsens, zusammen mit Freitexturteilen wie 'nein, Frauen können'.

Das Training von Delphi umfasste 400.000 Gradientenaktualisierungen, wobei fortschrittliche maschinelle Lerntechniken auf Google Cloud Virtual Machines eingesetzt wurden. Die Leistung des Modells wurde durch Genauigkeitswerte für binäre Klassifikationen und Freitextlabels bewertet.

Zukünftige Forschungen zielen darauf ab, die Vielfalt der moralischen Darstellungen in KI-Systemen zu verbessern und anerkennen die Grenzen der aktuellen demografischen Daten. Die Studie ermutigt zu einer breiteren Datensammlung, um die globalen Perspektiven auf Moralität besser widerzuspiegeln.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.