Meta stellt Frontier AI Framework vor, um Risiken durch fortschrittliche KI-Systeme zu mindern

Meta, die Muttergesellschaft von Facebook, hat ein neues Politik-Framework vorgestellt, das darauf abzielt, die Risiken zu managen, die mit fortschrittlichen künstlichen Intelligenz (KI)-Systemen verbunden sind. Das Frontier AI Framework kategorisiert KI-Systeme in zwei Risikostufen: „Hohes Risiko“ und „Kritisches Risiko“. Systeme mit hohem Risiko, zu denen KI-Modelle gehören, die Cyberangriffe erleichtern oder zu chemischen und biologischen Bedrohungen beitragen könnten, werden vor der Veröffentlichung der Öffentlichkeit einen eingeschränkten Zugang und Sicherheitsmaßnahmen unterliegen. Systeme mit kritischem Risiko, die bei Missbrauch zu verheerenden und unkontrollierbaren Folgen führen könnten, werden in der Entwicklung gestoppt, bis ausreichende Sicherheitsvorkehrungen getroffen wurden.

Metas Ansatz zur Bewertung von KI-Risiken basiert auf Expertenbewertungen von internen und externen Forschern, anstatt auf standardisierten empirischen Tests. Das Unternehmen räumt ein, dass es im Bereich der KI-Sicherheit an „ausreichend robusten“ wissenschaftlichen Methoden mangelt, um präzise Risikomaße zu etablieren.

Die Veröffentlichung des Frontier AI Frameworks scheint ein strategischer Schritt zu sein, der auf die wachsenden Bedenken hinsichtlich Metas offener KI-Entwicklungsphilosophie reagiert. Während Meta einen offeneren Ansatz für die KI-Entwicklung verfolgt, wurde es auch für das Fehlen von starken Sicherheitsvorkehrungen kritisiert, was zu Bedenken hinsichtlich eines möglichen Missbrauchs seiner KI-Modelle geführt hat.

Metas Politikdokument betont die Bedeutung der Balance zwischen Innovation und Sicherheit. Das Unternehmen erklärt: „Wir glauben, dass es möglich ist, diese Technologie der Gesellschaft so zu liefern, dass die Vorteile dieser Technologie für die Gesellschaft erhalten bleiben und gleichzeitig ein angemessenes Risikograd gewährleistet ist, indem wir sowohl die Vorteile als auch die Risiken bei Entscheidungen über die Entwicklung und Bereitstellung fortschrittlicher KI berücksichtigen.“

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.