OpenAI und Anthropic willigen in Sicherheitstests für ihre KI ein

Bangalore (Reuters) – Vor dem Hintergrund wachsenden Regulierungsdrucks haben die Unternehmen OpenAI und Anthropic einer staatlichen Überprüfung ihrer Künstlichen Intelligenzen (KI) zugestimmt.

Die beiden Firmen hätten entsprechende Verträge unterschrieben, teilte das vor etwa einem Jahr ins Leben gerufene US-Institut für die Sicherheit von KI am Donnerstag mit. Künftig erhalte die Behörde Zugriff auf sämtliche neuen KI-Versionen, sowohl vor als auch nach der Veröffentlichung. Die Vereinbarungen ermöglichten außerdem gemeinsame Forschung zur Bewertung der Fähigkeiten der KI-Modelle und der damit verbundenen Risiken.

“Diese Verträge sind erst der Anfang, aber sie sind ein wichtiger Meilenstein auf dem Weg zu einem verantwortungsvollen Umgang mit der Zukunft von KI”, sagte Elizabeth Kelly, die Chefin des AI Safety Institute. Anthropic-Mitgründer Jack Clark betonte die Bedeutung von Sicherheit und Vertrauenswürdigkeit für die Akzeptanz von KI. “Durch unsere Zusammenarbeit können wir die umfassende Expertise des Instituts nutzen, um unsere Modelle vor einem breiten Einsatz rigoros zu testen.” Jason Kwon, der bei OpenAI die Firmenstrategie verantwortet, wertete die Vereinbarungen als Fundament, auf dem der Rest der Welt aufbauen könne.

In Europa wurde mit dem “AI Act” bereits vor Monaten ein Gesetzespaket zur Regulierung von KI verabschiedet. Die US-Behörden arbeiten dagegen bislang auf Grundlage von Dekreten des US-Präsidenten Joe Biden. In Kalifornien, der Heimat zahlreicher KI-Entwickler, steht ein erstes KI-Gesetz kurz vor der Abstimmung.

(Bericht von Harshita Mary Varghese; geschrieben von Hakan Ersen, redigiert von Ralf Banser. Bei Rückfragen wenden Sie sich bitte an unsere Redaktion unter berlin.newsroom@thomsonreuters.com (für Politik und Konjunktur) oder frankfurt.newsroom@thomsonreuters.com (für Unternehmen und Märkte).)

tagreuters.com2024binary_LYNXMPEK7S0M7-VIEWIMAGE

Close Bitnami banner
Bitnami