OpenAI überarbeitet Richtlinie zur Nutzung für militärische Zwecke
21 Januar 2024
OpenAI hat vor kurzem seine Nutzungsrichtlinien geändert und das Verbot der Nutzung seiner Technologie für „militärische und kriegerische“ Zweckeausdrücklich aufgehoben. Diese Änderung wird genau beobachtet, insbesondere angesichts des wachsenden Interesses von Militärbehörden auf der ganzen Welt an der Nutzung von künstlicher Intelligenz (KI). Die tatsächlichen Auswirkungen dieser Änderung müssen jedoch noch bewertet werden.
Die OpenAI-Nutzungsrichtlinie
In der Vergangenheit verbot die Nutzungsrichtlinie von OpenAI ausdrücklich die Verwendung ihrer Sprachmodelle für Zwecke, die Schaden anrichten oder zur Entwicklung von Waffen dienen könnten. Die ausdrückliche Erwähnung von ‚Militär und Krieg‘ wurde jedoch aus der Liste der Verbote entfernt. Dies deutet darauf hin, dass OpenAI nun mit Regierungsbehörden wie dem Verteidigungsministerium zusammenarbeiten könnte, die externen Unternehmen in der Regel lukrative Angebote unterbreiten.
Interesse von Militärbehörden an KI
Das Interesse von Militärbehörden ankünstlicher Intelligenz nimmt zu und die Änderung der Nutzungspolitik von OpenAI scheint dies widerzuspiegeln. Es ist jedoch wichtig zu betonen, dass OpenAI derzeit über kein Produkt verfügt, das direkt körperlichen Schaden anrichten oder jemanden töten könnte. Seine Technologie könnte für Zwecke wie das Schreiben von Code und die Bearbeitung von Lieferaufträgen für Objekte verwendet werden, die für Kriegszwecke eingesetzt werden könnten.
Sarah Myers West, geschäftsführende Direktorin des AI Now Institute, merkte an, dass die Streichung der Worte „Militär und Krieg“ aus der OpenAI-Nutzungsrichtlinie angesichts des Einsatzes von Systemen der künstlichen Intelligenz bei der Tötung von Zivilisten in Gaza ein bedeutender Moment ist. Diese Änderung könnte Bedenken hinsichtlich der Beteiligung von OpenAI an Projekten wecken, die Schaden anrichten oder Menschenrechte verletzen könnten.
Die Beweggründe von OpenAI
Auf die Frage nach der Änderung der Nutzungsrichtlinien erklärte der Sprecher von OpenAI, Niko Felix, dass das Unternehmen universelle Prinzipien schaffen will, die leicht zu merken und anzuwenden sind, insbesondere in Anbetracht der breiten Nutzung seiner Technologien durch normale Benutzer, die auch generative Sprachmodelle (GPT) erstellen können.
Felix betonte den allgemeinen Grundsatz „Anderen keinen Schaden zufügen“ als ein weit gefasstes, aber leicht verständliches Konzept, das in vielen Kontexten relevant ist. Er wies auch darauf hin, dass OpenAI ausdrücklich Waffen und die Verletzung anderer als eindeutige Beispiele dafür nennt, was verboten ist. Der Sprecher stellte jedoch nicht klar, ob das Verbot der Nutzung ihrer Technologie zur ‚Schädigung‘ anderer alle Arten der militärischen Nutzung außerhalb der Waffenentwicklung umfasst.