OpenAI: ChatGPT-Nutzung durch Militär nicht mehr ausgeschlossen
Bisher hatte OpenAI die Verwendung seiner Sprachmodelle für "Militär und Kriegsführung" explizit untersagt. Das ist nun nicht mehr der Fall.

OpenAI hat das bisherige Verbot, seine Sprachmodelle für militärische Zwecke einzusetzen, offenbar unangekündigt aufgehoben. In einer früheren Version der Nutzungsbedingungen des Unternehmens hieß es noch, "Aktivitäten, die ein hohes Risiko für körperliche Schäden bergen", seien verboten. Konkret benannt wurden damals auch die Entwicklung von Waffen sowie "Militär und Kriegsführung".
In der aktuellen und zuletzt am 10. Januar 2024 aktualisierten Version von OpenAIs Nutzungsbedingungen heißt es zwar weiterhin, man dürfe die Dienste des Unternehmens nicht einsetzen, "um sich selbst oder anderen zu schaden", und auch die Entwicklung von Waffen ist darin weiterhin untersagt. Die Verwendung für militärische und kriegerische Zwecke wird hingegen nicht mehr explizit ausgeschlossen.
"Füge anderen keinen Schaden zu"
Diese Änderung ist Teil einer umfangreichen Überarbeitung der Nutzungsbedingungen, durch die das Dokument "klarer" und "lesbarer" werden sollte, heißt es bei The Intercept. OpenAI-Sprecher Niko Felix habe erklärt, ein Grundsatz wie "Füge anderen keinen Schaden zu" sei weit gefasst, aber leicht zu verstehen und in zahlreichen Kontexten relevant.
"Jegliche Nutzung unserer Technologie, auch durch das Militär, um Waffen zu entwickeln oder zu verwenden, andere zu verletzen oder Eigentum zu zerstören oder sich an nicht genehmigten Aktivitäten zu beteiligen, die die Sicherheit eines Dienstes oder Systems verletzen, ist nicht erlaubt", so Felix. Ein generelles Verbot für die militärische Nutzung bestätigte er aber wohl ebenfalls nicht.
Sarah Myers West, Geschäftsführerin des AI Now Institute, betonte gegenüber The Intercept, es sei angesichts des Einsatzes von KI-Systemen bei der Tötung von Zivilisten im Gazastreifen ein bemerkenswerter Moment, um das Verbot der Verwendung von KI-Tools wie ChatGPT für Militär und Kriegsführung aus den OpenAI-Richtlinien zu streichen. Die Ausdrucksweise in dem Dokument sei vage und werfe Fragen darüber auf, wie OpenAI die Einhaltung durchsetzen wolle.
Militär kann ChatGPT auch für harmlose Aufgaben nutzen
Auch wenn militärische Einrichtungen OpenAIs Sprachmodelle wohl kaum verwenden dürften, um damit direkt Menschen zu töten oder gezielt zu schädigen, gibt es selbst beim Militär durchaus einige Aufgaben, bei denen Tools wie ChatGPT durchaus eine Hilfe sein können. Der Chatbot könnte beispielsweise für die Entwicklung von Softwaretools, das Verfassen von E-Mails oder andere Bürotätigkeiten eingesetzt werden.
"Selbst wenn OpenAI-Tools von Teilen der Streitkräfte für Zwecke eingesetzt würden, die nicht direkt gewalttätig sind, würden sie dennoch eine Institution unterstützen, deren Hauptzweck die Tötung von Menschen ist", heißt es bei The Intercept. Es gebe bereits ChatGPT-betriebene Bots, die die Verwendung der Technologie durch US-Militärpersonal zum Zwecke einer beschleunigten Bearbeitung von Papierkram nahelegten.
Und auch die National Geospatial-Intelligence Agency (NGA), die direkt an US-Kampfhandlungen beteiligt sei, habe bereits offen über den Einsatz von ChatGPT zur Unterstützung ihrer menschlichen Analysten spekuliert. Das Interesse militärischer Einrichtungen, KI-Tools wie jene von OpenAI zu nutzen, ist also offenkundig vorhanden.