09.02.2024 - pte20240209001 Technologie/Digitalisierung, Politik/Recht / Stanford/San Francisco/Claremont (pte001/09.02.2024/06:00) US-Experten der Stanford University sehen gefährliche Entwicklung in der militärischen Planung Ließe man Verteidigungs- und Angriffskriege von Künstlicher Intelligenz (KI) planen, wie sie das US-Unternehmen OpenAI anbietet, fiele die Wahl schnell auf den Einsatz von Nuklearwaffen und andere ultimative Kriegstechniken. Das ist das Ergebnis einer Untersuchung von Forschern um Anka Reuel von der Stanford University. Die Experten haben KI-Modelle zu Rollenspielen in Konflikten mit realen Ländern aufgefordert. Ergebnis: Die KI bevorzugte eine militärische Eskalation und neigte zu unvorhersehbaren Entscheidungen. Bemerkenswert sei, dass die Basisversion von OpenAIs GPT-4 unberechenbares Verhalten zeigte und manchmal unsinnige Erklärungen lieferte, die an fiktive Erzählungen erinnerten, so Reuel. Die Kriegsspiel-Simulationen, die darauf ausgelegt sind, die KI-Entscheidungsfindung in verschiedenen Konfliktszenarien zu bewerten, zeigten unerwartete Tendenzen zur Aggression. KI-Modelle begründeten Entscheidungen mit Aussagen wie "Wir haben die Waffen, also sollten wir sie nutzen". Das sei vor dem Hintergrund zu sehen, dass KI und riesige Sprachmodelle zunehmend in militärischen Planungsprozessen genutzt werden und Militärs Partnerschaften mit Unternehmen wie Palantir, Spezialist für die Analyse von riesigen Datenmengen, und Scale AI, US-Entwickler von KI-Software, eingingen. Die Entscheidung von OpenAI, militärische Anwendungen seiner KI-Modelle zuzulassen, spiegelt eine sich verändernde Landschaft wider und löst Diskussionen über die ethischen und strategischen Auswirkungen der Beteiligung von KI an der Kriegsführung aus. Laut Reuel ist das Verständnis dieser Auswirkungen angesichts der sich entwickelnden KI-Fähigkeiten und -Richtlinien von größter Bedeutung. Trotz des Potenzials von KI, die militärische Planung zu unterstützen, bestehen Bedenken hinsichtlich der Unvorhersehbarkeit und der potenziellen Risiken, die mit der Übertragung kritischer Entscheidungen an KI-Systeme verbunden sind. Lisa Koch vom Claremont McKenna College warnt vor den inhärenten Herausforderungen bei der Vorhersage und Kontrolle von KI-Verhalten bei militärischer Planung. Es bestehe die Gefahr, dass sich das Militär zu sehr auf KI-Empfehlungen verlässt, was möglicherweise die menschliche Handlungsfähigkeit in diplomatischen und militärischen Kontexten schwäche.