KI

Wird künstliche Intelligenz zur tödlichen Waffe?

Laut einer Studie der NGO Pax sind viele große Technologieunternehmen an der Entwicklung von KI und autonomen Systemen beteiligt, die im Krieg benutzt werden können. Darunter auch große Namen wie Amazon und Microsoft.

Amazon Microsoft Künstliche Intelligenz Forschung & Entwicklung

Unternehmen wie Amazon und Microsoft entwickeln gefährliche autonome Systeme, die als Bestandteil tödlicher Waffen genutzt werden können. Das ergab eine in dieser Woche veröffentlichte Studie der niederländischen Nichtregierungsorganisation (NGO) Pax. Pax befragte die 50 wichtigsten Technologieentwickler über ihre Haltung zu autonomen Waffensystemen.

Die NGO stufte die Unternehmen anhand von drei Kriterien ein: Entwickeln sie Technologie, die zum Bau von "Killer-Robotern" genutzt werden könnte? Arbeiten sie an militärischen Projekten mit, bei denen Künstliche Intelligenz zum Einsatz kommt? Haben sie sich verpflichtet, künftig nicht mehr an solchen Projekten mitzuarbeiten?

Der Studie zufolge handeln 21 Unternehmen "stark gefährdend". Dazu zählen die bekannten Technologieentwickler Microsoft und Amazon, die derzeit um einen Vertrag mit dem US-Verteidigungsministerium zur Datenspeicherung konkurrieren. "Warum bestreiten Unternehmen wie Microsoft und Amazon nicht, dass sie derzeit diese höchst umstrittenen Waffen entwickeln, die ohne direkte menschliche Einwirkung entscheiden könnten, Menschen zu töten?", sagte Studienleiter Frank Slijper.

22 Unternehmen wurden von Pax als "mäßig gefährdend" bewertet. Dazu gehört der japanische Hersteller Softbank, der für seinen humanoiden Roboter namens Pepper bekannt ist. Sieben Unternehmen, darunter der Internetriese Google, wurden für ihren Umgang mit Künstlicher Intelligenz in Bezug auf Waffensysteme gelobt. Ein österreichisches Unternehmen war nicht Untersuchungsgegenstand.

Im vergangenen Jahr hatte Google sich unter anderem aus einem Bieterrennen um einen Cloud-Computing-Auftrag des US-Verteidigungsministeriums zurückgezogen und auf ethische Bedenken verwiesen.

Der Einsatz künstlicher Intelligenz im Militär, etwa um Waffensystemen die automatische Auswahl ihres Ziels zu ermöglichen, wird immer wieder kontrovers diskutiert. Bei einem Kongress der UNO-Waffenkonvention am Mittwoch in Genf debattierten Regierungsexperten über politische Maßnahmen im Bezug auf autonome Waffen.

Im vergangenen April hatte die Europäische Kommission einen Katalog mit Ethik-Regeln für den Umgang mit Künstlicher Intelligenz veröffentlicht. Dazu zählt unter anderem die Forderung, dass der Mensch stets die Überhand über Waffensysteme bewahren sollte. (apa/red)

Wissen Sie schon von den Zukunftsplänen der Schweizer Post? Mehr dazu lesen Sie hier.

Erhalten Sie jeden Dienstag und Donnerstag die News aus der Welt der Logistik und Digitalisierung – folgen Sie dispo auch auf Twitter!