Nr. 12/2018

Periodischer Beitrag

Gesellschaft für Sicherheitspolitik e.V.

 

Dürfen Roboter Menschen töten?

8. Schaumburger Plattform thematisiert „Sicherheit und Künstliche Intelligenz“

 
v.l. Staatssekretär Stefan Muhle, Oberst a. D. Klaus Suchland, Prof. Dr. Dieter Hutter (DFKI), Dr. Wieland Kastning, Cornelius Büthe (Student Uni Bielefeld), Ulrike Merten (Präsidentin der GSP), Hendrik Tesche (CEO IMS), Generalleutnant a.D. Kersten Lahl – Foto: GSP

Der Missbrauch der Künstlichen Intelligenz (KI) kann potentiell katastrophale Konsequenzen haben. Diese Aussage war eine der Thesen, während der 8. Schaumburger Plattform der Sektion Minden am 10. November in Bückeburg. Hier werden außerhalb der Zentren politischer Entscheidungsprozesse Informationsangebote für alle Bürger gemacht. Sie sollen Interesse und Aufmerksamkeit wecken. Fragen zur Sicherheit sind heute komplex, häufig schwer verständlich und miteinander eng vernetzt sind. Das Phänomen KI hat in den Medien Hochkonjunktur. Dies war der Grund, weshalb die Sektion in Fortführung des Vortrags der Sektion Berlin (ES & T Nr. 10) das Thema mit weiteren Persönlichkeiten aus Politik, Wissenschaft, Kirche und Militär vertiefte.

Eröffnet wurde es mit dem Sachstand der Digitalisierung in Niedersachen durch Staatssekretär Stefan Muhle, Hannover. Er bemühte sich, die Sorge der Menschen, ihren Job zu verlieren, zu zerstreuen. Er stellte nicht in Abrede, dass die Auswirkungen der KI für Wirtschaft und Arbeitsmarkt sozialethisch brisant sind. Viele kognitiv und kreativ anspruchsvolle Tätigkeiten, die bisher Menschen vorbehalten waren, werden von KI übernommen werden, Menschen mit mittlerer und geringerer Qualifikation geraten unter Druck. Aufgabe für Politik und Wirtschaft ist es, hier nachhaltige und überzeugende Alternativen zu schaffen. Die Digitalisierung wird dank der Zunahme an Datenmengen und Speicherkapazität die KI zur Schlüsseltechnologie der Zukunft erheben. Diese digitale Revolution setzt neue Maßstäbe und zwingt zu ethischen Bewertungen und Grenzziehungen auf Grundlage sachlicher Information und kritischer Fragestellungen.

Verbindliche Definition von KI fehlt
Hier leitete Dieter Hutter, Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) Bremen, anhand der Entwicklung von den 60er Jahren bis heute die Inhalte ab. Schwerpunkt war dabei das Maschinelle Lernen (Deep Learning) mit Hilfe künstlicher neuronaler Netze, umgesetzt durch die steigende Verfügbarkeit an großen Datenmengen als Trainingsdaten, durch die enorme Zunahme an Rechnerkapazität und durch bessere statistische Verfahren. In einer eindrucksvollen Präsentation gelang es ihm, die schwierige Materie einfach darzustellen ohne sie zu vereinfachen.

Sicherheit der Umwelt vor Fehlfunktionen (z.B. autonomes Fahren) und Sicherheit des Programms vor Angreifern (z.B. Hackerangriffe) sind unerlässliche Voraussetzung für die Entwicklung von KI. Ausführungen zur Unterscheidung von schwacher und starker KI folgten Erstere dient der Lösung von Problemen, die intelligentes Verhalten erfordern, letzteres der Entwicklung von Maschinen, die so intelligent sind, dass es keinen prinzipiellen Unterschied mehr zwischen Maschine und Menschen geben wird. So unterschied er zwischen der Software des (schwachen) traditionellen Typs, dessen Algorithmen bekannt sind, und der selbstlernender Systeme, die auf Grundlage der Ausgangsalgorithmen eigene entwickeln und sich damit fortlaufend verbessern. Solche lernfähigen Systeme leisten Erstaunliches und können immer mehr Blackboxes ähneln, wo man nicht mehr hinterher weiß, wie sie rechnen. Allerdings lautet derzeit sein Fazit: Die Möglichkeiten der KI werden in der Öffentlichkeit überschätzt, schwacher KI wird oft zu viel rationale Intelligenz unterstellt, starke KI ist nicht anwendungsreif.

KI erfordert Ethik und Moral
Die Diskussion leitete über zu Ausführungen von Wieland Kastning, Pfarrer der Schaumburg-Lippischen Landeskirche. Maschinen können keine ethischen Entscheidungen treffen, das würde Bewusstsein mit nötiger Selbstreflexion voraussetzen. Eine Maschine spiegelt nur die moralischen Auffassungen des Bedieners wider. Es muss eine Art „Magna Charta“ geschaffen werden, die ethische Regeln bei der Herstellung und dem Einsatz von Robotern festlegt. Versuche ein Abkommen oder eine Konvention völkerrechtlich verbindlich zu beschließen, gibt es. Die Supermächte sehen keinen Bedarf und keine Ergänzung des Völkerrechts.

Ängste vor Risiken und Kontrollverlust könnten sich im konkurrierenden Wettlauf um die effektivste Technologie bis zum Exzess steigern. Sinnfällig wird dies in der Herstellung von autonomen Waffensystemen, die in der Lage sind, Menschen ohne jede Zustimmung durch einen anderen zu töten. Deshalb gilt vor dem Hintergrund der Sorge um den Kontrollverlust jede Bemühung zu unterstützen, die sich um eine ethisch begründete Orientierung – weltweit gültig – bemüht.

Es geht also primär darum, welche Sicherungssysteme bei Zukunftstechnologien eingebaut werden, denn Fortschritt ist nicht nur eine Frage der technischen Machbarkeit, sondern gleichermaßen eine durch ethische Grenzen definierte moralische Kategorie. Die eigentliche Gefahr in der Nutzung von KI liegt in der Schnittstelle zwischen Staat und Bürger, zwischen Datenschutz und Datengebrauch.

KI und Kriegsführung 4.0
Welche Herausforderungen ergeben sich für Sicherheit und Verteidigung? In seiner Bewertung wies Kersten Lahl auf den Paradigmenwechsel in der Kriegsführung hin, nämlich die Umbrüche durch den Einsatz von Schießpulver (1.0), Telegraphie und Eisenbahn (2.0), Nuklearbombe (3.0) und KI und Militär, quasi Kriegsführung 4.0. Vorteile der KI für die Operationsführung ist die Digitalisierung auf dem Gefechtsfeld, die Verluste und Belastungen des einzelnen Soldaten reduziert, Waffen effizienter einzusetzen verhilft, Entscheidungen gründlicher und verzugsloser vorbereitet.

KI hat eine kritische Schwelle erreicht, die zwischen schwacher und starker (z.B. automatische und autonome Waffensysteme) verschwimmt. Die führenden Militärnationen arbeiten an der Systemfortentwicklung, insbesondere in der Roboter- und Drohnentechnik. Man prognostiziert, dass KI in der Operationsführung wesentlich genutzt und angewendet wird. Wir stehen damit vor drei sicherheitspolitischen Dilemmata: Das „Sicherheitsdilemma“ (KI und Wettrüsten), das „Wirkungsdilemma“ (hochintensives Gefecht versus Stabilisierungsoperationen) und das „Verantwortungsdilemma“ (Völkerrecht, Moral und „rote“ Linien).

Es ist unklar, wer die Verantwortung trägt, wenn autonome Waffen Ziele unangemessen und illegal bekämpfen. Mit Abtreten der Verfügungsgewalt an Algorithmen wird eine moralische Grenze überschritten, die keine Rückkehr erlaubt. Die Frage ist also nicht, ob, sondern wie KI genutzt wird. Die Weichen für Autonomie in Waffensystemen werden heute gestellt. Die Bedeutung von KI zu leugnen oder ihr mit Gleichgültigkeit zu begegnen, wird uns letztlich Sicherheit und Freiheit kosten. Ob die KI Fluch oder Segen bringt und damit die Büchse der Pandora weiter öffnet oder schließt, hängt ausschließlich von uns ab.

In eigener redaktioneller Verantwortung

Klaus Suchland
SL Minden