Iran, USA und die Zukunft der Kriegsführung (mit Verena Jackson)

Shownotes

Der Krieg im Nahen Osten ist der erste Großkonflikt, in dem KI-gestützte Gefechtsführung, autonome Drohnen und klassische Abwehrsysteme aufeinandertreffen. Das Ergebnis sind neue Konfliktlinien, eine extreme Beschleunigung des Kampfgeschehens und komplexe ethische sowie rechtliche Fragen.

Wie viel menschliche Kontrolle bleibt, wenn eine Software in Sekundenschnelle Ziele anvisieren und treffen kann? Lässt sich der militärische Einsatz von KI überhaupt regulieren? Und welche strategischen Lehren kann die Bundeswehr aus dem Iran-Krieg ziehen?

Über diese und weitere Fragen sprechen Martin Bialecki und Katharina Peetz in dieser Folge von „Pod und die Welt“ mit Verena Jackson, Senior Researcher am Center for Intelligence and Security Studies der Universität der Bundeswehr München.

Gast: Verena Jackson, Senior Researcher am Center for Intelligence and Security Studies der Universität der Bundeswehr München, Transatlantic Technology Forum Fellow der Stanford University und Gründerin der Kanzlei Jackson Legal.

Die IP zum Lesen? Gibt es natürlich auch! Ob zur Probe, im Jahresabo oder als Geschenk: Das passende Angebot finden Sie hier.

Folgen Sie der IP und den Hosts auf Social Media:

Feedback: Wir freuen uns über Ihre konstruktive Kritik, Themenvorschläge oder Fragen. Schreiben Sie uns an ip@dgap.org.

Transkript anzeigen

00:00:00: Die Bundeswehr ist gerade in einem Moment, wo sie Fehler machen muss oder darf.

00:00:05: Weil sie in einer Phase ist, in der sich neu auf eine geopolitische aber auch technologische Änderung einstellen muss.

00:00:12: Da kann man nicht erwarten dass wir mit der gleichen Agilität oder dem gleichen Selbstverständnis wie eine Militärnation wie die USA agieren.

00:00:27: Dieser Krieg ist der erste reale Großkonflikt, in dem KI-gestützte Kriegsführung autonome Drohnen und klassische Abwehrsysteme aufeinander prallen.

00:00:35: Und darum soll es heute gehen um das Zusammenspiel von neuer Technologie und Krieg.

00:00:40: Wir werden aber über Begriffe sprechen müssen die sehr erklärungsbedürftig sind zum Beispiel dass Projekt Maven.

00:00:46: Außerdem geht es über das Phänomen billiger Drohnen gegen teure Raketen, über KI und Algorithmen und viele andere Dinge um völlig neue Konfliktdienen und eine ganz sicher extreme Beschleunigung des Kampfgeschehens.

00:00:59: Für viele, die sich damit beschäftigen wie Kriege in Zukunft geführt werden ist dieser Krieg schon jetzt ein sehr ergiebiges Forschungsfeld.

00:01:05: Das Bild vom Krieg indem Panzer aufeinander losrollen das es zumindest nicht mehr vollständig und wird immer mehr von anderen Technologien verdrängt oder

00:01:13: ergänzt.".

00:01:28: Senior Researcher am Center for Intelligence and Security Studies der Universität der Bundeswehr München.

00:01:34: Sie ist Transatlantic Technology Forum, Falo der Stanford University und Gründerin der Kanzlei Jackson Legal.

00:01:40: Herzlich willkommen bei POT und Die Welt!

00:01:42: Herzlichen Dank für die Einladung.

00:01:48: Liebe Frau Jackson, wir haben es einiges gesagt – der Iran Krieg wird bereits jetzt als der erste KI-Krieg bezeichnet?

00:01:54: Stimmt das so?

00:01:55: Ja, das ist natürlich ein bisschen ein Begriff der sich einreitet in diesen Hype.

00:02:00: Der doch zur Zeit sich dreht um KI.

00:02:03: Man kann sagen ja es gibt Neuerungen in diesem Krieg.

00:02:06: die sind nicht unbedingt immer nur der KI geschuldet oder dem was man als KI verkauft sondern einfach der Technologie an sich wie Technologie in diesem kriege eben auch eingesetzt wird.

00:02:18: da möchte ich gleich mit diesem Jahr vielleicht Mythos aufräumen, dass ja überall wo KI draufsteht auch KI drin ist.

00:02:25: Da muss man natürlich gleich so ein bisschen die Scene setten.

00:02:27: was wir heute in diesen ganzen Systemen zu wie vielleicht jetzt noch kommen werden im Gespräch, den Beispiel sehen das es sehr viel einfach auch Algorithmus.

00:02:37: Das ist nicht diese intelligente KI die wir alle vor Augen haben wenn wir zum Beispiel an Waffensysteme denken im Krieg an dieses Terminator-Bild, das wir ja alle kennen.

00:02:47: Was auch sehr viel zur Angstverbreitung benutzt wird.

00:02:50: Sondern dass ist Maschine des Lernen, dass es Mustererkennung, das ist Computer Vision und Datenfusionen.

00:02:57: Und es ist nicht immer dieses KI Phänomen wie man es darstellt.

00:03:01: Jetzt beschäftigen Sie sich als Forscherin ja auch schon lange mit diesem Themenfeld.

00:03:06: Wenn sie sich den Iran-Krieg anschauen, lernen Sie da noch was Neues?

00:03:09: Ja auf jeden Fall!

00:03:10: Ich denke da können wir alle noch etwas lernen.

00:03:12: Auch die sage ich mal ganz alten Hasen, die dann dabei sind.

00:03:15: Es ist immer wieder spannend zu sehen wenn man das so sagen kann wie es um ein Krieg geht Wie sich neue Technologien wirklich im Feld verhalten.

00:03:24: Also natürlich so dass da sehr viel ...theorie ist bis jetzt.

00:03:27: Es wird natürlich sehr viel getestet, auch die Bundeswehr testet sehr viel... Auch die USA haben viel getested bevor sie zum Beispiel diese ja jetzt in aller Munde auch Lukastronen eingesetzt haben.

00:03:38: aber das jetzt zu sehen wie das wirklich auf den Gegner trifft und auf die Technologie des Gegners trifft Wie sich das alles verhält?

00:03:43: Wie man das dann auch am Ende vielleicht ja nicht nur strategisch-miterisch bewerten kann sondern auch juristisch einheben kann in einen Vakuum indem wir uns ja juristische etwas befinden.

00:03:53: Das ist sicherlich sehr sehr spannend.

00:03:54: Gott sei Lahn fahre noch Lukas Drohnen, was ist das?

00:03:58: Das ist sozusagen die man könnte in Anführungszeichen nachgemachte Schaltdrohne der Iraner.

00:04:05: Der Iraner ist ja eine Drohne, die schon sehr viele Jahre auf dem Markt ist natürlich weiterentwickelt verbessert auch heute mit KI-Features oder überhaupt technische Unterstützung.

00:04:15: Und die USA haben das sozusagen, ja, ein Anführungszeichen kopiert.

00:04:19: Haben das das Vorbild genommen und haben eine sehr günstige Drohne entwickelt?

00:04:22: Das ist die sogenannte Lukas-Drohne.

00:04:24: Da stinkt schon der Name drin Low Cost also das ist der Anfang dieses Akronyms, um die dreißig, fünfunddreißigtausend Dollar kosten soll.

00:04:31: Also sehr günster für das was die Drohnen auch kann!

00:04:34: Und das ist jetzt gefieldet in Iran.

00:04:37: Also das wird jetzt eingesetzt gegen... sozusagen die Mutter gegen den Disha-Hertdronen auch und gegen iranische Militärtechnologie.

00:04:45: Und das kann man so sagen, also wenn man das praktisch vergleicht mit dem, was in der Ukraine gerade passiert oder was passiert ist in den letzten Jahren doch noch eine Neuerung.

00:04:53: Also da muss man auch ein bisschen differenzieren zwischen der Ukraine als Kriegsschauplatz.

00:05:05: Wenn wir beim Thema Drohnen sind, vielleicht gehen wir da schon genauer drauf ein.

00:05:08: Sie haben das gerade erwähnt mit der iranischen Schaddrohne die im Vergleich also jetzt haben sie die Lokostrohne genannt aber an sich eben drohen deutlich günstiger sind als bisherige Patriot-Abfangraketen.

00:05:18: beispielsweise inwiefern ist hier wirklich die westliche Verteidigungsarchitektur schon weitergegangen und mit ihrer Logik doch auch teurer Präzisionssysteme noch zeitgemäß?

00:05:28: Da würde ich auch wieder differenzieren wollen zwischen, wenn Sie sagen westlicher Technologie oder dem westlichen Feld oder der westlichen Sphäre.

00:05:35: Da ist die USA und Europa kann man da nicht immer vergleichen.

00:05:39: Wenn wir uns ansehen was zum Beispiel jetzt mit uns auf Deutschland konzentrieren in den letzten Jahren es für Fortschritte gab einerseits in der Entwicklung durch viele, viele Start-ups aber auch die alten Player in der Rüstungsindustrie Und dann aber auch wie die Bundeswehr selber damit umgeht Wie sie testet?

00:05:54: Wie sie denn auch in die Beschaffung geht?

00:05:56: Da gab's ja vor ein paar Wochen dieses ja doch medial auch großaufbereitete Thema des Kaufes von Drohnen durch die Bundesregierung, von zwei Unternehmen stark und Helsing.

00:06:07: Und da muss man differenzieren was praktisch die Bundeswehr im Moment anschaftt und testet und das was die USA schon in den letzten Monate Jahre getestet haben und jetzt in den im Iran Krieg ins Feld bringen.

00:06:20: Die Bundeswehr, wer sich im Moment worauf sie sich konzentriert hat jetzt in diesem Beispiel was ich gerade brachte.

00:06:25: Das sind immer noch relativ teure Drohnen.

00:06:27: das sind auch Drohne die zum Beispiel nicht nur diese Kamikaze-Drohnen sind wenn man sich die vorstellt also dass man die los schickt und die Schlagen irgendwo ein haben praktisch dann ihr Wirkenmittel dort und sind zerstört kommen nicht zurück.

00:06:40: Da gibt es eben auch die, die dann trotzdem wieder zurückkommen.

00:06:43: Wenn ein Ziel nicht gefunden wird, wenn abgebrochen wird etc.

00:06:46: Die kann man mehrfach einsetzen.

00:06:47: Da ist natürlich der Preis auch gerechtfertigt und auch die Technik, die da drinsteckt.

00:06:51: Diese Lukas Drohnen sind ungefähr roundabout ja eigentlich ein Drittel des Preises von den Dronen, die jetzt in Deutschland beschafft werden sollen.

00:07:00: Da geht das um Masse!

00:07:01: Da geht es natürlich um sehr viel was ich praktisch in meinem Gegner entgegensetzen kann.

00:07:07: Da muss man differenzieren.

00:07:08: und noch ein ganz anderes Feld.

00:07:10: natürlich ist die Ukraine, die wir gesehen haben, die Drohne die da eingesetzt werden das sind natürlich vom Preis her nochmal eine ganz andere Kategorie deutlich günstiger viel mehr Masse.

00:07:19: also da reden wir um das zehnhundertfache in der Produktionskette und natürlich auch sind es sehr viele Drohnen wie wir sie so kennen diese Quadrocopter oder First Person View-Drohne wie man sie nennt.

00:07:31: Das is was anderes als eine Helsing oder Starkdrohne.

00:07:35: Ich würde bei der Ukraine gerne einhaken vor Jackson.

00:07:37: Die Ukraine hat ja sehr günstige Drohnen entwickelt, um mal so ein paar Zahlen zu nennen.

00:07:42: So eine Abfangdrohne kostet da nur ein bis viertausend Euro und ne Patriot im Vergleich das sind ja drei bis vier Millionen Euro pro Stück.

00:07:50: also das sind ganz andere Dimensionen.

00:07:52: jetzt hat die Ukrainer den USA angeboten zu helfen zu unterstützen in ihrer Angriege.

00:07:57: Die USA haben das abgelehnt.

00:07:59: ist das seitens der USA aus ihrer Sicht sowas wie Tja Stategische Blindheit oder Trotz?

00:08:05: Oder gibt es dafür sehr gute Gründe.

00:08:07: Ja, also was die USA im Moment manchmal ablehnt oder annimmt oder wie sie vorgeht, da tun sich sehr viele Fragenzeichen für alle Außenstehende auf und muss mal so zu nennen.

00:08:18: Es ist natürlich so... Die Praine ist auch ein anderes Gebiet wieder Iran.

00:08:23: Da kann man nicht alles, wie ich schon sagte übertragen.

00:08:25: Die USA werden sicherlich Vorteile davon ziehen wenn Sie auch die ukrainischen Ja, ich sag mal Erfahrungen annehmen.

00:08:33: Die ukrainische Hilfe nach dem wie sich das dann im Endeffekt gestaltet hätte weil die Ukraine natürlich da seit vielen Jahren wirklich Erfahrungen sammeln konnte nicht der Gegner Iran aber der Gegender Russland den natürlich auch wieder iranische Drohnen und Technik unter anderem eingesetzt hat Da sind erfahrungswerte da.

00:08:50: Das kann man ja allgemein auch so beschreiben eigentlich als Drohn-Testlabor sozusagen der letzten Jahre Werden alle von Profitieren, die diese Daten annehmen, die das als Erfahrungswerte wertschätzen und das auch umsetzen?

00:09:03: Ob das die USA sind oder Europa.

00:09:05: Das ist dann einerlei.

00:09:07: Und wenn wir so ein bisschen grundsätzlicher darauf schauen, wenn wir darüber sprechen wie viel günstiger Drohnen sind, wie viel einfacher es vielleicht auch ist damit sich zu verteidigen oder auch anzugreifen inwiefern verändert das generell das Verhältnis von Überlegenheit und Abwehr?

00:09:22: Also da muss man natürlich auch gucken, die Drohnen, die günstig sind.

00:09:25: Auch die in der Arkane in Masse hergestellt werden, sind zum Beispiel auch Interceptadrohnen.

00:09:29: Da geht es dann auch Drohne gegen DrohNE.

00:09:31: Das ist jetzt ein anderes Einsatzfeld wie wenn man z.B.

00:09:34: im Iran eine Stellung oder größere Ziele zerstören möchte.

00:09:39: Da braucht man natürlich Unterschiede.

00:09:40: deswegen auch kann man nicht sagen, wenn man nur billige kleine DrohNen hat in MasSE gewinnt man einen Krieg.

00:09:45: Man kann genauso gut nicht sagen Wenn wir das beste Equipment haben was total teuer ist und aber ganz Hightech und da auch wieder eben mit KI voll beladen gewinnen.

00:09:54: Es wird eine Mischung geben werden, es wird eine mischung aus beidem benötigt werden.

00:09:59: Und auch da wieder Deutschland muss sich klar machen natürlich haben wir hoch komplexe technologische Systeme die gerade in der mache sind mit tollen Hochglanz-Pospekten.

00:10:09: Wir brauchen aber nicht nur dies sondern auf lange Sicht gesehen wird das auch die Masse sein.

00:10:13: und gerade wenn wir uns zum Beispiel unsere Drohnen sichtungen hier ansehen Das ist ja wirklich noch kein Kriegsszenario, kein Konfliktszenario brauchen wir kleine Drohnen, die zum Beispiel die Drohne abfangen können.

00:10:23: Und da wird es eine Mischung geben!

00:10:25: Man kann schon sagen dass sich so allgemein gesagt diese ganze Entwicklung zu... kleinen, schnellen Drohnen, billigen Drohne aber auch diesen anderen System die sehr hoch gerüstet sind technologisch.

00:10:36: Es wird alles schneller.

00:10:37: also man sagt da so ein bisschen der Scale und Speed das sind so die beiden Begriffe die sich eigentlich komplett in der aktuellen Debatte durchziehen wie wir was wir konfrontiert werden und mit was wir gegenhalten müssen.

00:10:50: es wird alles Schneller.

00:10:51: einerseits natürlich die KI die wir eingangs angesprochen haben oder die unterstützungs ich sag jetzt mal die algorithmischen Unterstützungssysteme Erlauben es, viel schneller Entscheidungen zu treffen.

00:11:03: Viel mehr Ziele auch anzuvisieren und dann natürlich mit der Masse an die Drohnen, die ich vielleicht eben habe, so engagem also wirklich zu attackieren und auszuschalten.

00:11:15: im Falle Das geht sehr schnell und das wird auch in die

00:11:19: Masse gehen.

00:11:24: Scale and Speed.

00:11:26: Gutes Stichwort?

00:11:27: Die USA sollen ja Software, also gar nicht mit einer KI sondern eine Software namens Maven in nur vier Tagen über zwei tausend Ziele getroffen haben im Iran.

00:11:36: Das ist ja ein ziemlich wahnsinniges Tempo und das soll jetzt daran liegen dass diese Gefechtsfeld-Software einfach enorme Mengen an Aufklärungsdaten verarbeiten kann nämlich binnen Minuten.

00:11:47: wie auch.

00:11:47: dann sieht es ein?

00:11:48: Ist das ein militärischer Erfolg oder ist das irgendwie auch ein Wahnsignal für das Tempo mit dem Kriege geführt werden können?

00:11:55: Ich würde das als beides einordnen.

00:11:56: Es ist einerseits natürlich ein Erfolg, technologischer, strategischer und militärischer aber gleichzeitig auch ein Wahnsignal.

00:12:04: dieses Projekt MAVEN oder MAVEN Smart Systems MSS wie man das tituliert Das ist eine Neuerung die im Moment sehr populär dargestellt wird.

00:12:16: wir haben es gesehen für einen paar Tagen, ein paar Wochen auch durch Palantir selbst.

00:12:20: Palantiri ist ja das Unternehmen was maßgeblich daran beteiligt war an der Entwicklung und ich sage dabei maßgiblich weil es nicht ein palantier Produkt als solches.

00:12:28: da muss man bisschen weiter ausholen.

00:12:29: also Maven ist eigentlich ein Projekt gewesen des amerikanischen damals noch DODs die PubMed of Defense heute die PubMend Of War was eigentlich gedacht war vor ungefähr zehn Jahren zur Unterstützung bei Auswertung von Bildern, also bei Computer-Vision-Analysis sozusagen.

00:12:49: Das hat sich dann weiterentwickelt.

00:12:51: und heute wie Sie eben auch schon angesprochen haben, haben wir da ein Smart System was wirklich eine Plattform ist von verschiedenen Daten die es praktisch sich zieht, die es zusammenführt Die es dem Nutzer ermöglicht nicht an verschiedenen Bildschirmen wie das früher praktisch war im Prozess irgendwelche verschiedenen Systeme und Daten zusammenführen zu müssen um ein Lagebild zu bekommen, um auch dann später ins Targeting zu gehen.

00:13:16: Sondern das wird alles praktisch komprimiert in diesem System.

00:13:19: Das macht es unheimlich schnell weil wir hatten früher oder im klassischen sage ich mal Prozess da gibt es Personen die müssen wirklich sich... Papier angucken.

00:13:30: Die müssen sich absprechen mit anderen Personen, wie gerade die Umgebungen sind für ein Target, für einen Ziel.

00:13:38: Da werden verschiedene Nachrichten, diese Quellen fusioniert.

00:13:41: Das ist ein langer Prozess.

00:13:42: Das muss für jedes Ziel vollzogen werden.

00:13:45: Maven macht das jetzt praktisch alles innerhalb von Sekunden kann man sagen und aktuell.

00:13:51: Das heißt es ist wirklich... Innerhalb von Sekunden entschieden worden, okay ich bin der Operator.

00:13:56: Ich habe mein Lagebild.

00:13:57: kann ich das freigeben oder kann nicht frei geben?

00:14:01: Das beschleunigt und gleichzeitig folgt aus dieser Beschleunigung auch dass sich viel mehr Ziele anvisieren kann und treffen kann und die Auswahl steigt dadurch.

00:14:10: Das ist das eine!

00:14:12: Das ist natürlich militärisch auf der Hand liegend immer ein Vorteil.

00:14:17: Wenn ich schneller bin, wenn ich schnellere Entscheidungen treffen kann als in meinem Gegner und diese dann aber auch noch präzise sind das ist natürlich auch ganz wichtig.

00:14:25: da kommen wir aber fast dann auch schon wieder in die Nachteile

00:14:28: sozusagen.".

00:14:29: Und wenn Sie das so beschreiben wie schnell es beim Project Maiden funktioniert?

00:14:33: Und ja auch ein Großteil der Schritte eben automatisiert passiert wo genau liegt da die Grenze direktlich und die ethisch entscheidende Grenze und wie weit kann sie und wird die auch gewahrt?

00:14:43: Da scheinen sich so ein bisschen die Geister.

00:14:45: Man kennt ja wahrscheinlich, wenn man sich mit der Thematik allgemein etwas befasst auf dieses tolle System oder dieser tolle Terminus der Meaningful Human Control, der dann aufkam in den letzten Jahren?

00:14:57: Also dass ein Mensch immer noch im Loop sein muss!

00:15:00: Ein Mensch muss am Ende die Entscheidung treffen können... Gebe ich einen Ziel frei oder nicht?

00:15:05: Jetzt sehen Sie aber schon, wenn man das Meaningful nennt.

00:15:08: Das ist die Frage was ist denn Meaningful hier überhaupt?

00:15:11: Da gibt es verschiedene Ansätze, die differenzieren zwischen vor allen Dingen auch Nationen.

00:15:15: Die USA sind da ein bisschen großzügiger und ein bisschen weiter wie zum Beispiel wir Deutschen dass klassisch im Völkerrecht verstehen würden.

00:15:22: Aber es gibt keine Definition, die felsenfest für mich als Juristin oder für jeden anderen Juristen, der da sich mit beschäftigt sagt okay ich kann es kategorisieren.

00:15:34: Das ist noch in Ordnung unter internationalen Recht mit der meaningful human control.

00:15:39: und das nicht weil gerade wenn wir auf maven smart systems schauen ja es wird argumentiert der mensch am ende is dänige der die entscheidung trifft.

00:15:50: soll ein ziel angegriffen werden?

00:15:51: Oder nicht?

00:15:52: Gebe ich das frei?

00:15:53: Alles was davor?

00:15:54: aber Da ist die Frage überprüft, hat er die Möglichkeit das zu überprüfen?

00:15:59: Dass er überhaupt seine Entscheidung wirklich treffen kann.

00:16:02: Dass er die reflektieren kann und dass er sie überprüpen kann?

00:16:05: oder ist es nur so, dass er auf die Empfehlungen des Systems hört und sich darauf verlässt?

00:16:12: Das ist im Moment so, wenn man sagt Wenn das so der Fall ist, dass ich ein System habe – das war auch die Diskussion vor einiger Zeit mit diesem Lavender-System, den Israel angewandt wurde oder wo dies die Berichte gab, dass es Israel angewandt wurde.

00:16:26: Wo die freigebende Person wirklich nur zwanzig Sekunden gehabt haben soll oder sich zwanzich Sekunden Zeit genommen haben soll – die Empfehlung, die das System, die die KI in Anführungszeichen ihr gab, frei zu geben und dann wirklich ein Ziel ja zu

00:16:42: neutralisieren.".

00:16:43: Wenn das so ist kann man sagen, dass dieses Meaningful NUR nominal is'.

00:16:48: Da ist eine Formalier, das ist keine Minu-Full Human Control mehr.

00:16:52: Und da kommen wir in die Problematik mit dem Völkerrecht wie wir es jetzt

00:16:55: haben.".

00:16:56: Das frage ich mir nämlich gerade, hätt ich nur kurz in Nachfrage zu ob wir aus Ihrer Intensivnacht da einfach rechtlich nicht schnell genug hinterherkommen um das dann genauer zu definieren oder ob das eigentlich gar nicht möglich ist weil es viel zu komplex ist.

00:17:07: Also einerseits auf jeden Fall der Punkt, dass das Recht immer so etwas der Technologie hinterherhängt.

00:17:12: Das ist stehender Konsens, das ist nicht nur jetzt im militärischen Kontext, sondern auch in unseren Alltagstechnologischen Problemen wenn wir gerade auf Datenschutz etc.

00:17:21: schauen einen Fall.

00:17:22: Der nächste Punkt natürlich ist der Wille da!

00:17:24: dass man so etwas definieren will.

00:17:26: Wollen wir oder was heißt denn, wir sagen Wir?

00:17:29: Will die Staatengemeinschaft oder bestimmte Player der Staatengemeinschaft dieses Meaningful Human Control Element oder alle anderen Probleme, die sich auch noch richtig da anschließen wirklich definieren?

00:17:41: und wenn wir es definiert haben wollen wir uns binden wollen.

00:17:44: einzelne Staaten sagen wir haben das für uns definiert und alles was dieser Tradition nicht entspricht wird verboten für unseren Einsatz, unsere Innovation.

00:17:55: Andere Staaten würden sich nicht binden wollen.

00:17:57: Würden sich dem auch nicht unterwerfen

00:18:00: wollen.".

00:18:00: Dann ist es natürlich so klar, denklogisch die Staaten, die sich nicht binden, die sie sich nicht selbst sagen wir mal so regulieren haben militärisch strategisch ein Vorteil.

00:18:10: das ist ganz wertfrei.

00:18:11: wenn man das so sieht ist einfach Fakt.

00:18:13: Und da ist es so, wenn man da mal guckt was in den letzten Jahren alles passiert ist.

00:18:17: Gerade auf UN-Ebene in Genf seit mittlerweile zehn Jahren gibt es Bestrebungen dass wir autonome Systeme oder autonomen Waffensysteme dann muss man wirklich auch präzise sein juristisch mit der Thermologie verbieten wollen oder einschränken wollen.

00:18:32: und ich war da schon vor... Zweiundzwanzig vor dem Russland-Ukraine Krieg und habe da schon gesehen wie schwierig es war einfach verschiedene Player in Russland klar USA aber auch andere In ein Konsens zu bringen und alle unter einen Hut zu bringen, um zu sagen ja wir einigen uns auf etwas.

00:18:48: Wir möchten das beschränken und da gilt bei sowas zum Beispiel als Konsensprinzip und da sehe ich in naher Zukunft keine Lösung beziehungsweise keine Regelung die da groß etwas regulieren wird.

00:19:01: Das ist ja eigentlich ein sehr trauriger, schlimmer Befund oder das eine Regelung die dazu führen müsste dass man sich ein Völkerrecht hält oder da auch neue gemeinsame Regeln verabschieden.

00:19:13: Die einfach findet, dass es gar nicht irgendwie in Nahtzug und gefunden werden kann weil die militärischen Vorteile einfach überwiegen und weil Staaten sagen naja warum sollte ich mich den an philosophische Fragen sozusagen erst mal halten wenn ich doch auf dem Gefechtsfeld einfach sehr viel schneller Fakten schaffen kann?

00:19:29: also Eigentlich ein furchtbar trauriger Aussage, oder?

00:19:33: Ja.

00:19:33: Wenn man das so natürlich sieht, abstrakt gesehen ist es sicherlich durchaus beängstigend.

00:19:38: Oder jedenfalls kann man die Dinge hinterfragen.

00:19:41: Man muss aber sehen, dass Recht ja auch nie ... plötzlich da war.

00:19:45: Also gerade im Völkerrecht ist es ja nicht gekommen, es war Krieg und der Krieg war von Anfang an reguliert.

00:19:50: Das war auch ein Prozess.

00:19:51: Es gab immer die Prozesse, es gab neue geopolitische Lagen, es gibt neue kriegstechnische Innovationen und im Nachhinein hat man sich dann zusammengerauft und hat gesagt wir regulieren jetzt etwas weil wir sehen wie viel Leid eben auch bestimmte Technologien bringen können.

00:20:08: das Sehen wir seit Jahrhunderten, wir haben es natürlich im letzten Jahrhundert sehr schnell gesehen mit ganz eklatant nach dem zweiten Weltkrieg.

00:20:17: Dann kam das Gewaltverbot und das kriegsvollgerecht so wie wir es heute kennen.

00:20:20: Da könnte man jetzt sagen naja es muss immer erst mal was passieren vor der die Leute praktisch in die Pötte kommen sozusagen.

00:20:27: Da kann man sagen, wir können bei AI oder bei KI in der Kriegsführung da nicht drauf vertrauen und nicht darauf hoffen.

00:20:33: Weil die Auswirkungen von KI wie wir sie heute haben, nicht beschränkt sind auf militärische Systeme.

00:20:39: Das ist... Anders in der Technologie wie zum Beispiel an Panzer, bei denen wir im Ersten Weltkrieg hatten oder andere technologischen Neuerungen in der Vergangenheit.

00:20:48: Es geht viel weiter.

00:20:49: es passt in eine Bedrohungslage die wir heutzutage haben wo dann auch noch Cyber-Komponenten mit reinkommen.

00:20:55: dieses System ist natürlich anfällig für auch hybride Maßnahmen.

00:21:00: also da sind wir in einem sozusagen Konglomerat der Probleme Wenn man es so runterbrechen will und da ist eine jedenfalls Teilregulierung sektorial im Moment einfach die einzige Lösung, die in Aussicht steht.

00:21:12: Dass es zu einem Komplettverbot kommen wird oder einen großen Zusammenraufen der Staatengemeinschaft, einem Verbot – das wird nicht in Aussichten stehen!

00:21:21: Jetzt beschreiben Sie das, wie KI natürlich auch alle anderen Lebensbereiche sehr stark verändert und wir da in vielen Bereichen noch keine Antworten oder Regelungen für haben.

00:21:28: Aber bei KI im Krieg geht es ja ganz klar um eine Entscheidung wo in dem Moment ein Mensch stirbt oder nicht.

00:21:35: Wie ist es denn aktuell geregelt wenn eine KI einen Ziel falsch identifiziert?

00:21:39: Und dann bestmöglich?

00:21:40: sind die Zivilisten dabei sterben?

00:21:42: wer haftet dafür?

00:21:43: Das ist die gute Frage, wo über sich sehr viele Gedanken machen.

00:21:46: Ganz viel Papier schwarz gemacht wurde in den letzten Jahren und eben auch in Genf, obwohl er in der Ebene diskutiert wird.

00:21:51: Und das ist so ein bisschen die Accountability-Gap wie man es im Völkerrecht nennen kann.

00:21:56: Das ist einerseits erstmal die Frage können wir unser altes Recht haben?

00:22:00: Zum Beispiel auch... ja, völker Strafrecht bei Kriegsverbrechen etc.

00:22:05: nicht nur immer auch vielleicht die Haftungsfragen wenn etwas schiefläuft sondern was Intent also wirklich mit Vorsatz ist Schiefläufe.

00:22:12: können wir das einhegen?

00:22:13: Können wir sagen es ist der Operator also der der wirklich diesen Knopf gedrückt hat Der grüne Knopf der sagt Ja agreed ich lege los mit meiner Zielefassung.

00:22:23: oder ist es vielleicht in man auf der ganz anderen Seite guckt das Unternehmen, dass dieses Produkt im Umlauf gebracht hat oder alles was dazwischen noch ist.

00:22:31: Da hat man im Moment noch keine klare Regelungen und das wirkt sich natürlich erst mal auf den Krieg an sich aus, die kriegerischen Handlungen.

00:22:40: es wirkt aber auch auf die Unternehmen aus weil auch hier wenn wir auf Deutschland gucken haben sehr viele Start-ups die sehr agil in diesen Bereichen tätig sind mit sehr vielen Neuerungen.

00:22:49: das sind ganz klassische auch zielrechtliche Haftungsfragen am Ende die da dranhängen?

00:22:55: Haben wir noch keine juristisch-tragfähige Regelung?

00:22:59: Die sagt, so ist es und nicht anders.

00:23:01: Ich würde gerne noch einen Aspekt ergänzen.

00:23:07: vor Jackson auf die Bundeswehr nochmal ganz kurz gucken.

00:23:10: was lernt denn die Bundeswehre aus diesem Iran Krieg und aus dem neuen Verhältnis von Technologie und Konflikt.

00:23:17: Die Bundeswehr lernt sicherlich dass sie dieses klassische Bass wird das ich eigentlich ungern verwende aber was ich verwenden muss ein Mindset Shift braucht.

00:23:25: Das ist einerseits natürlich erst mal auch wieder vor dem Hintergrund, dass es so keine Krieges und jetzt noch einmal Iran und diese ganzen technologischen Neuerungen in diesen Jahren die so schnell auf uns zukommen.

00:23:38: in der Beschaffung schneller werden müssen.

00:23:40: Dass wir aber auch vielleicht manchmal Fehler tolerieren müssen, wenn ich noch mal zurückgehen darf auf diese Diskussion wie die Bundeswehr die Drohne von Helsinki stark beschafft hat vor ein paar Wochen.

00:23:50: Da wurde gleich ins Feld geführt naja aber die können vielleicht doch gar nicht alles oder die sind ja noch eine Testphase und es ist alles so teuer.

00:23:57: Ja das ist wahr da muss man ganz genau hingucken und ganz genau prüfen.

00:24:00: Aber die Bundesware ist gerade an einem Moment wo sie Fehler machen muss oder darf, weil sie in einer Phase ist, in der sich neu auf eine geopolitische aber auch technologische Änderung einstellen muss.

00:24:14: Da kann man nicht erwarten dass wir mit der gleichen Agilität oder dem gleichen Selbstverständnis wie eine Militärnation wie die USA agieren.

00:24:22: da muss man differenzieren.

00:24:23: gleichzeitig muss die Bundeswehr oder Deutschland an sich lernen auch hier wieder Unabhängiger zu sein, unabhängig agieren zu können.

00:24:31: Einerseits in der Beschaffung andererseits aber auch im Standing.

00:24:35: Wir können das ist auch wieder leider so ein Bass wird diese Autonomie von der alle sprechen jetzt nicht in Maffensysteme sondern einfach der deutschen europäischen Automie.

00:24:44: Unabhängigkeit von Ländern wie Russland, China USA und anderen Zulieferern.

00:24:49: Das geht nicht von heute auf morgen Und da ist es einfach der Fall dass wir auch hier Stück für Stück vorgehen müssen und der Bundeswehr die Möglichkeiten geben, im Sinne von wir gestehen ihr zu sie orientiert sich nur.

00:25:02: Wir gestehn ja aber auch zu es muss endlich der Mindset Shift passieren und zwar nicht nur mit Geld sondern auch wirklich mit den internen Prozessen.

00:25:10: Und sie sagen, es wird auch schon in anderen Bereichen oder im Bereich der konventionellen Kriegsführung oder Verteidigungspolitik darüber gesprochen.

00:25:17: Dass man unabhängiger werden muss in Deutschland und Europa.

00:25:19: Wir reden immer viel über die Frage der europäischen Interoperabilität.

00:25:23: Inwiefern ist das jetzt mit Blick auf eine Software wie Maven aber auch KI-Systeme gegeben?

00:25:29: Oder ein weiterer Hinterungsgrund?

00:25:30: Die

00:25:31: Hinterungsgründe würde ich sagen, ist nicht weil das gute... einer der guten Dinge, die man auch mal bei der Thematik rausstellen muss ist.

00:25:38: Diese Technologien sind gerade in der Mache.

00:25:40: Das heißt sie sind aus der Agil und können angepasst werden.

00:25:42: Sie haben auch grad Maven angesprochen.

00:25:44: Maven ist eben nicht nur ein System der USA was vom Pentagon benutzt wird sondern auch etwas von der NATO benutzt wurde.

00:25:50: Auch seit letztem Jahr bereits unter Gapis zum Beispiel im Herbst letzten Jahres Industry Days der NATO mit verschiedenen europäischen Unternehmen anbietern auch mit einem deutschen zum Beispiel Quantum Systems wo getestet wird austariert wird, wie diese Interoperalität funktioniert.

00:26:07: Und die funktioniert da sehr gut weil die Zusammenarbeit trotz der ganzen transatlantischen Schwierigkeiten, die man sie nennen will in den letzten Jahren zwischen Unternehmen funktioniert und die NATO ist auch da nicht unabhängig.

00:26:20: Wie Sie sehen Mavin ist ein System was primär in den USA Benutzt wird primär von amerikanischen Unternehmen, da ist Palantir.

00:26:29: Da ist aber auch Amazon Web Services dabei.

00:26:31: also das sind nicht nur die Defense Player sozusagen.

00:26:35: Das ist natürlich wieder auch ein Punkt, wo man die Naht überlegen muss.

00:26:38: will ich das oder habe ich eine europäische Alternative dies aber im Moment zu einem System wie zum Beispiel Maven so in dem Maße noch nicht gibt?

00:26:46: Wenn Sie zum Abschluss einen Satz formulieren müssten, der die strategische Lehre aus dem Iran-Krieg für europäische Demokratien auf den Punkt bringt.

00:26:55: Wie lautet dieser Satz?

00:26:57: Der möchte ich jetzt fast ein bisschen ketzerisch sein und möchte sagen... Die Technologie, der technologische Fortschritt ist da!

00:27:05: Und er wird bleiben, er wird voranschreiten und wir als Europäer müssen sehen ob wir uns damit wie uns Boot setzen wollen oder ob wir sagen, nein, wir machen da nicht mit.

00:27:14: Und wenn wir Letzteres entscheiden haben wir einen Nachteil der uns strategisch auf lange Sicht sicherlich ums Gelände zu sagen nicht weiterbringt sondern das sehe ich eigentlich als durchaus gefährlich.

00:27:26: Sagt Verena Jackson von der Universität der Bundeswehr in München vielen Dank für das Gespräch

00:27:32: sehr gerne.

00:27:37: Das war ein sehr dichtes, für mich persönlich vor allem ein sehr lehrreiches Gespräch.

00:27:41: Wie zum Ende einer jeden Folge fassen wir nochmal kurz zusammen?

00:27:44: Welche Punkte uns besonders wichtig erscheinen, welche uns vielleicht noch beschäftigen?

00:27:48: Martin, magst du anfangen?

00:27:49: Ja, sehr gerne!

00:27:50: Danke Katharina.

00:27:51: Ich sitze hier so ein bisschen in der Mischung aus beeindruckend erschlagen weil beeindruckt.

00:27:55: könnte man jetzt noch einfach analytisch sagen wow was ich da alles tut und wie schnell das alles geht es ist ja sagenhaft.

00:28:01: Ich finde es aber einigermaßen beängstigend dass wir sehen, dass das Recht und darüber nachdenken.

00:28:08: Was tun wir da eigentlich?

00:28:09: Viel viel langsamer ist als die Entwicklung jetzt.

00:28:11: konkret hat im Iran Krieg und auf dem Schlachtfeld den Schlachtferien.

00:28:15: Da werden einfach Fakten geschaffen und die Leute, die da gerade Fakte schaffen haben überhaupt kein Interesse daran das irgendwie zu codifizieren.

00:28:22: Wenn Pete Hexeth der US-Verteidigungsminister gestern gesagt hat wir verhandeln mit Bomben so hart wie möglich dann zeigt es ja einfach was geistes Kind diese Leute gerade sind.

00:28:32: Und darüber hinaus dass du auch in Gespräch angesprochen Katharina das recht immer hinterher hinkt natürlich eine Entwicklung haben, wo man gar nicht weiß in welchem exponentiellen Tempo das immer sich noch weiter fortschreibt.

00:28:47: Also da steht man schon ziemlich staunt davor gerade und hat keine richtige Idee wie man es eigentlich nochmal einhegen möchte diesen Geist der aus der Flasche gekommen ist.

00:28:55: Wie war's denn bei dir Katharina?

00:28:57: Ja das kann ich gut nachvollziehen geht mir ähnlich.

00:28:59: also ich finde auch der Aspekt Völkerrecht macht Bauchschmerzen.

00:29:03: Also vor allem dieser Aspekt, den Verena Jixon aufgeworfen hat das eben auch die Frage ist wer hat überhaupt ein Interesse daran dass zu regeln nicht nur dass wir langsam sind sondern dass es vielleicht auch einfach gewollt ist dass es keine klaren Regeln dafür gibt?

00:29:15: ich fand aber aus dem Gespräch auch noch mal interessant dass auch so einen Reminder für mich selbst dass man bei dem KI-Hype ein bisschen genauer hinschauen muss dass einfach nicht alles KI isst sondern dass man das doch differenzierter betrachten muss das ist da auch einfach um eine normale Software und Algorithmen geht dass sie sehr gut beschrieben hat, wie sich natürlich die technologische Entwicklung verändert.

00:29:36: Dass wir deutlich mehr über Drohnen, über kleinere, schnellere Drohne sprechen aber das wäre eben auch weiterhin eine Mischung aus der konventionellen Abwehrsysteme beobachten werden also Scale und Speed auf der einen Seite und gleichzeitig aber doch keine ausschließlichen Dronenkriege die wir in Zukunft sehen

00:29:52: werden.

00:29:56: Damit endet diese Folge von POT und die Welt, das Außenpolitische Update der Zeitschrift Internationale Politik.

00:30:02: Schön dass Sie uns zugehört haben!

00:30:04: Ich bin Katharina Peetz

00:30:06: Und ich bin Martin Bielecki und wenn sie mögen dann hören wir uns in zwei Wochen wieder.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.