KIkünstliche Intelligenz – Die unsichtbare Superkraft der Zukunft
KIkünstliche Intelligenz – Die unsichtbare Superkraft der Zukunft
- Datum:
- Ort:
- Nienburg
- Lesedauer:
- 4 MIN
Internationale bewaffnete Konflikte haben die Entwicklung von Künstlicher Intelligenz für militärische Anwendungen in rasantem Tempo vorangetrieben. Spätestens seit dem völkerrechtswidrigen Angriffskrieg Russlands gegen die Ukraine und dem Krieg in Gaza wurde deutlich, dass Entwicklung und Nutzung von KIkünstliche Intelligenz längst Teil der militärischen Praxis sind.
KIkünstliche Intelligenz zählt derzeit zu den Hauptthemen, wenn es um Zukunftstechnologien und deren Weiterentwicklung sowie Operationalisierung geht. Führende Unternehmen wie Apple, Google, Meta, Open AI und Microsoft konkurrieren im zivilen Anwendungsbereich um immer fortschrittlichere Technologien und höhere Leistungsfähigkeit ihrer Systeme. Auch in der militärischen Forschung und Nutzung wächst die Bedeutung von KIkünstliche Intelligenz.
Militärische Nutzung und Forschung
Ein bemerkenswertes Beispiel für die militärische Nutzung von KIkünstliche Intelligenz findet sich im EloKaElektronische Kampfführung-Bataillon 912, einem Bataillon für Elektronische Kampfführung der Bundeswehr. Das dort betriebene KIkünstliche Intelligenz-Labor bietet eine innovative Lern- und Entwicklungsumgebung. Es konzentriert sich auf die Integration von KIkünstliche Intelligenz im militärischen Kontext und ist spezialisiert auf die besonderen Bedürfnisse der Bundeswehr in Bezug auf Informationssicherheit.
Hier wird an verschiedenen KIkünstliche Intelligenz-Projekten geforscht, die darauf abzielen, neue Technologien für die Bundeswehr zu entwickeln und deren Einsatzmöglichkeiten zu testen. Das Labor bietet eine moderne Infrastruktur, in der Teams von Soldatinnen und Soldaten und zivilen Fachkräften an innovativen Lösungen arbeiten können, um die Effektivität bei der Ausführung des hochspezialisierten Auftrags der EloKaElektronische Kampfführung-Bataillone zu steigern – zum Beispiel durch das maschinelle Auswerten von Funkverkehr oder die intelligente Berechnung von Flugrouten.
KIkünstliche Intelligenz ermöglicht unter anderem die Erschließung gewaltiger Datenmengen in sehr kurzer Zeit, die beispielsweise durch militärische Aufklärungs- und Auswertesysteme erzeugt werden. Diese Daten müssen im Anschluss jedoch auch zu verwertbaren Informationen aufbereitet werden, damit sie zweckmäßig in Entscheidungsprozessen genutzt werden können. Dies betrifft sowohl die Authentizität der Datengrundlage als auch die Adressierung potenzieller Gefahren im Cyberraum.
Authentizität als bestimmendes Kriterium
In immer mehr militärischen Systemen finden KIkünstliche Intelligenz-gestützte autonome Funktionen Anwendung, etwa bei der Identifizierung von optimalen Fahr- oder Flugrouten. Gerade wenn ein Gegner Störsysteme einsetzt, beispielsweise im Bereich GPSGlobal Positioning System, ist eine Auftragserfüllung ohne KIkünstliche Intelligenz nicht mehr möglich. Die sich ständig weiterentwickelnden KIkünstliche Intelligenz-Systeme müssen gewährleisten, dass ihre Ergebnisse zuverlässig und authentisch sind, um als Basis für operative und strategische Entscheidungen dienen zu können. Die kontinuierliche Optimierung der Technologien ist entscheidend, um die Leistungsfähigkeit und Verlässlichkeit der Systeme zu sichern.
KIkünstliche Intelligenz kann beides: Schaden anrichten, aber auch großen Nutzen bringen. KIkünstliche Intelligenz-basierte Sicherheitskonzepte gewährleisten strategische Vorteile gegen Cyberangriffe.
- Datenglaubwürdigkeit und -sicherheit: Der Nutzen von Informationen, die durch KIkünstliche Intelligenz aufbereitet werden, basiert maßgeblich auf der Echtheit der zugrundeliegenden Daten. Fehlerhafte oder manipulierte Daten können im schlechtesten Fall zu Fehlentscheidungen durch falsche Bewertungen führen. Zudem müssen militärische Daten besonders geschützt werden, da sie ein natürliches Ziel für gegnerische Cyberangriffe darstellen.
- Cybersicherheit und Schutz vor Manipulation: Trainingsdaten für KIkünstliche Intelligenz-Systeme sind ein besonders lohnendes Ziel für Hackerangriffe und Manipulationsversuche. Angreifer haben durch Verfälschung der Daten die Möglichkeit, die durch KIkünstliche Intelligenz ausgegebenen Informationen zu verändern oder sensible Daten abzugreifen, was zu gravierenden Konsequenzen führen kann.
- Vernetzbarkeit und Anpassungsfähigkeit: Die Einbettung von KIkünstliche Intelligenz in bestehende militärische Systeme erfordert eine komplexe Standardisierung und Anpassung bestehender technischer Strukturen, was zeitaufwendig und technisch herausfordernd ist.
- Zuverlässigkeit und Dauerhaftigkeit: KIkünstliche Intelligenz-Systeme müssen auch unter extremen Bedingungen zuverlässig funktionieren. Die Entwicklung fehlerfreier und fehlerresistenter Algorithmen ist technisch anspruchsvoll und erfordert hochqualifiziertes Personal, das langfristig zur Verfügung stehen muss.
- Zusätzliche menschliche Kontrolle: Die Ergebnisse, die aus der Nutzung von KIkünstliche Intelligenz resultieren, müssen besonders sorgfältig geprüft werden, insbesondere angesichts des wachsenden Risikos von
DeepfakesDeepfakes sind mit Künstlicher Intelligenz erzeugte, täuschend echt wirkende Bilder, Videos oder Audios, in denen Personen Dinge tun oder sagen, die nie passiert sind. Es gibt verschiedene Formen von Deepfakes: das Austauschen von Gesichtern, das Verändern von Mimik und das Erstellen neuer Identitäten. Deepfakes werden häufig zur Manipulation und Desinformation genutzt. . Die menschliche Kontrollinstanz für die Bewertung der Informationen, also die Verifizierung, ist unerlässlich, um das Risiko von Fehlentscheidungen zu minimieren. - Ressourcen und Ausbildung: Im Vergleich zu großen Tech-Konzernen verfügen militärische Organisationen häufig über weniger Ressourcen. Überdies ist eine umfassende Ausbildung von Soldatinnen und Soldaten sowie von Führungskräften notwendig, um die KIkünstliche Intelligenz-Technologien effektiv nutzen zu können.
- Wettbewerb und Wettrüsten: Die rasante Entwicklung militärischer KIkünstliche Intelligenz-Anwendungen birgt die Gefahr eines Wettrüstens zwischen Staaten. Dies könnte das globale Machtgleichgewicht destabilisieren und die Schwelle zur Anwendung militärischer Gewalt sinken lassen. Die verantwortungsvolle, souveräne Entwicklung, Einführung und Nutzung von KIkünstliche Intelligenz in der Bundeswehr muss deswegen nicht nur technologische Faktoren berücksichtigen, sondern auch ethische, rechtliche und sicherheitspolitische Dimensionen.
Cyberraum als große Gefahr für KIkünstliche Intelligenz-Systeme
Cyberangriffe zählen zu den größten Bedrohungen für KIkünstliche Intelligenz-Systeme. Ihre Anfälligkeit für Hackerangriffe birgt die Gefahr, dass sensible Informationen abgezapft werden. Zunehmend nutzen Angreifer selbst KIkünstliche Intelligenz-Technologien, um ihre Angriffe möglichst komplex zu gestalten. Automatisierte Phishing-Kampagnen, Deepfakes und das gezielte Ausnutzen von Schwachstellen in kritischen Infrastrukturen sind nur einige der Methoden, die dazu verwendet werden können, Systeme zu manipulieren, Daten zu stehlen oder militärische Operationen zu sabotieren.
Die kontinuierliche Weiterentwicklung dieser Angriffsmethoden erfordert von der Bundeswehr eine ständige Anpassung und Verbesserung ihrer Sicherheitssysteme, um den Herausforderungen des digitalen Zeitalters gerecht zu werden.
Mit einer durchdachten KIkünstliche Intelligenz-Strategie können Unternehmen, staatliche Institutionen und auch die Streitkräfte sehr viel mehr erreichen, als vielfach angenommen wird. Dazu müssen aber alle Scheuklappen gegenüber der digitalen Welt, die zusehends durch KIkünstliche Intelligenz mitgestaltet wird, abgelegt werden. Denn nur wer die Risiken und die Chancen von KIkünstliche Intelligenz für seinen Bereich erkennt, kann die digitale Zukunft gestalten, anstatt von ihr überrannt zu werden.