Pin It

Die steigende Anzahl von Passagieren und das damit verbundene
Flugaufkommen bringen das zivile Luftverkehrssystem zunehmend an seine
Kapazitätsgrenzen. Um den Herausforderungen dieser Entwicklung zu
begegnen, könnte der Einsatz Künstlicher Intelligenz (KI) eine wichtige
Rolle spielen. Im Rahmen des Projekts KIEZ 4-0 hat fortiss daher gemeinsam
mit seinen Projektpartnern aus Luftfahrt und Wissenschaft Konzepte
entwickelt, um die Zertifizierung der Sicherheit von KI-gestützten
Anwendungen in der Luftfahrt zu ermöglichen. Die Ergebnisse des Projekts
wurden bei der Online-Abschlussveranstaltung Anfang Februar 2024
vorgestellt.

Bisher gestaltet sich der Einsatz komplexer KI-Anwendungen in der
Luftfahrt als problematisch, da es an entsprechenden
Zertifizierungsverfahren fehlt. Damit diese Technologie dort eingesetzt
werden kann, müssen Verfahren entwickelt werden, um KI-Systeme zu
zertifizieren und damit ihre Sicherheit nachzuweisen. Die Anstrengungen in
diese Richtung sind äußerst umfangreich, da Flugzeugkomponenten besonders
sicherheitskritisch sind und deshalb sehr hohen Qualitäts- und
Sicherheitsstandards unterliegen.

KIEZ 4-0 (Künstliche Intelligenz Europäisch Zertifizieren unter Industrie
4.0) hat einen maßgeblichen Beitrag dazu geleistet, wie KI-Systeme in der
Luftfahrt zertifiziert werden können. Im Rahmen dieses Projekts wurde
mithilfe von Demonstratoren und Anwendungsfällen eine Methode vorgestellt,
die zeigt, wie die Zertifizierung der Zuverlässigkeit von Avionik-
Anwendungen erfolgen kann. Zusätzlich wurde analysiert, inwiefern KI für
eine Zulassung in der Luftfahrt geeignet ist und welche erforderlichen
Anpassungen dabei notwendig sind.

Das Verbundprojekt wurde im Rahmen des Luftfahrtforschungsprogramms (LuFo
VI-1) vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK)
finanziell gefördert und von der Airbus Defence and Space GmbH geleitet.
Neben Airbus waren auch das Deutsche Zentrum für Luft- und Raumfahrt
(DLR), mehrere Fraunhofer-Institute, die Deutsche Flugsicherung (DFS) und
weitere Partner an der dreijährigen Forschungsmaßnahme beteiligt. Um die
Zertifizierung auf internationaler Ebene voranzutreiben, arbeitete das
Konsortium außerdem mit der Europäischen Agentur für Flugsicherheit (EASA)
zusammen.

Einbeziehung von Zertifizierungsanforderungen in frühe Entwicklungsphasen

Dr. Yuanting Liu, Leiterin des fortiss-Kompetenzfelds Human-centered
Engineering, leitete das Projekt und koordinierte die Zusammenarbeit mit
den Wissenschaftler*innen aus den Kompetenzfeldern Software Dependability
und Human-centered Engineering.

Sie erarbeiteten zunächst formale und verifikationsbasierte Lösungen, um
die Sicherheit und Zuverlässigkeit von KI-basierten Systemen nachzuweisen.
Konkret wurden dazu Techniken der Modellprüfung und des Theorembeweises
eingesetzt. Sie finden Anwendung, um die Anforderungen zu erfüllen, die
ein zwingender Nachweis bei der Bewertung von Sicherheit und Korrektheit
von KI-Systemen in der Avionik mit sich bringt. Auf diese Weise können die
Sicherheit von KI-basierten Systemen verifiziert und gleichzeitig die
hohen Sicherheitsstandards der Branche gewahrt oder sogar verbessert
werden. Anschließend wandten die Expert*innen von fortiss diese Methoden
auf die Algorithmen an, welche die Kollisionsvermeidungsfunktion des von
Airbus bereitgestellten Temporal Planning Network (TPN) Planer
implementieren. Dieses System dient dazu, Flugpläne in der Luftfahrt zu
erstellen und zu verwalten, um einen sicheren und effizienten Luftverkehr
zu gewährleisten. Unter Verwendung der bereits erwähnten Techniken der
Modellprüfung und Theorembeweise verifizierten sie die
Schlüsselalgorithmen, die für die Überprüfung von Verstößen gegen
statische und dynamische Flugverbotszonen verantwortlich sind, und
identifizierten so Designfehler innerhalb des Codes.

Im fortiss Kompetenzfeld Human-centered Engineering wurden schließlich
spezifische Richtlinien erarbeitet, die für die Zulassung solcher Systeme
nützlich sind. Die aktuelle Zertifizierung von Human-Factors legt den
Fokus darauf, menschliche Fehler zu vermeiden. Bei der Anwendung von KI in
komplexeren Situationen entsteht jedoch eine neue potenzielle
Fehlerquelle. Daher ist es erforderlich, das Potenzial für KI-Fehler
bereits während des Entwicklungsprozesses des Systems zu berücksichtigen.
Anstatt sich darauf zu konzentrieren, wie die KI ihre Aufgabe optimal
erfüllen kann, sollten Entwickler zuerst klären, welche Aufgabe die KI
überhaupt erfüllen soll. Diese Frage ist entscheidend und sollte bereits
im frühen Stadium durch die Einbeziehung der Nutzer*innen im Rahmen eines
menschzentrierten Designs geklärt werden. Exemplarisch wurde dies am
Anwendungsfall von Flugumleitungen (Diversions) untersucht, bei denen
Flüge aufgrund von schlechtem Wetter, einem medizinischen Notfall oder
einem technischen Defekt nicht ihr geplantes Ziel anfliegen können. KI
kann Pilot*innen bei der Entscheidung für einen Alternativflughafen
unterstützen. Dabei ist es wichtig, die Aufgabe der KI so zu definieren,
dass Flugzeugführer*innen voll im Entscheidungsprozess involviert bleiben,
um mögliche Fehler der KI erkennen und mit ihrem menschlichen
Kontextwissen kompensieren zu können.

Aus dieser Arbeit wurden Empfehlungen für die Zertifizierung von
Komponenten, insbesondere mit symbolischer KI und Human-Factors,
abgeleitet und mit der EASA ausgetauscht.

KI-Visionen für die Avionik

Die Realisierung zukünftiger Luftfahrtthemen wie Ein-Pilot-Flugzeuge und
Flugtaxis stellt besonders im Hinblick auf die Integration von KI-Systemen
eine Herausforderung dar. Die Interaktion zwischen der KI und dem
menschlichen Piloten oder Passagier spielt dabei eine entscheidende Rolle.
Diese Aufgabe erfordert nicht nur eine technologische Weiterentwicklung,
sondern auch eine Überprüfung und möglicherweise Anpassung der
Zertifizierungsmethoden und -prozesse. Die spezifischen Anforderungen
beziehen sich nicht nur auf die Flugzeugtechnik, sondern auch auf die
Interaktion mit Flughäfen und Flugsicherungen, um das reibungslose
Funktionieren des komplexen Gesamtsystems sicherzustellen.