Zum Hauptinhalt springen

Blick in die Blackbox: Maßnahmen für vertrauenswürdige Künstliche Intelligenz auf der Hannover Messe

Pin It

Künstliche Intelligenz (KI) durchleuchten: Damit KI-Anwendungen künftig z.
B. beim Autonomen Fahren oder in der Industrie 4.0 zum Einsatz kommen
können, müssen ihre Funktionsweisen transparent und nachvollziehbar sein.
Erste konkrete Absicherungsmethoden für die Gestaltung zuverlässiger KI-
Systeme sowie Prüfverfahren »made in Germany« stellt das Projekt
ZERTIFIZIERTE KI der Kompetenzplattform KI.NRW auf der Hannover Messe vor.
Der Demonstrator »uncertAInty explorer« zeigt Interessierten, wie die
Bewertung von Unsicherheiten einer KI-Prognose zu mehr Sicherheit
beitragen kann. Vor Ort informiert das Fraunhofer IAIS darüber, wie
Unternehmen KI-Risiken künftig gut einschätzen können.

Beim Autonomen Fahren oder in der Industrie 4.0 – Künstliche Intelligenz
(KI) übernimmt künftig wichtige Aufgaben und muss insbesondere in
sicherheitskritischen Anwendungen zuverlässig arbeiten. Damit die
Funktionsweise und Entscheidungsfindung von KI-Systemen transparent und
nachvollziehbar ist und Unternehmen KI-Anwendungen auch im Hinblick
bevorstehender Standards und Gesetze wie dem europäischen AI ACT
nachweislich zuverlässig gestalten können, arbeitet das Flagship-Projekt
ZERTIFIZIERTE KI der Kompetenzplattform KI.NRW an konkreten Lösungen. So
entwickeln im Projekt die Wissenschaftler*innen des Fraunhofer IAIS
gemeinsam mit Partnern, unter anderem dem Deutschen Institut für Normung
(DIN) und dem Bundesamt für Sicherheit in der Informationstechnik (BSI),
standardisierbare Prüfverfahren »made in Germany«.

Auf der Hannover Messe 2022 erhalten Unternehmen am Stand des Landes
Nordrhein-Westfalen (Halle 11, Stand B13) konkrete Einblicke in das
Projekt ZERTIFIZIERTE KI. So veranschaulicht der Demonstrator »uncertAInty
explorer« das Prinzip der Unsicherheitsschätzung, mit welcher die Lücken
einer KI-Analyse sichtbar werden, etwa bei der Einschätzung von
Verkehrssituationen im Autonomen Fahren. »Bei hoch-automatisierten KI-
Entscheidungen ist es wichtig beurteilen zu können, wie sicher sich eine
KI mit ihrem Ergebnis ist. Konkret muss ein autonomes Fahrzeug zum
Beispiel Objekte und Menschen in seiner Umgebung zuverlässig erkennen
können, damit es angemessen darauf reagieren kann. Die
Unsicherheitsbewertung hilft hierbei zu messen, wie stark man der
Entscheidung des Systems vertrauen kann oder ob bestimmte Fallback-
Mechanismen aktiviert werden müssen«, erklärt Dr. Maximilian Poretschkin,
Leiter KI-Absicherung und -Zertifizierung am Fraunhofer IAIS und
Konsortialleiter des Projekts. Daneben könne das Verfahren auch in vielen
anderen Anwendungsbereichen sinnvoll sein, beispielsweise in einer
Fertigungsstraße zur Qualitätssicherung von Produkten, um dort Ausschuss
zu verringern und Qualitätseinbußen zu reduzieren.

Neben der technischen Umsetzung von Transparenz und Nachvollziehbarkeit in
KI-Technologien kommt es auch zunehmend darauf an, die Qualität,
Sicherheit und Zuverlässigkeit von KI-Systemen nachweisen zu können.
Hierfür entwickelt das Projekt ZERTIFIZIERTE KI entsprechende
Prüfverfahren, die Unternehmen bei der Entwicklung oder KI-Prüfer*innen
bei der Evaluation von KI-Anwendungen unterstützen. »Ein wesentlicher
Fokus unserer Forschung ist die Entwicklung von Prüfmethoden und
-Werkzeugen, um die Qualität von KI-Systemen unabhängig begutachten zu
können. Eine KI-Prüfung kann die korrekte und sichere Funktionsweise
sicherstellen und gleichzeitig das Vertrauen in und die Akzeptanz von KI-
Anwendungen fördern«, sagt Poretschkin. Das belege auch eine Studie des
Fraunhofer IAIS zum Einfluss von KI-Managementsystemen auf die
Vertrauenswürdigkeit Künstlicher Intelligenz, die im Oktober 2021
veröffentlicht wurde.

Mit kostenfreiem Ticket Experten-Vorträge vor Ort ansehen

Unter dem Motto »Let’s create the industry of tomorrow« findet die größte
deutsche Industriemesse vom 30. Mai bis 2. Juni 2022 auf dem Messegelände
in Hannover statt. Das Projekt ZERTIFIZIERTE KI lädt Interessierte mit
kostenfreien Fachbesuchertickets auf die Hannover Messe ein. Das
begleitende Vortragsprogramm wird größtenteils via Livestream online
übertragen. Interessierte sind besonders willkommen, die folgenden
Vorträge der Wissenschaftler des Fraunhofer IAIS zum Thema »Prüfgrundlagen
und Werkzeuge zum Nachweis der Vertrauenswürdigkeit von KI-Systemen« zu
besuchen:

Dienstag, 31. Mai, 11.00 bis 12.00 Uhr: Dr. Maximilian Poretschkin,
Fraunhofer IAIS, Gemeinschaftsstand Fraunhofer-Gesellschaft in Halle 5,
Stand A06

Donnerstag, 2. Juni, 12.40 bis 13.05 Uhr: Daniel Becker, Fraunhofer IAIS,
Tech Transfer Stage in Halle 2, Stand A60, inkl. Livestream