Künstliche Intelligenz (KI) punktet im Vergleich zu herkömmlichen IT-Technologien mit einer deutlich höheren Leistung und bietet damit vielfältige neue Möglichkeiten. Gleichzeitig birgt der Einsatz von KI auch neue Herausforderungen im Hinblick auf sicherheitskritische Systeme. Um diese zu bewältigen, sind entsprechende KI-Prüfprozesse und -Auditierungsverfahren gefragt.
Wie es aktuell um die Prüfbarkeit von KI-Systemen sowie die praktische Umsetzung von KI-Prüfungen steht, haben TÜV-Verband, BSI und Fraunhofer HHI im Rahmen einer gemeinsamen Workshop-Reihe genauer unter die Lupe genommen. Im Fokus standen insbesondere sicherheitskritische KI-Anwendungen, beispielsweise in den Bereichen Automotive, Medizintechnik und Biometrie. Dabei herausgekommen ist die „Certification Readiness Matrix“ (CRM), eine Methode zur Erfassung der Prüfbarkeit von Qualitäts- und Sicherheitskriterien von KI-Systemen.
Die CRM stellt eine Art Fahrplan dar, mit dem komplexe KI-Systeme entlang ihres gesamten Lebenszyklus, angefangen bei der Datensammlung über die Trainingsphase bis hin zu ihrer Anwendung in der Praxis, untersucht werden können. Im Zentrum der Matrix steht dabei eine Rund-um-Betrachtung von KI-Systemen.
„Besonders mit Blick auf sicherheitskritische KI-Systeme ist es wichtig, dass die darin zum Einsatz kommende KI jederzeit sicher, robust, zuverlässig und erklärbar ist“, so Vasilios Danos, KI-Experte bei TÜViT.
Insgesamt ermöglicht die CRM eine Bestandsaufnahme der Auditierbarkeit einzelner KI-Systeme und deckt potentielle Prüfbarkeitsdefizite auf. Mithilfe der Matrix wird demnach deutlich, welche bestehenden Audit-Methoden sich auch für die Prüfung künstlicher Intelligenz eignen bzw. welche Instrumente bereits so weit entwickelt sind, dass sich mit ihnen verschiedene Sicherheitsaspekte von KI beurteilen lassen. Gleichzeitig zeigt die CRM aktuelle Grenzen einer Sicherheitsprüfung auf und legt offen, in welchen Bereichen noch weitere Forschung sowie die Entwicklung neuer Audit-Technologien und -Tools erforderlich ist.
Auf diese Weise leistet die Matrix einen wichtigen Beitrag zur perspektivischen Umsetzung des „Artificial Intelligence Act“ (AI Act). Dieser stellt einen Rechtsrahmen für den Einsatz von Künstlicher Intelligenz im Europäischen Raum dar. Einen ersten Entwurf hat die EU-Kommission bereits im April 2021 veröffentlicht. Mit der finalen Version des AI Acts ist im Jahr 2023 zu rechnen.
Alle Workshop-Ergebnisse sind im Whitepaper „Towards Auditable AI Systems” festgehalten, das hier kostenfrei heruntergeladen werden kann.