Das Ziel des AI Acts besteht darin, die Funktionsweise des europäischen Binnenmarktes zu verbessern und die Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz (KI) zu fördern, während gleichzeitig ein hohes Schutzniveau für Gesundheit, Sicherheit und die in der Charta der Grundrechte verankerten Grundrechte – einschließlich Demokratie, Rechtsstaatlichkeit und Umweltschutz – gegenüber möglichen schädlichen Auswirkungen von KI-Systemen gewährleistet wird.
Risikogruppen für KI-Systeme
KI-Systeme sollen zukünftig, je nach Gefahrenpotenzial, in verschiedene Risikogruppen eingeteilt werden. Gemeint sind in diesem Zusammenhang Anwendungen auf Basis maschinellen Lernens, bei denen große Datenmengen automatisch nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen gezogen werden.
Systeme, die als besonders risikoreich gelten, in kritischen Infrastrukturen oder im Bildungs- und Gesundheitswesen eingesetzt werden, müssen strenge Anforderungen erfüllen. KI-Anwendungen, die gegen EU-Werte verstoßen, sollen ganz verboten werden. Besonders hervorzuheben sind in diesem Zusammenhang die Bewertung von sozialem Verhalten ("Social Scoring") und die Emotionserkennung am Arbeitsplatz. Auch dürfen nur Polizei und andere Sicherheitsbehörden beispielsweise Gesichtserkennung im öffentlichen Raum nutzen, ausschließlich um schwere Straftaten, wie Menschenhandel oder Terrorismus, zu identifizieren, zu dokumentieren und zu verfolgen. Die Vertreter der EU-Staaten stimmten Anfang Februar des Jahres dem Gesetzesvorschlag zu. Das bedeutet nun für die Mitgliedsstaaten, dass sie nach und nach verbotene Systeme außer Betrieb nehmen müssen. Für die komplette Umsetzung sind zwei Jahren vorgesehen. Bei Nichteinhaltung werden Sanktionen verhäng.
Risikoniveau als Klassifizierungsgrundlage
Das Klassifizierungssystem des EU-KI-Gesetzes passt die regulatorischen Anforderungen an das Risikoniveau der unterschiedlichen KI-Systeme an.
Hochriskante KI-Systeme
KI-Technologien, die für Infrastruktur, Beschäftigung und Strafverfolgung entscheidend sind, unterliegen strengen Anforderungen, bevor sie eingesetzt werden können, einschließlich Transparenzverpflichtungen, Datenqualitätsgarantien und menschlicher Aufsicht.
KI-Anwendungen mit geringem bzw. minimalem Risiko
Für KI-Systeme, die ein geringeres Risiko darstellen, sieht das Gesetz weniger belastende regulatorische Anforderungen vor. Das soll Innovationen ermöglichen, indem sichergestellt wird, dass KI-Entwickler neue Anwendungen entwickeln und erproben können, ohne sich mit unnötigen regulatorischen Hürden auseinandersetzen zu müssen.
Verbotene Praktiken
KI-Anwendungen, die inakzeptable Risiken oder ethische Bedenken mit sich bringen, wie z. B. die biometrische Identifizierung in Echtzeit in öffentlichen Räumen und Systeme, die menschliches Verhalten manipuliere, sind verboten.
Überregulierung?
Das Gesetz hat jedoch auch Kritiker auf den Plan gerufen, welche äußerten, dass eine Überregulierung die Innovationen durch die KI hemmen könnte und dass die Durchsetzung eines so umfassenden Gesetzes kompliziert sei. Auch sollten Teile des Gesetzes klarer formuliert werden.
Sie fragen sich auf welchem Risikoniveau der unterschiedlichen KI-Systeme Sie und Ihr Unternehmen agieren und ob Sie zeitnah handeln müssen. Ein erstes Gespräch mit unseren Consultants kann Klarheit bringen und die nächsten Schritte aufzeigen.
Auf Ihre Kontaktaufnahme freuen sich:
Ansprechpartnerin Vertrieb:
Stefanie Luck
Tel: +49 40 2 714 340 54
stefanie.luck@evodion.de
Ansprechpartner Technik:
Dr. Martin Sommer
Tel: +49 40 2 714 340 71
info@evodion.de