AI Act Flashcards
Generelle Infos zum AI-ACT
Betroffen sind Anbieter und Nutzer künstlicher Intelligenz, die sich in der europäischen Union befinden. Demnach werden die Anwendungen der KI in vier Kategorien eingeteilt:
- Unannehmbare Risiken
- Hohe Risiken und Hochrisiko KI Systeme
- Geringe Risiken
- Minimale Risiken
Je höher das Risiko, desto strenger fällt die Regulierungen aus
Nach Art. 5 Nr. 1 sind KI-Anwendungen der unannehmbarem Risikogruppe untersagt. Hierzu zählen Anwendungen, die:
- menschliches Verhalten manipulieren und Menschen schaden könnten
- aufgrund von sozialem Verhalten oder persönlicher Charakteristik eine nachteilige Bewertung ermöglicht. Beispiel: System nach Sozialkredit in China, wonach der Freiraum einer Person auf den sozialen Status beschränkt wird.
- in Echtzeit ferne Systeme in der Öffentlichkeit erkennen und eine biometrische Identifizierung von Menschen ermöglichen. Ausnahmen bestehen zur Abwehr von Terrorismus oder um schwere Straftaten aufzuklären
Wenn ein System als Hochrisiko-KI-System eingestuft wird, finden die Art. 8 ff. des Entwurfs Anwendung. Konkrete Pflichten für die Betroffenen Akteure sind:
- Die Einrichtung, Dokumentation und Aufrechthaltung eines Risikomanagementsystems
- Das Einhalten von Daten-Governance- und Datenverwaltungsverfahren für die zu verwendenden Trainings-, Validierungs- und Testdatensätze, darunter relevante Datenaufbereitungsvorgänge wie Kommentierung, Kennzeichnung, Bereinigung, Anreicherung und Aggregierung und eine vorherige Bewertung der Verfügbarkeit, Menge und Eignung der benötigten Datensätze
KI-Systeme, die nach Ansicht der Gesetzgeber ein geringeres Manipulationsrisiko aufweisen, fallen unter den Art. 52 des Entwurfs. Das umfasst Systeme, die:
- mit Menschen interagieren
- zur Erkennung von Emotionen oder zur Assoziierung (gesellschaftlicher) Kategorien anhand biometrischer Daten eingesetzt werden
- Inhalte erzeugen oder manipulieren