Welchen Pflichten Arbeitgeber unterliegen werden, richtet sich nach dem Risiko des eingesetzten KI-Systems
Der Verordnungsgeber verfolgt einen risikobasierten Ansatz, indem er zwischen KI-Systemen mit unannehmbarem Risiko, KI-Systemen mit hohem Risiko und sonstigen KI-Systemen unterscheidet.
Ein unannehmbares Risiko liegt vor, wenn eine Gefahr für den Menschen besteht, insbesondere wenn das KI-System das Potenzial hat, Menschen durch den Einsatz unterschwelliger Beeinflussungstechniken zu manipulieren. Beispiele hierfür sind das Social-Scoring-System, biometrische Echtzeitüberwachung im öffentlichen Raum oder prädiktive Polizeisysteme. Diese sind nach Titel II der Verordnung grundsätzlich verboten.
Titel III befasst sich als Kernstück der Verordnung mit Hochrisiko-KI-Systemen, die erhebliche Risiken für die Gesundheit und Sicherheit oder die Grundrechte von Personen bergen. Dazu gehören auch KI-Systeme, die in Produkten eingesetzt werden, die unter die Produktsicherheitsvorschriften der EU fallen, wie medizinische Geräte, Aufzüge oder Spielzeug. Für Arbeitgeber wird sich besonders bemerkbar machen, dass im Personalbereich eingesetzte KI regelmäßig ein hohes Risiko aufweisen wird, da Art. 6 Abs. 2 i.V.m. Anhang III Nr. 4 solche Systeme umfasst, die bestimmungsgemäß insbesondere für Einstellungen, Beförderungen und Kündigungen verwendet werden sollen.
Hochrisiko-KI-Systeme unterliegen strengen Vorschriften, bevor sie auf den Markt gebracht werden dürfen. Außerdem müssen sie während des gesamten Lebenszyklus bewertet werden (Art. 29): So unterliegt der Nutzer/Betreiber der Pflicht, ein Hochrisiko-KI-System gemäß den Gebrauchsanweisungen zu verwenden und dessen Betrieb anhand dieser Gebrauchsanweisungen zu überwachen. Soweit er Kontrolle über die Daten hat, muss er außerdem dafür sorgen, dass die Eingabedaten der Zweckbestimmung des Systems entsprechen sowie die automatisch erzeugten Protokolle des Systems aufbewahren.
Nach dem Vorschlag des Europäischen Parlaments müssen die Nutzer/Betreiber vor der Inbetriebnahme von Hochrisiko-KI zunächst eine Grundrechtsprüfung nach Art. 29a durchzuführen. Unter anderem soll dabei berücksichtigt werden, welche Personengruppen von dem KI-Einsatz betroffen sein werden. Darüber hinaus sind nach Art. 29 Abs. 5a vor dem Einsatz von Hochrisiko-KI am Arbeitsplatz die Arbeitnehmervertreter zu konsultieren und darüber zu informieren, dass sie dem System unterliegen werden.
Darüber hinaus möchte das Europäische Parlament, dass die Nutzer/Betreiber aller KI-Systeme allgemeine Datenschutz-, der Transparenz- und Gleichbehandlungsgrundsätze nach Art. 4a und 4b befolgen. Für Arbeitgeber bedeutet dies, dass sie die Möglichkeit der menschlichen Aufsicht und ein ausreichendes Maß an KI-Kompetenz ihrer Arbeitnehmer sicherstellen müssen. Im Falle des Einsatzes eines KI-Systems mit hohem Risiko verlangt Art. 29 Abs. 1a die tatsächliche Einführung einer menschlichen Aufsicht.