Maria Chalvatzaki

Maria Chalvatzaki

author

17. August 2023


KI im Arbeitsrecht – Zwischen Innovation und Regulierung

KI im Arbeitsrecht – Zwischen Innovation und Regulierung

Künstliche Intelligenz (KI) fließt auf natürlicher und selbstverständlicher Weise immer mehr in unser Leben ein. Während die Welt schlauer wird, die „Tech-Riesen um KI wetteifern“ (Handelsblatt) und man sich im Bekanntenkreis oder mit dem eigenen „Chatbot“ über etwaig ethisch-soziophilosophische Fragestellungen zum Umgang mit der KI unterhält, rücken Fragen praktischer und rechtlicher Natur noch mehr in den Vordergrund.

Fragen, die gerade aufgrund ihrer Praxisbezogenheit einen durchaus starken Einfluss auf sozial aktuelle Themen haben und im Arbeits- und HR-Bereich besonders präsent sind, wie der Schutz der Privatsphäre und Datenqualitätsmanagement, Transparenz von Algorithmen, Vielfalt (Diversity), Nichtdiskriminierung und Fairness, technische Robustheit und Sicherheit  – um einige der konkreten Anforderungen zu erwähnen, die die durch die EU-Kommission berufene Expertengruppe für Künstliche Intelligenz schon im Jahr 2018 formulierte.

Klar, jede technische Errungenschaft bringt auch rechtliche Herausforderungen mit sich. Hier steht zunächst die Verordnung der EU-Kommission zur KI bevor, durch die u.a. die o.g. „ethischen Leitlinien“ in für die EU-Länder (im rechtlichen, wie im wahren Sinne) harmonisierenden Vorschriften über KI festgelegt werden sollen. Dem sog. AI Act, mit dessen Geltung schon Ende 2023 gerechnet werden kann, hat die Ampelkoalition bereits auf S. 15 des Koalitionsvertrags ihre Unterstützung erklärt.

Was ist KI?

An einer einheitlichen Definition der KI fehlt es. OECD definiert diese als ein maschinengestütztes System, das für eine gegebene Reihe von vom Menschen definierten Ziele Vorhersagen, Empfehlungen oder Entscheidungen treffen kann, die reale oder virtuelle Umgebungen beeinflussen.

Kurz gesagt: KI ist und bleibt der „Dauerbrenner“.

KI und deren Einsatz im Arbeits- und Wirtschaftsbereich ist nichts Neues. Sie wird als Werkzeug zur Vereinfachung oder Beschleunigung von Prozessen genutzt – im Personalbereich etwa im Rahmen von Einstellungsverfahren durch automatisierte Persönlichkeitstests, durch über Chatbots geführte Bewerbungsgespräche oder durch Nutzung einer Software zur Auswahl der passenden Lebensläufe.

Neu ist jedoch, dass sich der Einsatz der KI allmählich im deutschen Gesetzestext niederschlägt, s. DSGVO und Betriebsrätemodernisierungsgesetz.

Das Recht scheint somit doch, an Aktualität aufzuholen. Der Reformdruck lässt jedoch nicht nach. Warum?

Ein Blick auf den bestehenden rechtlichen Rahmen mag dies beantworten:

Datenschutz und Transparenz

KI verwendet Daten. Der freie Datenverkehr in der EU wird zwar gefördert; Grenzen werden jedoch dort gesetzt, wo der Grundrechtsschutz natürlicher Personen bei der Verarbeitung personenbezogener Daten tangiert wird.

Den freien Datenverkehr und zugleich den Schutz der personenbezogenen Daten hat sich die DSGVO zu ihren 2 gleichrangigen Zielen gesetzt.

Insbesondere im Arbeitsrecht wird der Beschäftigtendatenschutz noch durch § 26 BDSG gestärkt. Hiernach ist eine Datenverarbeitung von Beschäftigten dann erlaubt, wenn diese erforderlich ist oder eine Einwilligung durch die betroffene Person erteilt wurde oder auf Grundlage einer Kollektivvereinbarung.

Der Einsatz von KI ist somit unter diesen Bedingungen bei Bewerbungsverfahren oder bestehenden Beschäftigungsverhältnissen grundsätzlich erlaubt – dennoch hat stets eine Einzelfallprüfung zu erfolgen.

Und bei der Prüfung ist dem Verbot automatisierter Einzelentscheidungen nach Art. 22 DSGVO eine besondere Rolle beizumessen. Die betroffene Person hat „das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt“.

Das menschliche Verhalten darf nicht alleine auf Grundlage einer rechnergestützten Verarbeitung personenbezogener Daten beurteilt werden, Stichwort: Menschenwürde. Erlaubt ist hingegen, dass das KI-System eine Vorabentscheidung trifft oder Vorschlag macht und dass der Arbeitgeber auf Grundlage der Ergebnisse der Datenverarbeitung seine Entscheidung trifft.

„Menschliches Dazwischentreten“ ist somit unverzichtbar.

Genauso die stetige Kontrolle der Datenbasis und der Ergebnisse.

Eine entsprechende vertragliche Regelung mit dem Anbieter ist im Hinblick auf die weitreichende Informationspflichten der Anwender und Auskunftsansprüchen der Beschäftigten (Art. 13 – 15 DSGVO) besonders sinnvoll. Der Arbeitgeber hat für Datenschutz durch Technik zu sorgen – datenschutzgerechte Systemgestaltung und datenschutzfreundliche Voreistellungen nach Art. 25 Abs. 1 u 2 DSGVO. Auch sieht Art. 42 DSGVO Zertifizierungsverfahren zur Feststellung der Einhaltung der DSGVO vor.

Betriebsverfassungsrecht und Transparenz

Bleiben wir beim Thema Transparenz – im Hinblick auf die vielen misstrauischen Stimmen dürfte das nicht zu kurz ausfallen. Und dies hat der Gesetzgeber erkannt.

Bei der jüngsten Novellierung des Betriebsverfassungsgesetzes wurde die Relevanz der betrieblichen Mitbestimmung für den Einsatz von KI klarer.

Der Betriebsrat ist bei Einführung und Anwendung von technischen Einrichtungen (auch Soft- und Hardware zu Personalzwecken), welche objektiv geeignet sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen, gem. § 87 Abs. 1 Nr. 6 BetrVG weiter mitbestimmungspflichtig.

Hinzu kamen neu:
90 Abs. 1 Nr. 3, Abs. 2 BetrVG

Unterrichtung des Betriebsrates über die Planung von Arbeitsverfahren und -abläufen „einschließlich des Einsatzes von KI“ und Beratung über die vorgesehenen Maßnahmen und deren Auswirkungen auf die Arbeitnehmer.

95 Abs. 2a BetrVG

Klargestellt wurde, dass Richtlinien über die personelle Auswahl bei Einstellungen, Versetzungen, Umgruppierungen und Kündigungen der Zustimmung des Betriebsrates bedürfen – auch dann, wenn bei der Aufstellung dieser Richtlinien KI zum Einsatz kommt.

80 Abs. 3 S. 2, 3 BetrVG

Muss der Betriebsrat zur Durchführung seiner Aufgaben die Einführung oder Anwendung von KI beurteilen, so wird die Erforderlichkeit der Hinzuziehung des Sachverständigen gesetzlich als unwiderleglich vermutet. Dem Betriebsrat wird trotz Kostenlast für den Arbeitgeber angesichts der Komplexität der Technik der Zugriff auf Sachkunde erleichtert. Über die Person des Sachverständigen muss jedoch noch unter den Beteiligten entschieden werden.

Erkannt wurde also, dass der Betriebsrat und damit auch die durch ihn informierten Mitglieder der Belegschaft bei dem Einsatz von KI „abgeholt“ werden müssen.

Es wird also auch gesetzgeberisch bemüht, mehr Verständnis und Vertrauen auf die technischen und rechtlichen Herausforderungen im Umgang mit KI zu verschaffen.

An einer Kultur der Akzeptanz sowohl der KI als auch der einzelnen Person ist dennoch noch zu arbeiten.

Antidiskriminierung – Vielfalt – Diversity

Obwohl Maschinen auf den ersten Blick nicht diskriminieren können, hat sich in der Praxis öfter gezeigt, dass auch KI-Entscheidungen nicht immer fehler- und vorurteilsfrei erfolgen. KI-Recruiting kann durchaus in einem Spannungsverhältnis zum Antidiskriminierungsrecht stehen.

Fehler der Software können z.B. auf machine bias zurückzuführen sein, etwa wenn der Algorithmus mit „problematischen“ Daten – auch ohne Voreingenommenheit des Programmierers – trainiert wurde oder bei sonstigen Verzerrungen des Systems. Auch aus der Auswahl von gewissen Attributen und des Gewichts, das man ihnen beimisst oder aus der sonstigen Arbeitsweise mit der KI können sich Probleme ergeben. Die Fehler sind vielfältig. Letztlich stehen Menschen hinter der KI.

Für unzulässige un- oder mittelbare Diskriminierungen durch die Software dürfte somit der Arbeitgeber haften; die betroffene Person hat letztlich gem. § 15 AGG Anspruch auf Entschädigung – bei abgelehnten Bewerbern bis zu 3 Monatsgehältern.

Und dennoch bereitet die Frage der Beweislast nach wie vor erhebliche Schwierigkeiten. Auch wenn die betroffene Person gem. § 22 AGG „lediglich“ Indizien für die Diskriminierung beweisen muss, scheitert es regelmäßig gerade daran. In der Tat, wie soll ein Bewerber Indizien für eine Benachteiligung darlegen?

Ein Auskunftsanspruch aus Art. 15 DSGVO sowie Informationspflichten nach Art. 13 f. DSGVO stehen ihm bedingt zur Seite. Dabei darf nicht vergessen werden, dass nicht einmal der Arbeitgeber in der Regel in der Lage ist, Kenntnis von den für die Entscheidung ausschlaggebenden Merkmalen zu haben – dies zumal sich die KI selbst weiterentwickelt. Jedenfalls sollten Arbeitgeber an eine vertragliche Absicherung gegenüber dem Anbieter denken.

Fragen über Fragen…

Wer haftet denn, wenn beim Einsatz der KI zur Verletzung eines absoluten Rechtes (Leben, Körper, Gesundheit, Eigentum, sonstiges Recht) und kausal zu einem Schaden kommt, aber es an einem Fehlverhalten seitens des Arbeitgebers fehlt oder ein solches nicht nachweisbar ist?

Hat der Arbeitgeber einzuschreiten, insbesondere wenn das System regelmäßig gewartet und kontrolliert wird?

Soll der KI vielleicht eine eigene Rechtspersönlichkeit zur Füllung von Haftungslücken bei Fehlern zugebilligt werden, wie man dies schon mal für die zivilrechtliche Haftung von Robotern ernsthaft in Erwägung zog? Und wer würde dann zahlen, wenn KI eine eigene Rechtspersönlichkeit hat, aber keine Vermögensmasse?

Fühlt es sich langsam so an, als würde es surreal werden?

Dann bleibt zu hoffen, dass die kommende EU-KI-Verordnung Klarheit und Rechtssicherheit mit sich bringen wird.

Im Mittelpunkt des Vorschlags der Kommission stehen sog. Hochrisiko-KI-Systeme. Diese sind für die Arbeits- und HR-Welt sehr relevant:

Nach Art. 6 Abs. 2 VO-E i.V.m. Anhang III Nr. 4 lit. a) gelten als Hochrisiko-KI-Systeme solche, „die bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen, insbesondere für die Bekanntmachung freier Stellen, das Sichten oder Filtern von Bewerbungen und das Bewerten von Bewerbern in Vorstellungsgesprächen oder Tests.“

Weiter sind als Hochrisiko-KI-Systeme gem. lit. b) solche zu verstehen, „die bestimmungsgemäß für Entscheidungen über Beförderungen und über Kündigungen von Arbeitsvertragsverhältnissen, für die Aufgabenzuweisung sowie für die Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Beschäftigungsverhältnissen verwendet werden sollen.

Arbeitgeberseits muss dafür Sorge getragen werden, dass diese Systeme eine Reihe an Anforderungen gem. Art. 8 ff. VO-E erfüllen, wie die Einrichtung eines Risikomanagementsystems; die Datenqualität; die Einhaltung des neuesten Technikstandes; die automatische Aufzeichnung von Ereignissen während des Betriebs; die Transparenz im Betrieb zur angemessenen Interpretation und Verwendung von Ergebnissen des Systems; Ermöglichung der menschlichen Aufsicht; Genauigkeit – Robustheit und Cybersicherheit.

Bei Verstößen werden Geldbußen von bis zu 30.000.000 EUR oder – im Falle von Unternehmen – von bis zu 6 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt.

Mittlerweile haben EU-Parlament und Rat auch ihre Positionen zum Vorschlag der Kommission veröffentlicht. Während der Rat den Kommissionsvorschlag in einigen Punkten abschwächt, geht das Parlament in seiner finalen Version vom Juni 2023 nochmal deutlich darüber hinaus und fordert beispielsweise eine Erhöhung der Geldbuße bis zu 40.000.000 EUR bzw. 7 % des Umsatzes sowie die Einordnung von sog. Allzweck-KI wie ChatGPT unter den Begriff des Hochrisiko-KI-Systems.

Hellhörig wird man bei diesen Zahlen und Anforderungen schon, aber nicht gleich schlauer. Gerade im Zuge des Hypes um ChatGPT oder sogar in der Hoffnung auf eine Lösung des Fachkräftemangels klingen viele Versprechungen der KI sehr verlockend und es wird sicher einen weiteren Run auf KI-Systeme geben. Dennoch gilt: nicht vorschnell agieren, juristisch prüfen und sich als Arbeitgeber so weit wie möglich vertraglich absichern.

Maria Chalvatzaki17. August 2023193 Views |0 comments

Maria Chalvatzaki

#arbeitsrecht

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.