Künstliche Intelligenz bietet Unternehmen enorme Potenziale – von der Automatisierung bis zur Datenanalyse. KI-Tools wie ChatGPT können – richtig eingesetzt – für Arbeitgeber und Beschäftigte eine echte Unterstützung im Job darstellen. Bei der Verwendung sind jedoch rechtliche Schranken zu berücksichtigen.
Grundsätzlich können Unternehmen jeder Größe von KI-gestützten Prozessen profitieren. Mithilfe Künstlicher Intelligenz lassen sich Entscheidungen schneller und präziser treffen, große Datenmengen effizient verarbeiten und Routineaufgaben automatisieren. Diese Effizienzgewinne bieten das Potenzial, die Produktivität erheblich zu steigern und so zählbare Wettbewerbsvorteile zu generieren. Vor allem im Bereich der Kundeninteraktion, der Datenanalyse und der Produktentwicklung ist KI ein echter Gamechanger. Ein klassisches Beispiel sind Chatbots, die im Kundenservice eingesetzt werden. Sie arbeiten rund um die Uhr und können Standardfragen schnell beantworten – ohne menschliches Eingreifen.
Künstliche Intelligenz: rechtliche Risiken
Doch die Implementierung dieser neuen Technologien bringt rechtliche Herausforderungen mit sich, die oft unterschätzt werden. Bevor Mitarbeiterinnen oder Mitarbeiter ein KI-Tool wie beispielsweise ChatGPT für ihre Arbeit nutzen, sollten sie dies mit ihren Vorgesetzten absprechen. Ohne eine solche Abstimmung können rechtliche Probleme entstehen, besonders im Hinblick auf Urheberrecht und Datenschutz.
Nutzungsrechte bei KI-generierten Inhalten
Bei selbst erstellten Werken liegt das Urheberrecht immer bei der Autorin oder dem Autor. Im Arbeitsverhältnis wird jedoch das Nutzungsrecht normalerweise an den Arbeitgeber übertragen. Kommt nun ein KI-Tool zum Einsatz, könnte der Fall eintreten, dass gar kein Urheberrecht entsteht. Heißt: Der Arbeitgeber erhält dann auch kein Nutzungsrecht.
Vertrauliche Daten und KI: Was ist erlaubt?
Überdies kann die Eingabe unternehmens- oder personenbezogener Informationen in Anwendungen wie ChatGPT zu einem Verstoß gegen Verschwiegenheits- oder datenschutzrechtliche Bestimmungen führen. Entsprechend ist es wenig ratsam, mithilfe von KI etwa personalisierte E-Mails verfassen zu lassen. Die eingegebenen Daten (eben auch persönliche) werden von der Software nämlich unter Umständen zu Lernzwecken weiterverwendet.
Risiken bei automatisierten Entscheidungen
Ein weiteres Risiko besteht beim Gebrauch von ChatGPT im Zusammenhang mit Arbeitszeugnissen, Abmahnungen oder Beurteilungen: Laut §22 DSGVO dürfen Beschäftigte nicht automatisierten Entscheidungen unterworfen werden. Nach aktuellem Rechtsstand darf die KI zwar Empfehlungen abgeben, die letztendliche Entscheidung ist aber stets vom Menschen zu treffen.
Künstliche Intelligenz: Compliance-Maßnahmen für Unternehmen
Um die rechtlichen Risiken zu minimieren, sollten Unternehmen daher umfassende Compliance-Strategien entwickeln. Dazu gehören:
→ Eine datenschutzkonforme Implementierung: Wie aus den Urteilen C-340/21 und C-456/22 des Europäischen Gerichtshofs (EuGH) hervorgeht, verstärkt die Rechtsprechung die Anforderungen an Unternehmen, wenn es um Datenschutzverletzungen durch KI geht. Dabei wurde klargestellt, dass immaterielle Schäden durch die unsachgemäße Nutzung personenbezogener Daten ohne Bagatellgrenze anerkannt werden können, also bereits die bloße Befürchtung des künftigen Missbrauchs personenbezogener Daten entschädigungspflichtig sein kann. Dies bedeutet, dass Unternehmen ihre KI-Systeme so gestalten müssen, dass personenbezogene Daten gemäß DSGVO sicher verarbeitet werden, insbesondere im Hinblick auf die neue EuGH-Entscheidung zur Haftung und Schadensersatz.
→ Geklärte Haftungsfragen: Verträge mit KI-Anbietern sollten Haftungsfragen klar regeln. Zudem müssen Unternehmen eigene Haftungsrisiken durch den Einsatz von KI prüfen und absichern.
→ Regelungen zum Einsatz von KI im Arbeitsrecht: Unternehmen sollten klare Regelungen zum Einsatz von KI-Tools im Personalbereich schaffen und die Mitbestimmungsrechte der Arbeitnehmervertretungen beachten. Das Profiling, also das automatisierte Klassifizieren und Filtern von (künftigen) Arbeitnehmern ohne Beteiligung eines Menschen durch eine KI sollte generell unterlassen werden.
→ Schulungen und Sensibilisierung: Es empfiehlt sich dringend, Mitarbeitende regelmäßig zu schulen, um den korrekten und rechtssicheren Einsatz von KI im Unternehmen sicherzustellen.
Fazit
Die rechtlichen Herausforderungen bei der Nutzung von KI sind vielschichtig und haben sich in den letzten Monaten weiter konkretisiert. Insbesondere die Haftungsregelungen werden durch den KI-Haftungsrichtlinienvorschlag und die Entwicklungen im europäischen Datenschutzrecht strenger. Für Unternehmen ist es von zentraler Bedeutung, klare Compliance-Strategien zu entwickeln, um den gestiegenen Anforderungen an den Datenschutz gerecht zu werden – und gleichzeitig Haftungsrisiken zu minimieren. Der Einsatz von KI kann sich lohnen, doch muss der fortschreitenden rechtlichen Regulierung Rechnung getragen werden.
Unternehmen sollten daher die aktuellen rechtlichen Entwicklungen aktiv verfolgen und ihre internen Prozesse regelmäßig überprüfen, um rechtlichen Risiken vorzubeugen. Dies gilt insbesondere für Bereiche wie Datenschutz, Haftung und Arbeitsrecht, die zunehmend durch KI beeinflusst werden.
Gastbeitrag
Bitte beachten Sie, dass die Inhalte dieser Website ausschließlich zur allgemeinen Information erstellt wurden und nicht als rechtlicher Rat anzusehen sind. Zudem gilt grundsätzlich, dass jeder Fall individuell zu betrachten ist und verbindliche Beratung nur von einem Rechtsanwalt vorgenommen werden kann.
Dr. Waldhorn & Partner Rechtsanwälte mbB,
Andreas Waldhorn, Rechtsanwalt, Fachanwalt für Arbeitsrecht, Fachanwalt für Handels- und Gesellschaftsrecht
Das sollten Sie wissen:
Europäische Verordnung über Künstliche Intelligenz (AI Act)
Seit dem 1. August 2024 gilt die Europäische Verordnung über Künstliche Intelligenz (KI-Verordnung). Sie zielt darauf ab, KI-Innovationen zwar weiterhin zu fördern und ihr Potenzial voll auszuschöpfen, gleichzeitig aber deren Risiken zu beobachten, die Verbraucherinnen und Verbraucher zu schützen und so das Vertrauen in die KI zu stärken.
So sind beispielsweise alle KI-Systeme verboten, die die Rechte des Einzelnen gefährden. Darunter fallen unter anderem das sogenannte „Social Scoring“, also die Bewertung sozialen Verhaltens, oder die Emotionserkennung am Arbeitsplatz. Diese Programme werden in der Europäischen Union (EU) nicht zum Einsatz kommen. Und auch die biometrische Fernidentifikation ist im Visier der Verordnung, die diesbezüglich strenge einschränkende Vorgaben enthält und damit einer flächendeckenden Überwachung vorbeugt.
Das sollten Sie wissen:
KI-Haftungsrichtlinie (KI-Haftungs-RL)
Die KI-Haftungsrichtlinie regelt haftungsrechtliche Fragen im Zusammenhang mit Schäden, die durch KI-Systeme verursacht werden. Sie zielt darauf ab, geschädigten Personen den Zugang zu Schadensersatz zu erleichtern, insbesondere bei Hochrisiko-KI.
Wichtige Punkte:
Beweislastumkehr: Die Richtlinie enthält eine – widerlegliche – Kausalitätsvermutung, die es Geschädigten erleichtert, Haftungsansprüche geltend zu machen. Unternehmen müssen in bestimmten Fällen nachweisen, dass der Schaden nicht durch ihre KI verursacht wurde.
Zugang zu Beweismitteln: Betroffene können auf Antrag eine Offenlegung relevanter Informationen über die Funktionsweise von KI-Systemen verlangen.
Geltungsbereich: Die Richtlinie konzentriert sich auf Haftungsfragen und ergänzt bestehende Rechtsvorschriften, darunter etwa die Produkthaftungsrichtlinie.
Veröffentlicht am 13.12.2024