Zum Inhalt springen
FM-Connect Chat

Hallo! Ich bin Ihr FM-Connect Chat-Assistent. Wie kann ich Ihnen helfen?

FM-Solutionmaker: Gemeinsam Facility Management neu denken

Mitbestimmung im Betrieb: Grundlagen und Anwendung in der Praxis

Facility Management: AI » Grundlagen » Rechtlicher Rahmen » Mitbestimmung

Datenschutz-Folgenabschätzung (DSFA) im Kontext von Künstlicher Intelligenz (KI)

Datenschutz-Folgenabschätzung (DSFA) im Kontext von Künstlicher Intelligenz (KI)

Die Datenschutz-Folgenabschätzung (DSFA) ist ein zentrales Instrument der Datenschutz-Grundverordnung (DSGVO), um die Risiken der Verarbeitung personenbezogener Daten zu bewerten und zu minimieren. Insbesondere bei der Nutzung von Künstlicher Intelligenz (KI), die oft auf großen Datenmengen und komplexen Algorithmen basiert, ist eine DSFA in vielen Fällen verpflichtend. KI-Systeme bergen potenziell hohe Risiken für die Rechte und Freiheiten betroffener Personen, weshalb die DSFA eine zentrale Rolle spielt.

Anpassung des Betriebs von LLMs an Datenschutzvorschriften

Künstliche Intelligenz (KI)

Künstliche Intelligenz in der Sicherheit

Roboterhand hält Vorhängeschloss: symbolisiert KI-gestützte Sicherheitslösungen für moderne Technologien.

Ein Hamburger Unternehmen nutzt ChatGPT für Arbeitsprozesse ohne Betriebsratsbeteiligung. Das Arbeitsgericht entschied, dass der Betriebsrat kein Mitbestimmungsrecht hat, da keine Überwachung stattfindet und keine psychische Belastung entsteht.

Datenschutzkonformität von LLMs (Large Language Models) erfordert keine Verarbeitung personenbezogener oder sensibler Daten.

Kein Mitbestimmungsrecht des Betriebsrats

  • Begründung: Das Arbeitsgericht entschied, dass der Betriebsrat kein Mitbestimmungsrecht hat. Normalerweise hat der Betriebsrat ein Mitbestimmungsrecht bei der Einführung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen.

  • Kein Überwachungscharakter: In diesem Fall argumentierte das Gericht, dass durch die Nutzung von ChatGPT keine Überwachung der Mitarbeiter stattfindet. ChatGPT wird hier wahrscheinlich eher zur Unterstützung bei Arbeitsprozessen genutzt, ohne dass dabei eine Überwachung der individuellen Arbeitsweise der Mitarbeiter erfolgt.

  • Keine psychische Belastung: Zusätzlich stellte das Gericht fest, dass die Nutzung von ChatGPT keine psychische Belastung für die Mitarbeiter verursacht. Dies könnte bedeuten, dass die Anwendung von ChatGPT keine zusätzlichen Stressfaktoren oder Druck auf die Arbeitnehmer erzeugt, sondern vielmehr als neutrales Werkzeug fungiert.

Verarbeitung personenbezogener oder sensibler Daten

  • Erforderlichkeit: Für die Datenschutzkonformität von Large Language Models (LLMs) wie ChatGPT ist es entscheidend, dass diese keine personenbezogenen oder sensiblen Daten verarbeiten. Wenn personenbezogene Daten verarbeitet werden, müssen strenge Datenschutzrichtlinien eingehalten werden.

  • Anonymität und Datenminimierung: Die Modelle sollten so eingesetzt werden, dass keine Rückschlüsse auf individuelle Personen gezogen werden können. Dies kann durch Datenminimierung und Anonymisierung erreicht werden. Beispielsweise sollten keine Namen, Adressen oder andere identifizierbare Informationen eingegeben oder verarbeitet werden.

  • Sicherheitsmaßnahmen: Es müssen angemessene technische und organisatorische Maßnahmen ergriffen werden, um die Daten vor unbefugtem Zugriff zu schützen. Dazu gehören Verschlüsselung, Zugangsbeschränkungen und regelmäßige Überprüfungen der Systeme.