Warum Mitarbeitende KI-Tools unternehmensgefährdend einsetzen – und was dagegen wirklich hilft

TL;DR? Warum Sie es trotzdem lesen sollten (aufklappen)

Die Marketingmanagerin hat nur zwei Stunden Zeit für eine Wettbewerbsanalyse, die normalerweise einen Tag dauert. Sie öffnet ChatGPT auf ihrem privaten Account, lädt das vertrauliche Strategiepapier hoch und erstellt so in 20 Minuten eine brillante Zusammenfassung. Ihr Vorgesetzter lobt sie für die Effizienz. Was niemand weiß: Die sensiblen M&A-Pläne des Unternehmens liegen nun auf den Servern von OpenAI – und könnten theoretisch für das Training zukünftiger Modelle verwendet werden oder was OpenAI nach den geltenden Nutzungsbedingungen (die wir alle natürlich detailliert gelesen haben) noch so damit tun darf.

Diese Szene ist keine Ausnahme. Sie ist der Alltag in europäischen Unternehmen. Und das eigentlich Bemerkenswerte: Die Mitarbeitenden haben nichts Böses im Sinn. Im Gegenteil – sie wollen ihrem Unternehmen helfen, schneller und besser zu arbeiten. Doch genau diese guten Absichten werden zum Sicherheitsrisiko.

Das Paradox der konstruktiven Regelübertretung

Was die Forschung seit Jahren unter dem Begriff „Constructive Deviance“ kennt – Regelbruch mit konstruktiver Absicht – erlebt durch generative KI eine dramatische Beschleunigung. Aktuelle Studien zeigen ein alarmierendes Bild: 93 Prozent der Mitarbeitenden geben zu, Handlungen durchgeführt zu haben, die Cybersecurity-Risiken erhöhen. 74 Prozent würden Sicherheitsvorgaben bewusst umgehen, wenn es dem Team hilft, Geschäftsziele zu erreichen. Und 69 Prozent haben bereits Cybersecurity-Policies ignoriert, um ihre Arbeit effizienter zu erledigen.

Die Psychologie dahinter ist gut erforscht: Menschen mit ethischem Führungsanspruch und hoher Motivation brechen Regeln, wenn sie glauben, damit dem Unternehmen zu dienen – aber ihre „begrenzten Fähigkeiten und fehlendes Wissen“ verwandeln die gute Absicht in destruktive Konsequenzen. Diese Mitarbeitenden „beurteilen die Rationalität ihrer Handlungen falsch“: Sie handeln im Glauben, das Beste für die Organisation zu tun, verstehen aber nicht, welche Risiken sie erzeugen.

Die Zahlen aus der Praxis bestätigen das: Eine Analyse von 22,4 Millionen Enterprise-AI-Prompts durch Harmonic Security fand 579.000 Eingaben mit sensiblen Unternehmensdaten – darunter Quellcode (30 Prozent), rechtliche Dokumente (22,3 Prozent), M&A-Informationen (12,6 Prozent) und Finanzprognosen (7,8 Prozent). Besonders alarmierend: 87 Prozent der ChatGPT-Datenlecks erfolgten über kostenlose persönliche Accounts, bei denen Unternehmen keinerlei Kontrolle haben.

Der Sicherheitsexperte und Harmonic-CEO Alastair Paterson bringt es auf den Punkt: „Your employees aren’t trying to harm your business. They’re well-intentioned staff members who simply don’t recognize the risks.“ („Ihre Mitarbeitenden versuchen nicht, Ihrem Unternehmen zu schaden. Es sind wohlmeinende Mitarbeiter, die die Risiken schlicht nicht erkennen.“)

Die sechs psychologischen Fallen, warum Menschen gutgemeint grobe Fehler begehen

Um das Problem zu lösen, müssen wir verstehen, warum intelligente, loyale Mitarbeitende ihre Vernunft ausschalten, wenn sie auf „Send“ drücken. Die Forschung identifiziert sechs zentrale Mechanismen:

1. Das Produktivitäts-Paradox

Der wichtigste Treiber ist der ständige Druck, schneller und effizienter zu arbeiten. „When security measures slow them down, they find workarounds“ („Wenn Sicherheitsmaßnahmen sie ausbremsen, finden sie Umgehungen“), fasst eine Studie zu Employee Cybersecurity Mistakes zusammen.

KI scheint die Lösung, erhöht aber gleichzeitig nochmals die Erwartungen.
77 Prozent der KI-Nutzer berichten, dass Tools ihre Arbeitslast erhöht statt reduziert haben. Die Folge ist ein Teufelskreis: Mitarbeitende suchen noch mehr Shortcuts – und umgehen dabei immer häufiger KI-Sicherheitsvorkehrungen.

In Deutschland gehen rund 42% der Unternehmen davon aus, dass Beschäftigte im Job private generative KI-Tools wie ChatGPT, Claude oder Gemini über eigene Accounts nutzen (8% „weit verbreitet“, 17% Einzelfälle, weitere 17% vermuten es).
Gleichzeitig stellt nur etwa ein Viertel (26%) der Unternehmen offiziell generative KI-Tools zur Verfügung, bei großen Unternehmen sind es 43%.

„Shadow IT doesn’t arise from malicious intent, but rather from productivity pressures, slow approval processes, a lack of or unintuitive official tools, and insufficient awareness of the risks“ („Schatten-IT entsteht nicht aus böser Absicht, sondern aus Produktivitätsdruck, langsamen Freigabeprozessen, fehlenden oder unintuitiven offiziellen Tools und unzureichendem Risikobewusstsein“), analysiert ein Report zu deutschen KMUs.

2. Das Trust-Assumption-Problem

Besonders in mittelständischen Unternehmen basiert die Arbeitskultur auf hohem Vertrauen und informellen Prozessen. „Employees assume that emails from familiar addresses are legitimate, that colleagues‘ requests are genuine“ („Mitarbeitende gehen davon aus, dass E-Mails von bekannten Adressen legitim sind, dass Anfragen von Kollegen echt sind“), erklärt eine Cybersecurity-Studie. Diese Vertrauenshaltung wird unbewusst auf KI-Tools übertragen: „ChatGPT fühlt sich vertrauenswürdig an, also wird es sicher sein.“

3. Die Wissenslücke

45 Prozent der Mitarbeitenden erhalten keinerlei Security-Schulung, und die, die Training bekommen, vergessen das Gelernte nach sechs Monaten. In Europa kommt erschwerend hinzu, dass IT-Abteilungen Policies oft nicht klar kommunizieren und vor allem nicht erklären, warum bestimmte Beschränkungen existieren. „Employees engage in shadow IT without realizing risks“ („Mitarbeitende nutzen Schatten-IT, ohne sich der Risiken bewusst zu sein“), stellt eine Analyse fest.

Die EU versucht gegenzusteuern: Seit Februar 2025 verpflichtet Artikel 4 des AI Act Unternehmen, „a sufficient level of AI literacy“ („ein ausreichendes Niveau an KI-Kompetenz“) bei ihren Mitarbeitenden sicherzustellen. In Deutschland ergänzt dies § 80 Abs. 3 BetrVG, der Betriebsräten das Recht gibt, externe Experten hinzuzuziehen, wenn KI-Systeme eingeführt werden. Doch zwischen regulatorischer Verpflichtung und gelebter Praxis klafft eine Lücke.

4. Optimismus-Bias und Normalisierung

„I’ve used this tool for months without issues“ („Ich nutze dieses Tool seit Monaten ohne Probleme“) – dieser kognitive Kurzschluss ist laut Forschung einer der häufigsten Rechtfertigungsmechanismen. Hinzu kommt Peer Influence: „Everyone uses this app—must be fine“ („Alle nutzen diese App – muss also in Ordnung sein“). Wenn keine sichtbaren Konsequenzen folgen, wird riskantes Verhalten normalisiert. In einer Umfrage gaben Mitarbeitende an, bewusst gegen Policies zu verstoßen, weil sie „kognitive Dissonanz“ erleben: „Ich weiß, es ist gegen die Richtlinien, aber ich muss Deadlines einhalten.“

5. Anthropomorphisierung und falsche Intimität

Der freundliche und persönliche Ton von ChatGPT, Claude oder Gemini erzeugt eine gefährliche psychologische Falle. „Conversational tone creates false intimacy and trust“ („Der gesprächige Ton erzeugt falsche Intimität und Vertrauen“), warnt eine Studie zu AI-Oversharing. Nutzer behandeln Chatbots wie menschliche Vertrauenspersonen (= Anthropomorphisierung), vergessen aber, dass es sich um „internet-connected systems“ („mit dem Internet verbundene Systeme“) handelt. Läuft doch auf dem eigenen Rechner.

Forschung in den Proceedings of the National Academy of Sciences (PNAS) zeigt: Wenn KI „Empathie“ zeigt, steigt die wahrgenommene Wärme – und damit die Bereitschaft, persönliche Informationen zu teilen. Der Effekt verstärkt sich durch „reziproke Selbstoffenbarung“: Wenn die KI Informationen teilt, fühlen sich Nutzer verpflichtet, ebenfalls zu teilen.

6. Automation Bias und die Erosion des Selbstvertrauens

Sobald KI in den Workflow integriert ist, werden ihre Outputs als „authoritative truths“ („maßgebliche Wahrheiten“) betrachtet, selbst wenn widersprüchliche Informationen vorliegen. 40 Prozent der Wissensarbeiter übernehmen KI-Ergebnisse ohne kritische Prüfung. 52 Prozent der Generation Z (zwischen 1995 und 2010 Geborene) vertrauen GenAI aktiv bei wichtigen Entscheidungen voll und ganz.

Die neurologischen Folgen sind messbar: Eine Studie fand bei ChatGPT-Nutzern 55 Prozent weniger neuronale Konnektivität im Vergleich zu Arbeitern, die eigenständig denken. „Persistent AI interaction leads employees to doubt instincts and depend on AI“ („Anhaltende KI-Interaktion führt dazu, dass Mitarbeitende ihren eigenen Instinkten misstrauen und von KI-Unterstützung regelrecht abhängig werden“), fasst die Forschung zusammen. Der Wechsel erfolgt von „Ideen entwickeln“ zu „KI-Vorschläge absegnen“ zu unmittelbarem „Copy/Paste“.

Zwischenfazit: Mitarbeitende sind unter Druck stehende Menschen mit guten Absichten, die von Psychologie, mangelnder Schulung und fehlendem Verständnis daran gehindert werden, sichere Entscheidungen zu treffen. Und hier können Sie direkt ansetzen!

Die Blockade-Falle: Warum Verbote Shadow AI verschlimmern

Die erste Reaktion vieler Unternehmen: Blockieren. 86 Prozent der Organisationen haben GenAI-Sites gesperrt oder erwägen dies, und 82 Prozent sind unsicher, was Mitarbeitende auf KI-Plattformen tun. Doch Shadow AI bleibt bestehen, und frustrierte Mitarbeitende finden Umgehungen.

Der zentrale Fehler: Blockierung ohne Erklärung erzeugt Frustration und verschlimmert das Problem. Andreas Lüning, CEO von G DATA CyberDefense, kommentiert: „It is important that companies check which processes can be made more efficient by using AI. At the same time, clear guidelines on data security and data protection must be issued to ensure that the new technologies are used responsibly.“ („Es ist wichtig, dass Unternehmen prüfen, welche Prozesse durch KI effizienter gemacht werden können. Gleichzeitig müssen klare Richtlinien zu Datensicherheit und Datenschutz ausgegeben werden, um sicherzustellen, dass die neuen Technologien verantwortungsvoll genutzt werden.“)

Die Lösung liegt nicht in Verboten, sondern in einem Paradigmenwechsel: von Bestrafung zu Enablement, von Kontrolle zu Verständnis.

Das Copilot-Dilemma: Ein kurzer Ausblick

Viele Unternehmen versuchen, das Problem zu lösen, indem sie ChatGPT verbieten und stattdessen Microsoft Copilot bereitstellen. Das sollte funktionieren – tut es aber meist nicht.

Der Grund: Copilot basiert zwar auf denselben GPT-4-Modellen wie ChatGPT, wird aber durch Enterprise-Guardrails zur Compliance so stark eingeschränkt, dass Mitarbeitende sofort den Unterschied spüren. Bei komplexen Codierungsaufgaben, Datenanalysen oder kreativen Anfragen scheitert Copilot deutlich häufiger als ChatGPT. Copilot wirkt im Vergleich zu ChatGPT saudumm und unfähig. Eine Zumutung anstatt einer Hilfe. Die Frustration führt dazu, dass selbst Microsoft-Mitarbeitende lieber privat für ChatGPT bezahlen – und dort natürlich gleich wieder sensible Daten hochladen.

Eine Xenoss-Analyse fasst das Problem zusammen: „Internal resistance because employees want ChatGPT over Copilot for daily AI assistance, undermining enterprise mandate effectiveness.“ („Interner Widerstand, weil Mitarbeitende ChatGPT gegenüber Copilot für die tägliche KI-Unterstützung bevorzugen, was die Wirksamkeit des Unternehmens-Mandats untergräbt.“)

Das Dilemma ist real – und ich werde es in einem kommenden Beitrag ausführlich analysieren. Die Kernbotschaft schon jetzt: Sichere Alternativen funktionieren nur, wenn sie auch gut genug sind. Ansonsten umgehen Mitarbeitende alle Schutzversuche des Unternehmens.

Was wirklich funktioniert: Von Misstrauen zu Miteinander

Erfolgreiche AI Governance basiert nicht auf Technologie, sondern auf fünf grundlegenden Prinzipien:

Prinzip 1: Empathische Kommunikation statt Sanktionen

„Employees are far more likely to engage with security protocols when they feel understood and not judged“ („Mitarbeitende engagieren sich viel eher für Sicherheitsprotokolle, wenn sie sich verstanden und nicht verurteilt fühlen“), erklärt ein Report zu Empathy-Driven Cybersecurity.

Der Ansatz reframed Sicherheitsmaßnahmen „als uns Alle unterstützende Maßnahme statt als Gängelung des Einzelnen.“

Das Think-Feel-Say-Do Framework hilft den für Sicherit zuständigen Personen, die Perspektive der gut-meinenden Mitarbeitenden zu verstehen:

  • Think: Was denken sie? („Phishing-Tests sind Fallen, um mich zu erwischen“)
  • Feel: Was fühlen sie? (Angst vor Versagen, Frustration mit komplexen Policies)
  • Say: Was sagen sie? („Security verlangsamt alles“)
  • Do: Was tun sie? (Umgehen Regeln, verstecken Fehler)

Tactical Empathy in der Praxis bedeutet:

  • Statt: „Sie haben gegen die Policy verstoßen.“
  • Besser: „Ich verstehe, dass die Deadline eng war. Lass uns gemeinsam eine sichere Lösung finden.“
  • Ziel: „‚Help me to help you‘ instead of ‚No‘.“ („‚Hilf mir, dir zu helfen‘ statt ‚Nein‘.“)

Prinzip 2: Emotionale Sicherheit schaffen

Ein entscheidender Erfolgsfaktor ist eine „atmosphere of emotional safety“ („Atmosphäre emotionaler Sicherheit“), in der Mitarbeitende Bedenken ausdrücken können, ohne Angst vor Vergeltung zu haben. „When security policies rely on intimidation or punishment, people are more likely to hide mistakes rather than learn from them“ („Wenn Sicherheitsrichtlinien auf Einschüchterung oder Bestrafung beruhen, neigen Menschen eher dazu, Fehler zu verstecken, statt daraus zu lernen“), warnt eine Studie zu Cybersecurity Culture.

Der größte Risikofaktor für Security-Teams ist nicht der Vorfall selbst, sondern die Tatsache, dass er nicht gemeldet wird: „One of the biggest risks for an information security team is being unaware of real issues because employees fear reporting incidents.“ („Eines der größten Risiken für ein Informationssicherheitsteam ist es, sich der echten Probleme nicht bewusst zu sein, weil Mitarbeitende Angst haben, Vorfälle zu melden.“)

Die Lösung ist eine Just Culture: Ehrliche Fehler führen nicht zu Bestrafung, grobe Fahrlässigkeit hat klare Konsequenzen, absichtliches Fehlverhalten rechtliche Folgen. Dazu gehören anonyme Reporting-Kanäle und positive Verstärkung für Wachsamkeit: „Even small gestures can encourage employees to be more proactive.“ („Selbst kleine Gesten können Mitarbeitende ermutigen, proaktiver zu sein.“). Dabei muss der schmale Grad zwischen „Meldung ist wichtig, um mehr Verständnis und Sicherheit zu bringen“ vs. „Meldung als ständige Angst vor dem schon brennenden Scheiterhaufen, auf den der Missetäter ohne Verhandlung geworfen wird“.

Eine ISC2-Studie zu Phishing-Training zeigt: Positive Verstärkung und Sensibilisierung führt zu stärkerem Engagement und schnelleren Reaktionen als Bestrafung. „The last thing we need is to make people on our own team feel like the enemy“ („Das Letzte, was wir brauchen, ist, dass Menschen in unserem eigenen Team sich wie der Feind fühlen“), fasst der Report zusammen.

Prinzip 3: Kontinuierliche, kontextrelevante Schulung

Einmalige Trainings versagen, weil Mitarbeitende nach spätestens sechs Monaten vergessen haben (oder der Leistungsdruck zu neuer Umgehung von Sicherheitsregeln führt) und sich zudem Bedrohungen von Außen schneller entwickeln als jährliche Schulungen.

Der moderne Ansatz: Quarterly Training kombiniert mit monatlichen 15-Minuten-Micro-Lessons.

Entscheidend ist, KI-spezifische Inhalte in Alltagssituationen zu vermitteln. Zu schulen, wie DeepFake-Angriffe erkannt werden ist gut, die alltägliche Bedrohung des Unternehmens von Innen ist aber noch wahrscheinlicher, als ein gut durchdachter Angriff von außen. Daher folgende Inhalte:

  • Was ist der Unterschied zwischen ChatGPT Free und Enterprise? Und warum ist der Unterschied wichtig?
  • Welche Daten sind sensibel? (Nicht nur personenbezogene Daten, auch Code, M&A, Finanzprognosen, Planungen, Ideen …)
  • Wo werden Daten verarbeitet? (US, EU, China?) und was sind die entscheidenden Unterschiede und warum ist das wichtig?
  • Was passiert mit meinen Prompts? (Retention, Training, Cross-contamination)

Prinzip 4: Sichere Alternativen bereitstellen – die pragmatische Lösung

Die beste Strategie ist es, sichere Tools bereitzustellen, die dann aber tatsächlich funktionieren müssen. Und zwar so gut wie das, wass OpenAI und Google bereits kostenfrei jedem verfügbar machen! Das bedeutet:

Für niedrig-sensible Tasks: z.B. ChatGPT Enterprise mit Daten-Governance
Für high-risk: Internal AI Sandbox (Air-gapped, also getrennt von der Außenwelt, keine Cloud-Speicherung!)
Für Coding: GitHub Copilot (kontrolliert eingesetzt nach Schulung, spezialisiert, weniger Governance-Overhead)
Für allgemeine Aufgaben: Microsoft Copilot – aber nur, wenn Sie transparent über die Gründe von Limitationen kommunizieren

Entscheidend ist: Context-Aware Controls unterscheiden zwischen Risikostufen. Research und Brainstorming sind (unter Berücksichtigung der generellen Vertraulichkeitsregeln) erlaubt, Verträge hochladen und Personendaten triggern Real-time Nudges (Warnmeldung beim Nutzer, dass hier ein Risiko vorliegt) mit der Nennung sicheren Alternativen.
Helfen statt verbieten.

Prinzip 5: Transparenz über das „Warum“

IT-Abteilungen sagen „Das ist verboten“, erklären aber nicht, warum. Mitarbeitende brauchen Kontext: Wie würde ein Breach sie persönlich betreffen? Was bedeutet diese „kleine“ Nachlässigkeit für das Unternehmen, seine Reputation? Was sind rechtliche Konsequenzen?

Konsequenzen greifbar machen:

  • „Ein Datenleck könnte Kunden kosten → weniger Revenue → Bonusse gestrichen, Beförderungen gestoppt.“
  • „Ihre persönlichen Daten könnten betroffen sein – Payroll, Healthcare.“
  • „Regulatorische Strafen nach GDPR oder AI Act → Arbeitsplätze gefährdet.“

Storytelling schlägt abstrakte Regeln: Zeigen Sie anonymisierte Real-World-Cases. Beispiel: „Letztes Quartal lud ein Mitarbeitender ein M&A-Dokument in ChatGPT, bevor der Deal publik war – potenzielle Insider-Trading-Konsequenzen.“

Europäische Besonderheiten: Betriebsräte und AI Act

In Europa kommt eine zusätzliche Compliance-Dimension hinzu. Der AI Act verlangt bei High-Risk-Systemen (z.B. HR-Tools für Bewerberauswahl) die Information von Arbeitnehmervertretungen und betroffenen Mitarbeitenden, bevor das System in Betrieb geht (Artikel 26 Abs. 4).

In Deutschland, Frankreich, Italien, Luxemburg und den Niederlanden bestehen unabhängige Konsultationspflichten mit Betriebsräten, Gewerkschaften oder Works Councils. Ein wegweisendes Urteil des Tribunal de Nanterre im Februar 2025 machte klar: Selbst die Pilotphase von KI-Tools mit ausgewählten Mitarbeitenden erfordert vorherige Konsultation des Works Council (Betriebsrat). „This case sets an important precedent for companies implementing AI technologies in France, highlighting the necessity of proper employee consultation procedures“ („Dieser Fall schafft einen wichtigen Präzedenzfall für Unternehmen, die KI-Technologien in Frankreich implementieren, und unterstreicht die Notwendigkeit ordnungsgemäßer Konsultationsverfahren mit Mitarbeitenden“), kommentiert die Anwaltskanzlei Armingaud.

Die Konsequenzen bei Nicht-Compliance sind drastisch: Bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes bei verbotenen KI-Praktiken, bis zu 15 Millionen Euro oder 3 Prozent bei Verstößen gegen High-Risk-Regulierungen.

Deutsche Mittelständler: Zwischen Hidden Champions und Digitalisierungs-Blockade

Deutschland steht vor einem Paradox: Von weltweit rund 4.000 Hidden Champions – geheimen Weltmarktführern in ihren Nischen – sind 1.600 in Deutschland ansässig. Sie investieren doppelt so viel in F&E wie der Branchendurchschnitt und melden fünfmal mehr Patente an als Großkonzerne.

Doch nur 27 Prozent der deutschen Mittelständler nutzen KI, verglichen mit 41 Prozent der großen EU-Unternehmen. Die Produktivitätslücke zu US-Unternehmen wächst: Der durchschnittliche europäische Arbeiter produziert nur noch 76 Prozent dessen, was sein US-Pendant leistet – Unterinvestition in Technologie ist eine Hauptursache.

Die Barrieren sind bekannt:

  • Mangel an KI-Expertise und Talentknappheit
  • Unsicherheit über Return on Investment
  • Datenqualitäts- und Verfügbarkeitsprobleme
  • Integrations-Herausforderungen mit bestehenden Systemen
  • Bedenken zu Datenschutz und Sicherheit
  • Kulturelle Faktoren: Traditionelle Betonung menschlicher Expertise kollidiert mit der „Black Box“ KI

„The challenge is to integrate AI sensibly into existing processes“ („Die Herausforderung besteht darin, KI sinnvoll in bestehende Prozesse zu integrieren“), sagt Klaus Wohlrabe, Leiter Umfragen beim ifo Institut. Doch 54 Prozent der deutschen KMUs nutzen keine Projektmanagement-Software, obwohl sie deren Nutzen erkennen – 60 Prozent nennen Zeitmangel, 54 Prozent Komplexität als Hindernis.

Die Lösung: „Upskilling existing employees rather than relying solely on new hires“ („Weiterbildung bestehender Mitarbeitender statt ausschließlicher Fokus auf Neueinstellungen“) und „fostering a culture of continuous learning“ („Förderung einer Kultur des kontinuierlichen Lernens“), kombiniert mit klaren, mitarbeiterzentrierten KI-Governance-Strukturen.

Was das für Unternehmen bedeutet

Zurück zur Marketingmanagerin vom Anfang: Was hätte passieren müssen, damit sie anders handelt?

Nicht: „ChatGPT ist verboten.“

Sondern: „Hier ist ChatGPT Enterprise – deine Daten bleiben bei uns. Hier ist ein 15-minütiges Training, das erklärt, warum wir das anbieten und was darin anders ist, als bei deinem privaten ChatGPT und warum du nur die Firmenversion für Firmendaten nutzen darfst. Und hier bekommst du weitere Schulungen. Und dein Kollege Herr/Frau X ist in der Abteilung Ansprechpartner/in, wenn du mal schnell mehr wissen willst oder Fragen hast.“

So einfach.


Die zentrale Erkenntnis: Mitarbeitende, die KI-Tools unternehmensgefährdend einsetzen, sind keine Sicherheitsrisiken – sie sind unter Druck stehende Menschen mit guten Absichten, die bessere Werkzeuge, klarere Kommunikation, echtes Verständnis für die Zusammenhänge und Auswirkungen und emotionale Sicherheit brauchen, um richtige Entscheidungen zu treffen.

Die Forschung zu Cybersecurity Fatigue zeigt: Mitarbeitende in IT, Finanzen, Gesundheitswesen und Bildung leiden unter erheblichem psychischem Stress durch komplexe Security-Anforderungen. 73 Prozent der europäischen IT-Professionals berichten von Burnout, 75 Prozent haben Cyber-Incivility erlebt, die ihre intrinsische Motivation und ihr Wohlbefinden beeinträchtigt.

Das Dilemma ist real. Die Lösung ist menschlich.

Unternehmen können ab morgen beginnen: durch transparente Kommunikation über Trade-offs (warum ist Copilot anders als ChatGPT?), durch Einbindung von Mitarbeitenden in die Werkzeugauswahl, durch kontinuierliche Schulung statt einmaliger Compliance-Übungen, durch emotionale Sicherheit statt Sanktionen.

Die regulatorischen Anforderungen des AI Act – von AI Literacy (Artikel 4) über High-Risk-System-Information (Artikel 26) bis zu Works-Council-Konsultationen – sind nicht Bürde, sondern Chance: Sie zwingen Unternehmen, das zu tun, was sie längst hätten tun sollen: Mitarbeitende nicht belehren, sondern befähigen. Nicht blockieren, sondern ermöglichen. Nicht bestrafen, sondern verstehen.

Denn am Ende sind es nicht die KI-Tools, die Risiken schaffen – es ist die Art, wie wir als Organisationen mit den Menschen umgehen, die diese Tools nutzen.

Wer jetzt nicht handelt, wird in einem Jahr feststellen: Die 87 Prozent Datenlecks über private ChatGPT-Accounts sind nicht verschwunden. Sie sind nur besser versteckt.