Wenn KI das Ruder übernimmt – Microsoft 365 Copilot als Risiko für Unternehmen und Beschäftigte
Unser Standpunkt
Unser Standpunkt
Microsoft 365 Copilot ist nützlich, birgt allerdings Risiken. Wer will schon, dass der Chef in Sekundenschnelle die eigene Stimmung identifiziert. Anders als es Microsoft glauben machen will, gibt es nicht nur einen Copiloten, es könnten mehrere Tausend sein. Wer steuert hier eigentlich die Unternehmen, fragt sich Technologieberater Nils Schlesinger.
»Produktivität neu definieren« – so lautet die Werbung für Microsoft 365 Copilot. Das KI-unterstützte Tool, das auf denselben Large-Language-Modellen beruht wie ChatGPT, kann in verschiedene Microsoft 365 Apps integriert werden und soll dabei helfen, in kürzester Zeit mehr erledigen zu können.
In Outlook ist es möglich, lange E-Mail-Korrespondenzen zusammenzufassen oder aus den in der Urlaubszeit eingetroffenen E-Mails die fünf relevantesten herauszusuchen. Wobei nicht belegt ist, nach welchen Kriterien die Auswahl erfolgt, ob sie verlässlich ist oder doch einer Nachprüfung bedarf.
Copilot kann umfassende Word-Dokumente zusammenfassen, wandelt Texte in Folien für PowerPoint um und führt Datenanalysen in Excel aus. Eine weitere Anwendung für den Copiloten betrifft Microsoft Teams. Transkribieren, Aufgaben verteilen, automatisch Protokolle erstellen und deren Inhalte zusammenzufassen – das ist bekannt. Jedem Large-Language-Modell ist jedoch eigen, dass es nahezu unmöglich ist, das Zustandekommen der Ergebnisse herzuleiten.
Das bedeutet aber auch: Arbeitgeber könnten die Leistung und das Verhalten eines Beschäftigten auf der Grundlage von schriftlichen Inhalten bewerten, beispielsweise Dateien, Dokumente, Teams-Chats, E-Mail-Korrespondenz, Teams-Inhalte, emotionale Reaktionen (Emojis), Abschriften von automatisch aufgezeichneten Besprechungen und vieles mehr, schreiben Forscher*innen der Norwegischen Universität für Wissenschaft und Technologie Trondheim. Die Beschäftigten hätten keine Möglichkeit zu erfahren, ob eine solche Bewertung ihrer Person stattgefunden habe. Es ist auch unklar, welche Annahmen, Parameter und Werte als Grundlage für die von Copilot vorgenommenen Bewertungen verwendet würden. Umso problematischer werden solche Auswertungen, weil Copilot mitunter halluziniert, also Dinge erfindet.
Personalverantwortliche ohne Copilot?
Damit wird deutlich, dass der Copilot zwar nützlich ist, aber unbedingt der Regulierung bedarf. Der Betriebsrat hat in Bezug auf die mögliche Leistungs- und Verhaltenskontrolle klare Mitbestimmungsrechte und kann diese geltend machen. Schon vor dem Einsatz des Copiloten konnten über den Office Graph Nutzungsverhalten analysiert und die persönlichen Beziehungen zwischen den Kolleg*innen sichtbar gemacht und daraus Profile erstellt werden. Dafür musste eine Führungskraft jedoch über spezielle Kenntnisse verfügen oder sich von der IT-Abteilung unterstützen lassen, die eine solche Analyse mit Hinweis auf die Unternehmens-Compliance womöglich abgelehnt hätte. Heute ist das in Sekundenschnelle möglich. Zumindest prüfen sollte man die Idee der Norwegischen Universität für Wissenschaft und Technologie in Trondheim, Führungskräften mit Personalverantwortung keinen Zugang zu Copilot zu geben.
Tausende Copiloten
Ein grundlegendes Problem besteht zudem darin, dass es nicht einen Microsoft Copiloten gibt, sondern mindestens zehn: Copilot for Sales, Copilot for Service, for Finance, Power Platform, Viva und andere. Und da es bald möglich ist, im Microsoft Copilot Studio den Copiloten beliebig auf eigene Bedarfe anzupassen, könnte eine große Menge fragmentierter Microsoft Copiloten entstehen, die nach persönlichen Präferenzen angepasst werden. Die Copiloten werden auf spezielle Funktionalitäten trainiert. Aber welche Datenquelle wird von welchem Copiloten verwendet? Das ist nur eine der Fragen, die sich Microsoft-Experte Mahmoud Hassan in seinem Beitrag auf Linkedin stellt, dem er ein Schaubild der Microsoft Copilot Architektur beigefügt hat.
Problematisch wird das vor allem, wenn ein Copilot konkreten Richtlinien unterworfen ist, ein anderer nicht. So kann der Copilot in Microsoft Teams zwar ein Transkript einer Teamsitzung erstellen, wenn er aber nach der Stimmungsanalyse einer Kollegin gefragt wird, antwortet er nicht. Kopiert man den transkribierten Text jedoch in einen anderen Copiloten, der einem anderen Set an Richtlinien folgt, kann die Stimmungsanalyse wieder möglich werden: Wie ist die Einstellung eines Mitarbeiters zur Arbeit und zum Unternehmen? Ist er in der Besprechung mit einer zynischen Haltung aufgefallen, hat er sich abfällig geäußert? Der Copilot kann gezielt nach solchen Kriterien suchen.
Ständige Updates
Die Unübersichtlichkeit vieler tausend fragmentierter Copiloten wird durch permanente Systemanpassungen verschärft. Die Software wird ständig aktualisiert, die Version, zu der es heute Zugang gibt, ist übermorgen veraltet; Funktionalitäten können sich von Tag zu Tag ändern, sodass selbst Microsoft-Expert*innen nicht immer den Überblick haben. Und auch die IT-Abteilungen des Unternehmens kommen kaum noch hinterher. Da kann es passieren, dass die eine Funktionalität des Copiloten für alle Beschäftigten freigeschaltet ist, weil versehentlich ein Häkchen nicht gesetzt wurde. Es stellt sich die Frage, ob noch die Unternehmen die Piloten sind oder ob sie von Microsoft gesteuert werden.
Eine sich fortlaufend ändernde Software mit einer Betriebsvereinbarung einzuhegen, ist schwierig. Die Überlegung von Betriebsräten, einzelne, fürs Unternehmen überflüssige oder problematische Anwendungen abzuschalten, wird durch die gegenseitigen Abhängigkeiten der Anwendungen erschwert.
Copilot erfindet Quellen
Risiken für Beschäftigte ergeben sich dabei auch aus der ungeklärten Haftungsfrage. Viele Beschäftigte nutzen die KI-Assistenten privat und lassen die KI in der Freizeit lustige Gedichte verfassen oder eine Einladung zur Geburtstagsfeier grafisch aufbereiten. Was hier unproblematisch ist, hat im Arbeitskontext tiefgreifende Folgen. Wer ist verantwortlich für Fehler, die durch den Copiloten entstanden sind? In der Regel stellen Arbeitgeber den Beschäftigten ordnungsgemäß funktionierende Arbeitsmittel zur Verfügung. Das ist bei dem Copiloten nur bedingt der Fall. Plausibel klingende Schlussfolgerungen und eloquent formulierte Texte müssen noch lange nicht richtig sein – vor allem, wenn das System halluziniert.
Ein Beispiel: Das mit dem Copiloten in Edge (den die BTQ Kassel zu Testzwecken verwendet) im Rahmen einer Recherche erstellte Literaturverzeichnis mit diversen Quellen sah formal korrekt aus und gab Autor*innen, Jahreszahlen und Verlage an. Wenn man die angegebenen Bücher und Artikel dann jedoch aufrufen wollte, stellte sich heraus, dass der Copilot verschiedene Quellen inklusive Autor*innen erfunden hat. Sogar ein Gesetz hatte die Software herbeihalluziniert. Das Sprachmodell kennt die Voraussetzungen für ein Literaturverzeichnis und gibt Quellen an, die aussehen wie echte Quellen. Solche Fehler können den Ruf eines Beschäftigten und des Unternehmens schädigen.
Arbeitgeber halten Beschäftigte dazu an, die Quellen zu prüfen, bevor sie den von Copilot erstellten Text verwenden. Die Quellenangaben sind aber oft lückenhaft; nicht jede Quelle, die Copilot in seine Frage einbezieht, wird auch angegeben – weil ein Large-Language-Modell dahinterliegt, ist das auch unmöglich. Wo liegt dann aber der Produktivitätsgewinn, wenn die Beschäftigten jede Quelle prüfen müssen? Im Zweifel wird der Arbeitgeber mit dem Einsatz des Copiloten mehr Produktivität erwarten, es werden aber schlechtere Ergebnisse erzielt. Die Gründlichkeit tritt hinter den schnellen Output. So könnte man sich zusammen mit dem Copiloten schnell auch strukturelle Veränderungen der Arbeitskultur einkaufen, die sich nur schwer wieder rückgängig machen lassen. Manch ein Unternehmen geht dazu über, die Verwendung des Copiloten freizustellen. Damit verschiebt der Arbeitgeber die Verantwortung auf die Beschäftigten.
Betriebsräte stecken in einem Dilemma. KI-Assistenten und generative KI wie ChatGPT und Copilot verbreiten sich zunehmend. Beschäftigte nutzen diese Assistenten auch privat und wünschen sich die Verwendung auch bei der Arbeit. Das macht eine Reglementierung im Betrieb umso schwieriger.
Eine Empfehlung an Betriebsräte ist, auf ein langsames, geordnetes Vorgehen zu bestehen, komplette Abhängigkeiten von Microsoft zu vermeiden und mögliche Alternativen für Microsoft zu prüfen. Sollte Microsoft 365 Copilot eingeführt werden, sind Qualifizierungen für Beschäftigte eine zentrale Forderung. Alle, die damit umgehen, müssen wissen, wie der Copilot eingesetzt wird, ob und wie er hilfreich sein kann. Denkbar sind Testphasen, um Erfahrung zu sammeln und die Festlegung konkreter Anwendungsszenarien. Von einem Blankoschenk für alle Copiloten kann nur abgeraten werden. Vielleicht kommen Belegschaft und Betriebsrat in der Abwägung von Nutzen und dem Risiko der Verhaltens- und Leistungskontrolle zu dem Schluss, dass auf den Copiloten verzichtet werden kann.
Literatur: