Ein Sprachmodell wie ChatGPT kann eine ganze Menge. Es produziert allerdings auch Fehler und halluziniert, formuliert also überzeugend, aber manchmal faktenfrei. Und KI kann diskriminieren – wenn etwa eine Gesichtserkennungssoftware nur weiße Menschen in die engere Auswahl der Bewerber*innen nimmt. Wie kann das passieren? Was können Betriebsrät*innen tun? Das ist Thema der Online-Veranstaltung mit Tanja Carstensen von der TU Chemnitz am Dienstag, 3. September, von 14 bis 15.30 Uhr.
Eine Bewerberin fällt durch, weil die Bewerbungssoftware beim Videocall nur Menschen vor Bücherregalen für schlau hält. Oder die Software sortiert Frauen mit Kopftuch aus. Entwickler*innen versuchen zwar, solche Fehlleistungen zu korrigieren. Aber oft sind die Systeme so intransparent, dass die Fehler nicht auffallen. Das Problem: Ergebnisse von KI-Systemen wirken plausibel und objektiv – sie sind schließlich von einem vermeintlich technisch-akkuraten System erzeugt worden. So einfach ist es aber nicht. Es gilt immer noch: Garbage in, Garbage out (Müll rein, Müll raus). Ein System, das von Menschen mit historischen Daten gefüttert ist, erzeugt problematische menschengemachte Resultate.
Unternehmen wenden automatische Entscheidungssysteme und generative KI an – inklusive Diskriminierungspotenzial. Welche Folgen hat das für Beschäftigte? Darauf hat Tanja Carstensen Antworten. Sie leitet das Institut für Soziologie mit Schwerpunkt Arbeit, Wirtschaft und Organisation an der TU Chemnitz.
Die kostenlosen Online-Veranstaltung findet im Rahmen des Projektes WIN:A in der Veranstaltungsreihe KI konkret des tbs-Netzes können sich Interessierte hier anmelden.