»Fehler im System: Was tun, wenn uns KI ungerecht behandelt?«
Handlungsleitfaden der BTQ Kassel zu Diskriminierung
Handlungsleitfaden der BTQ Kassel zu Diskriminierung

Nein, KI-Systeme sind nicht neutral. Auch wenn sich der Irrglaube hartnäckig hält. Aber KI beruht doch auf mathematischen Modellen. Und Mathematik ist doch frei von menschlichen Vorurteilen? So einfach ist es leider nicht. Der neue Handlungsleitfaden der BTQ Kassel aus dem Projekt WIN:A hat genau das zum Thema: »Fehler im System: Was tun, wenn uns KI ungerecht behandelt?«
Künstliche Intelligenz, das wissen wir, verändert die Arbeit. Aus einfachen automatisierten Unterstützungsprozessen werden zunehmend autonome Agenten, an die immer mehr Entscheidungen delegiert werden – auch im Personalbereich. Unternehmen setzen KI ein, um Bewerber*innen zu bewerten, Beschäftigte
einzustufen oder Schichten zu planen. Werden solche Systeme ungeprüft eingeführt, entstehen
strukturelle Benachteiligungen, versteckt hinter komplexen Algorithmen. Immer wieder hören wir von Diskriminierung bei der Auswahl von Bewerber*innen, bei Karriereentscheidungen oder in der Personaleinsatzplanung. Wie passiert so etwas? Und noch wichtiger: Wie lässt sich das verhindern? Darum geht es in dem Handlungsleitfaden der BTQ Kassel. Er liefert Hintergrundwissen, Checklisten, Tipps für Schutzklauseln und konkrete Fragen, die helfen, einen kritischen Blick hinter die KI-Kulisse zu werfen. Hier zum Herunterladen oder zum Bestellen per Mail.