
Ob ChatGPT, Claude oder Gemini, Copilot oder Perplexity – viele Ergebnisse sind falsch und politisch problematisch. Dazu kommt der enorme Verbrauch von Energie und Wasser. Die Nichtregierungsorganisation AlgorithmWatch hat eine Richtlinie entwickelt, die dabei hilft, generative KI verantwortungsvoll zu verwenden.
AlgorithmWatch versteht sich als Organisation, die sich gegen jeden unverantwortlichen Umgang mit digitalen Technologien wendet. Bei verantwortungsbewusstem Einsatz können viele solcher Technologien jedoch einen bedeutenden Beitrag leisten, etwa generative KI. Deshalb entwickelte AlgorithmWatch den Leitfaden. Der ist für Organisationen geeignet, die die Technologie in ethisch verantwortlicher Weise einsetzen wollen.
Der Leitfaden basiert auf einer Befragung der AlgorithWatch-Mitarbeiter*innen und dient als interne Orientierungshilfe. Vier Prinzipien sind entscheidend: Verhältnismäßigkeit, Sicherheit, Qualitätssicherung und Transparenz.
Verhältnismäßigkeit: AlgorithmWatch rät Beschäftigten davon ab, generative KI nur deshalb einzusetzen, weil das als die einfachste Lösung erscheint, obwohl es Alternativen gibt. Generative KI übermäßig einzusetzen, berge eine Reihe systemischer Risiken, von schleichender Entqualifizierung (»De-Skilling«) über Arbeitsplatzabbau und steigenden Energiebedarf bis hin dazu, dass Unternehmen Angebote für problematische Nutzung damit rechtfertigen, dass viele Menschen einen Bedarf dafür sehen. Gleichwohl habe die interne Befragung gezeigt, dass Mitarbeiter*innen in einigen Anwendungsszenarien beträchtlichen Nutzen aus generativer KI ziehen.
Sicherheit: Ist die Privatsphäre geschützt, ist Vertraulichkeit garantiert – oder eignen sich Unternehmen Daten auf illegitime Art an? Trainingsdaten können versehentlich anderen Nutzer*innen zugänglich gemacht werden und die menschliche Arbeit, die bei der Eingabe anfällt, wird üblicherweise nicht bezahlt. Unterschieden werden drei Kategorien: Kategorie 1 (geringe Sicherheitsanforderungen): Inhalte, die auch ohne besondere Schutzmaßnahmen bedenkenlos in ein generatives KI-Werkzeug eingegeben werden können, etwa öffentlich zugängliche Informationen.
Kategorie 2 (durchschnittliche Sicherheitsanforderungen): Inhalte, die weitgehend bedenkenlos in ausgewählte generative KI-Werkzeuge eingegeben werden können, die zusichern, Privatsphäre und Vertraulichkeit ausreichend zu schützen – vorausgesetzt, dass auch im Fall einer möglichen Datenpanne keine vertraulichen oder personenbezogenen Informationen unbefugt zugänglich würden. Beispiel: interne Strategiedokumente von AlgorithmWatch, die keine sensiblen Informationen enthalten.
Kategorie 3 (hohe Sicherheitsanforderungen): Inhalte, die auf keinen Fall in generative KI-Werkzeuge eingegeben werden sollten, auch nicht in solche, die angeben, Schutzmaßnahmen implementiert zu haben. Beispiel: personenbezogene Daten.
Qualitätssicherung: Jedes von generativer KI erzeugte Ergebnis sollte vor der Verwendung kritisch überprüft werden. Es muss üblicherweise redaktionell überarbeitet und kritisch reflektiert werden. Die generierten Inhalte ohne Weiteres zu akzeptieren, zeugt in aller Regel von einem Mangel an kritischer Wachsamkeit.
Transparenz: Veröffentlicht AlgorithmWatch Material, bei dessen Erstellung generative KI eine wesentliche Rolle gespielt hat, wird besprochen, ob ein Transparenzhinweis angebracht wird.