Projekt «HUMAN»
HUMAN – der Schritt hin zum verantwortungsvollen Einsatz von KI
Wenn die Polizei versucht, mittels Algorithmen die Rückfallwahrscheinlichkeit von Straftäter*innen zu berechnen, wenn Arbeitgeber mit KI Bewerbungen vorsortieren oder wenn der KI-Chatbot Medienartikel erstellt: Wer ist dann betroffen von diesen algorithmisch generierten Inhalten, Empfehlungen und Entscheidungen? Wie können Betroffene einbezogen werden, um ihre Rechte und Interessen zu sichern?

Abgeschlossenes Projekt
Projektlaufzeit: Januar 2024 bis Juni 2025
Algorithmische und KI-basierte Systeme können ethisch relevante Auswirkungen auf Menschen haben. Diejenigen, die sie einsetzen, tragen deshalb eine besondere Verantwortung. Die beiden zivilgesellschaftlichen Organisationen Intersections und AlgorithmWatch CH haben im Projekt «HUMAN» gemeinsam einen Werkzeugkasten entwickelt, um ethische Folgenabschätzungen zu Algorithmen und KI an den Perspektiven von Betroffenen auszurichten. Es reicht nicht, diese Systeme einfach auf einer technischen Ebene zu testen. Mit HUMAN verfolgen wir das Ziel, mit praktisch anwendbaren Methoden sicherzustellen, dass der Einsatz automatisierter Systeme im Sinne der betroffenen Menschen erfolgt. Damit unterstützen und befähigen wir Unternehmen und Behörden, die KI einsetzen, ihrer besonderen Verantwortung gerecht zu werden.
HUMAN – ein umfassender Ansatz

Aus diesem Projekt ist HUMAN entstanden – ein umfassender Ansatz, der es ermöglicht, ausgehend von einem konkreten Anwendungsfall eine verantwortungsvolle KI-Strategie zu entwickeln oder eine solche Strategie anhand einer spezifischen Anwendung zu testen.
HUMAN wurde mit Praxispartner*innen aus der öffentlichen Verwaltung und einem Unternehmen getestet und darauf basierend weiterentwickelt.
Modul 1: Impact Assessment

Das von AlgorithmWatch entwickelte Tool zur Folgenabschätzung (Impact Assessment Tool) unterstützt dabei, der besonderen ethischen Verantwortung beim Einsatz von Algorithmen & KI gerecht zu werden. Es begleitet Organisationen dabei, entlang von zwei Checklisten folgende Fragen zu beantworten, dafür ein gemeinsames Verständnis zu entwickeln und dies transparent zu machen:
- Triage: Sind die Auswirkungen der Anwendung ethisch relevant?
- Ziele definieren: Welches Problem möchten wir mit dem Einsatz des KI-Systems lösen und welche Ziele verfolgen wir damit? Welche ethischen Anforderungen stellen wir uns?
- Performance messen und Verantwortlichkeiten zuweisen: Wie bewerten wir, ob unsere Ziele erreicht werden und ob wir mit ethischen Herausforderungen verantwortungsvoll umgehen? Wer ist für diese Bewertung verantwortlich? Wie gehen wir mit Feedback um?
- Resultate deklarieren: Und was zeigen diese Bewertungen?
Hier geht’s zum Impact Assessment Tool
Weitere Informationen zum Impact Assessment Tool finden sich hier.
Das Tool steht zur freien Nutzung zur Verfügung. Wenn Sie sich dabei begleiten lassen möchten oder Fragen haben, melden Sie sich bei uns! Andernfalls freuen wir uns auch über Unterstützung in Form von Spenden.
Modul 2: Panel Assessment

Unsere Projektpartnerin Intersections hat eine Panel Assessment Methode entwickelt, um diverse Perspektiven zu involvieren. Das Panel Assessment ermöglicht es, relevante Stakeholders zu identifizieren und einzubeziehen, um deren Bedürfnisse zu berücksichtigen. Dazu gehören sowohl Menschen, die von den Ergebnissen des Systems betroffen sind als auch etwa Mitarbeitende, die das System nutzen.
Hier geht's zum Panel Assessment
Zwei Praxispartnerinnen aus der öffentlichen Verwaltung und ein Medienhaus haben HUMAN in zwei realen Anwendungen getestet. Die Erfahrungen dieser Testanwendungen flossen laufend in die Weiterentwicklung des Tools ein, um es so niederschwellig, praxisnah und hilfreich wie möglich zu gestalten.
Mit HUMAN machen wir auf die ethischen Pflichten der Menschen und Institutionen aufmerksam, die Algorithmen und KI einsetzen. Diese Menschen und Institutionen tragen – neben der Politik, die die Rahmenbedingungen vorgeben sollte – die Verantwortung dafür, dass ihre Systeme im Einklang mit Grundrechten und den Bedürfnissen und Interessen der Betroffenen angewendet werden.
Das Projekt wurde von Januar 2024 bis Juni 2025 durchgeführt und von einem Advisory Lab begleitet.
«HUMAN» wurde unterstützt von der Stiftung Mercator Schweiz.
