Projet «HUMAN»
HUMAN – un pas de plus vers une utilisation responsable de l’IA
Lorsque la police tente de calculer la probabilité de récidive des délinquant·e·s à l’aide d’algorithmes, lorsque les employeurs font un premier tri des candidatures à l’aide de l’IA ou lorsqu’un agent conversationnel basé sur l’IA rédige des articles de presse: qui est concerné·e par ces contenus, recommandations et décisions générés par des algorithmes? Comment les personnes concernées peuvent-elles être impliquées afin de garantir le respect de leurs droits et la préservation de leurs intérêts?

Projet terminé
Durée du projet: janvier 2024 à juin 2025
Les systèmes algorithmiques et basés sur l’IA peuvent avoir des répercussions éthiques sur les personnes. Quiconque les utilise endosse donc une responsabilité particulière. Dans le cadre du projet «HUMAN», les deux organisations issues de la société civile «Intersections» et «AlgorithmWatch CH» ont développé ensemble une boîte à outils permettant d’orienter les analyses d’impact éthique des algorithmes et de l’IA selon la perspective des personnes concernées. Il ne suffit pas de tester ces systèmes sur le plan technique. Avec HUMAN, nous poursuivons un objectif qui consiste à garantir, à l’aide de méthodes applicables dans la pratique, que l’utilisation de systèmes automatisés serve l’intérêt des personnes concernées. Nous aidons ainsi les entreprises et les autorités qui utilisent l’IA à assumer leurs responsabilités à cet égard, et nous leur donnons les moyens de le faire.
HUMAN – une approche globale

Ce projet a donné naissance à HUMAN, une approche globale qui permet de développer une stratégie d’IA responsable à partir d’un cas d’application concret, ou de tester cette stratégie sur la base d’une application spécifique.
Le projet HUMAN a été testé avec des partenaires de terrain issus de l’administration publique et du secteur privé, puis a été développé en conséquence.
Module 1: analyse d’impact

L’outil d’analyse d’impact (Impact Assessment Tool) développé par AlgorithmWatch aide à assumer la responsabilité éthique liée à l’utilisation d’algorithmes et de l’IA. Il aide les organisations à répondre aux questions suivantes à l’aide de deux check-lists, à développer une compréhension commune et à faire preuve de transparence:
- Définition des objectifs: quel problème souhaitons-nous résoudre avec l’utilisation du système d’IA et quels objectifs poursuivons-nous? Quelles exigences éthiques nous imposons-nous?
- Mesure de la performance et attribution des responsabilités: comment évaluons-nous si nos objectifs sont atteints et si nous traitons les défis éthiques de manière responsable? Qui est responsable de cette évaluation? Comment gérons-nous les retours?
- Déclaration des résultats: que montrent ces évaluations?
De plus amples informations sur l’outil d’analyse d’impact sont disponibles ici.
L’outil peut être utilisé librement. Si tu souhaites bénéficier d’un accompagnement ou si tu as des questions, contacte-nous! Sinon, nous serions également ravis de recevoir ton soutien sous forme de dons.
Module 2: évaluation par panel

Notre partenaire de projet, Intersections, a développé une méthode d’évaluation par panel afin de prendre en compte diverses perspectives. L’évaluation par panel permet d’identifier et d’impliquer les parties prenantes pertinentes afin de prendre en compte leurs besoins. Cela comprend à la fois les personnes qui sont affectées par les résultats du système et les collaborateur·rice·s qui utilisent le système.
Dans un second temps, deux partenaires de terrain issus de l’administration publique et des médias ont testé HUMAN dans deux cas d’application réels. Les expériences de ces applications test ont été continuellement intégrées dans le développement de l’outil, afin de le rendre aussi accessible, pratique et utile que possible.
HUMAN repose sur la conviction que les personnes et les institutions qui utilisent des algorithmes et l’IA, ont des obligations éthiques. Ces personnes et institutions ont la responsabilité, en plus de la classe politique qui devrait définir les conditions-cadres, de veiller à ce que les systèmes soient appliqués dans le respect des droits humains fondamentaux ainsi que des besoins et intérêts des personnes concernées.
Le projet a été mis en œuvre de janvier 2024 à juin 2025 et a été accompagné par un Advisory Lab.
«HUMAN» est soutenu par la Fondation Mercator Suisse.
