En Lybie, un drone d’attaque a pris en chasse des forces du Général Haftar. Selon un rapport des Nations unies, le drone a engagé ses cibles « sans qu’il soit besoin d’établir une connexion des données entre l’opérateur et la munition », c’est à dire que c’est un algorithme qui a décidé de tirer. Ce rapport confirme l’existence d’armes devenues autonomes un tabou qui entourait le marché des armes jusqu’alors.
Mercredi 9 juin à 19h, Imane Bello, avocate et enseignante en éthique et politique des systèmes d’intelligence artificielle à Sciences Po, et Yannick Meneceur, chercheur associé à l’Institut des Hautes Études sur la Justice (IHEJ), évoqueront la question de la « responsabilité des algorithmes », lors d’une table-ronde exceptionnelle du cycle « Tous connectés et après », dans le cadre de la semaine du numérique responsable organisée par la Ville de Strasbourg.
Rue89 Strasbourg : Les systèmes d’automatisation de la décision semblent se multiplier un peu partout, qu’en est-il exactement ?
Yannick Meneceur : Ces systèmes existent effectivement depuis longtemps mais ce que cachent les polémiques et les affirmations alarmistes, c’est d’une part la dimension industrielle de ces enjeux et d’autre part, la question de leur efficacité. Alors que les algorithmes décisionnaires sont déployés à de très grandes échelles, rarement se pose la question de savoir s’ils font effectivement ce qu’ils sont censés faire.
Imane Bello : Les systèmes d’aide à la décision, dont la régulation est tout aussi cruciale, sont parfois oubliés. Car l’article 22 du RGPD ne concerne que les systèmes entièrement automatisés, et pose en principe le droit de ne pas faire l’objet d’une décision fondée exclusivement sur ce mode traitement. Dans l’aide ou l’automatisation complète, la question du recours effectif à une intervention humaine (ex ante et ex post) doit se poser pour permettre le respect des droits et libertés fondamentaux.
C’est un peu inquiétant quand même non ?
YM : Oui c’est préoccupant d’autant qu’après cette question de l’efficacité, se pose la question de la légitimité démocratique. Par exemple, en tant que citoyens, sommes-nous d’accord pour apporter aux magistrats une aide automatique aux jugements ? Cette question n’est jamais posée. Les algorithmes sont présentés comme un progrès, notamment en terme de rapidité et d’exhaustivité mais cela revient à admettre par exemple qu’un juge doive motiver sa décision contre la machine !
IM : Oui, c’est un sujet dont il faudrait que la société dans son ensemble puisse se saisir. Il s’agit d’un sujet de société et le risque de violation des droits humains est réel. Un premier élément vers cette inclusion correspond par exemple à la mise en place par les sociétés privées qui créent ou déploient de tels systèmes d’études d’impact sur les libertés et droits des personnes concernées en amont de toute utilisation ou encore de la réalisation de codes de conduite documentés. Le travail de suivi des impacts doit par ailleurs être continu.
Dans le processus de confiance dans les algorithmes, il y a le vocabulaire employé. On parle beaucoup d’intelligence artificielle et de machine learning, sans forcément comprendre les réalités techniques derrière ces termes...
YM : Il y a un emballement autour du machine learning mais ce processus n’est en fait que la construction d’une réponse, à partir d’un nombre très important de réponses déjà apportées par le passé dans un système aux paramètres similaires. Ça marche bien dans certains cas, notamment dans l’image, mais ce processus est bien peu transparent. En gros, personne ne peut vraiment expliquer pourquoi un algorithme en machine learning est parvenu à la réponse qu’il donne… En outre, les algorithmes de machine learning sont très sujets aux choix et aux biais de leurs concepteurs, dont ils héritent les traits et ils peuvent avoir tendance à confondre la corrélation et la causalité, or deux situations qui ne ressemblent n’ont pas forcément les mêmes causes.
L’autre solution, c’est d’arriver à une réponse à partir d’un ensemble de règles logiques, programmées par leurs concepteurs. C’est un peu passé de mode mais ça permet une traçabilité. L’ennui, c’est que ces programmes sont relativement figés et ne peuvent évoluer aisément de manière autonome.
IB : Il est important de préciser que les algorithmes sont des outils : vous n’avez pas uniquement confiance en un outil en soi, mais également en l’organisme (public ou privé) qui a soit créé cet outil, soit le déploie et auquel vous pouvez vous adresser si nécessaire. Ensuite, se pose la question du contexte : l’outil est-il utilisé dans un contexte sensible, voire critique ? Enfin, effectivement, lorsque vous utilisez un outil, il est important de savoir ce que fait cet outil exactement, ce pour quoi il est utilisé (par vos soins ou par un tiers). Il faut donc inclure tant la capacité à expliquer comment un système d’intelligence artificielle (IA) parvient à un résultat (ce qui est parfois impossible) que l’importance de s’assurer qu’un système d’IA est efficace et fait ce pour quoi il est utilisé.
Où en est la régulation ?
YM : Le Conseil de l’Europe est en train de réfléchir à un cadre contraignant pour les algorithmes décisionnels, notamment fondé sur la Convention européenne des droits de l’Homme. Parmi les dispositions, l’étude de faisabilité propose qu’avant toute mise sur le marché, il y ait un processus de validation pour confirmer que l’algorithme produit bien les réponses qui sont attendues. Mais il manque une sorte d’autorité des algorithmes… Or pour l’instant, les régulateurs européens ne semblent pas l’envisager, ils oscillent encore entre une vision économique des algorithmes et une vision juridique. En d’autres termes, quelle part de régulation est-on prêt à accepter, sachant que ça limitera forcément l’innovation dans un secteur très porteur… Force est de constater que pour l’instant, toute régulation des algorithmes supporte le développement de l’économie numérique mondiale.
IB : La régulation est à la fois déjà existante et en cours de création. Le Droit, la « Compliance » (conformité, ndlr) mais également les mécanismes de responsabilité en cas de préjudice, s’appliquent déjà aux systèmes d’automatisation de la décision et aux systèmes d’aide à la décision. Il y a les normes douces, les lignes directrices de nombreuses institutions européennes et internationales qui permettent déjà de guider l’action des opérationnels, et les normes plus contraignantes, en cours de création. La proposition de règlement sur l’intelligence artificielle de la Commission européenne en est un bon exemple. Aux États-Unis, un projet de loi sur le sujet, « the Algorithmic Justice and Online Platform Transparency Act of 2021 », vient d’être introduit au Sénat.
Chargement des commentaires…