Décrire un système de prise de décision comme un « algorithme » est souvent un moyen de détourner la responsabilité des décisions humaines. Pour beaucoup, ce terme implique un ensemble de règles fondées objectivement sur des preuves ou des données empiriques. Il suggère également un système très complexe, peut-être si complexe qu’un humain aurait du mal à comprendre ses rouages ou à anticiper son comportement lorsqu’il est déployé.
Mais cette caractérisation est-elle exacte ? Pas toujours. Lisez cet article sur la définition et l’utilité d’un algorithme, suivez le lien.
Comment identifier un algorithme ?
Alors, l’algorithme » de Stanford est-il un algorithme ? Cela dépend de la définition que l’on donne à ce terme. Bien qu’il n’y ait pas de définition universellement acceptée, une définition courante provient d’un manuel de 1971 écrit par l’informaticien Harold Stone, qui déclare : « Un algorithme est un ensemble de règles qui définissent précisément une séquence d’opérations ». Cette définition englobe tout, des recettes de cuisine aux réseaux neuronaux complexes : une politique d’audit basée sur cette définition serait ridiculement large.
Dans les statistiques et l’apprentissage automatique, on considère généralement l’algorithme comme l’ensemble des instructions qu’un ordinateur exécute pour apprendre à partir de données. Dans ces domaines, l’information structurée qui en résulte est généralement appelée un modèle. Les informations que l’ordinateur apprend des données via l’algorithme peuvent ressembler à des « poids » par lesquels il faut multiplier chaque facteur d’entrée ou être beaucoup plus compliquées. La complexité de l’algorithme lui-même peut également varier. Et l’impact de ces algorithmes dépend finalement des données auxquelles ils sont appliqués et du contexte dans lequel le modèle résultant est déployé. Le même algorithme pourrait avoir un impact positif net lorsqu’il est appliqué dans un contexte et un effet très différent lorsqu’il est appliqué dans un autre.
Les législateurs pèsent également sur ce qu’est un algorithme, ils utilisent le terme « système automatisé de prise de décision » et le définissent comme « un processus informatique, y compris celui issu de l’apprentissage automatique, des statistiques ou d’autres techniques de traitement des données ou d’intelligence artificielle, qui prend une décision ou facilite la prise de décision humaine, ayant un impact sur les consommateurs. »
Les auditeurs testent les algorithmes d’embauche pour détecter les biais, mais il n’y a pas de solution facile
Les audits de l’IA peuvent négliger certains types de biais, et ils ne vérifient pas nécessairement qu’un outil d’embauche choisit les meilleurs candidats pour un emploi.
Alors que les décideurs du gouvernement et de l’industrie créent des normes pour les audits algorithmiques, des désaccords sur ce qui compte comme un algorithme sont probables. Plutôt que d’essayer de s’entendre sur une définition commune du terme « algorithme » ou sur une technique d’audit universelle particulière, nous suggérons d’évaluer les systèmes automatisés principalement en fonction de leur impact. En se concentrant sur le résultat plutôt que sur l’entrée, nous évitons les débats inutiles sur la complexité technique. Ce qui compte, c’est le potentiel de préjudice, indépendamment du fait que nous discutions d’une formule algébrique ou d’un réseau neuronal profond.
L’impact est un facteur d’évaluation critique dans d’autres domaines. Il est intégré dans le cadre classique DREAD en cybersécurité, qui a été popularisé par Microsoft au début des années 2000 et qui est toujours utilisé dans certaines entreprises. Le « A » de DREAD demande aux évaluateurs de menaces de quantifier les « utilisateurs affectés » en demandant combien de personnes subiraient l’impact d’une vulnérabilité identifiée. Les évaluations d’impact sont également courantes dans les analyses des droits de l’homme et de la durabilité, et nous avons vu certains des premiers développeurs d’évaluations d’impact de l’IA créer des rubriques similaires. Par exemple, l’évaluation de l’impact algorithmique du Canada fournit un score basé sur des questions qualitatives telles que « Les clients de ce secteur d’activité sont-ils particulièrement vulnérables ? »
Dans le domaine de l’IA, des conférences et des revues ont déjà introduit des déclarations d’impact avec divers degrés de succès et de controverse. C’est loin d’être infaillible : les évaluations d’impact qui sont purement formulées peuvent facilement être jouées, tandis qu’une définition trop vague peut conduire à des évaluations arbitraires ou d’une longueur impossible.