Une intelligence artificielle tente de corriger les biais racistes dans la justice


Une intelligence artificielle tente de corriger les biais racistes dans la justice:

San Francisco va tester «outil de réduction du biais», qui censure automatiquement les informations susceptibles d’identifier la couleur de peau d’un suspect dans les rapports de police. Il devrait être mis en place le 1er juillet.

L’intelligence artificielle peut-elle permettre de réduire certains biais? Mercredi, le procureur de la ville de San Francisco George Gascón a annoncé que son bureau va se servir d’une technologie pour «retirer la couleur de peau de l’équation» lorsqu’il décidera d’accuser les suspects d’un crime ou non. Un outil, qui devrait être mis en place le 1er juillet, permettra en effet de censurer automatiquement les informations susceptibles d’identifier la couleur de peau d’un suspect dans les rapports de police. Le but est d’éviter que les procureurs soient influencés par un éventuel biais raciste.

Cet outil supprimera des informations comme la couleur des yeux et des cheveux. Les noms des gens, lieux et quartiers susceptibles d’indiquer à un procureur qu’un suspect est d’une certaine origine seront également retirés. Par ailleurs, des informations concernant les policiers, comme leur numéro de badge, seront supprimées. Cela, au cas où le procureur les connaîtrait et pourrait être biaisé en faveur ou à l’encontre de leur rapport. George Gascón a aussi précisé que la version censurée du rapport sera uniquement utilisée pour prendre une première décision. «Ils examineront ensuite l’intégralité du rapport, avec les informations restaurées, pour voir s’il existe des raisons pour revenir sur leur première décision».

Le fonctionnement de l’outil

L’outil a été conçu par Alex Chohlas-Wood et une équipe de chercheurs du laboratoire d‘informatique de l’université de Stanford. Il s’agit d’une application Web utilisant plusieurs algorithmes pour censurer automatiquement un rapport de police. Elle reconnaît les mots du rapport grâce à la vision par ordinateur, un type de technologies permettant d’analyser, traiter et comprendre une ou plusieurs images prises. L’outil se sert également d’une technique appelée reconnaissance d’entités nommées, pour identifier ceux qu’il faut supprimer. Elle consiste à rechercher des objets textuels comme des mots qui peuvent être catégorisés dans des classes telles que les noms de personnes ou de lieux. Les mots sont ensuite remplacés par des versions génériques comme Location ou Agent #1.

Selon Alex Chohlas-Wood, l’outil en est à sa dernière phase de développement et il sera mis en libre accès dans quelques semaines afin que d’autres puissent l’adopter. Après son lancement, le programme sera contrôlé chaque semaine, a par ailleurs expliqué Maria Mckee directrice de l’analyse et de la recherche du bureau du procureur. San Francisco continue donc de faire figure de pionnière en termes d’utilisation, ou de régulation, des nouvelles technologies. Le mois dernier, la ville a interdit à la police d’utiliser la reconnaissance faciale, technologie permettant d’identifier quelqu’un à l’aide d’une photo ou d’une vidéo.

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

WordPress.com.

Retour en haut ↑

%d blogueurs aiment cette page :