Fermer

décembre 25, 2018

Nous devrions enseigner le droit des droits de l'homme aux ingénieurs en logiciel


L'intelligence artificielle (IA) fait son chemin dans de plus en plus d'aspects de notre vie quotidienne. Il alimente les assistants intelligents de nos téléphones mobiles et de nos «assistants à domicile virtuels». Il s’agit des algorithmes conçus pour améliorer nos diagnostics de santé. Et il est utilisé dans les outils de police prédictifs utilisés par la police pour lutter contre la criminalité.

Chacun de ces exemples soulève des problèmes potentiels en matière de protection de nos droits fondamentaux. Une police prédictive, si elle n'est pas correctement conçue, peut entraîner une discrimination fondée sur la race, le sexe ou l'origine ethnique.

Les règles de confidentialité et de protection des données s'appliquent aux informations relatives à notre santé. De même, l'enregistrement et l'utilisation systématiques de la position géographique de nos smartphones pourraient enfreindre les règles de protection de la vie privée et des données personnelles et pourraient susciter des inquiétudes quant à la surveillance numérique par les autorités publiques.

Les ingénieurs concepteurs sont responsables de la conception du logiciel. algorithmes derrière tous ces systèmes. Ce sont les ingénieurs en logiciel qui permettent aux assistants intelligents de répondre plus précisément à nos questions, d'aider les médecins à mieux détecter les risques pour la santé et aux policiers de mieux identifier les foyers de risques croissants de criminalité.

Les ingénieurs en logiciel ne reçoivent généralement pas de formation en sciences humaines. droit des droits. Pourtant, avec chaque ligne de code, ils peuvent bien interpréter, appliquer et même enfreindre des concepts clés du droit des droits de l'homme – sans même le savoir.

C'est pourquoi il est crucial que nous enseignions le droit des droits de l'homme aux ingénieurs en logiciel. Plus tôt cette année, une nouvelle réglementation européenne a obligé les entreprises à s’ouvrir davantage aux consommateurs concernant les informations qu’ils détiennent. Connu sous le nom de GDPR vous vous en souviendrez peut-être de nombreux e-mails désespérés vous demandant de choisir de rester dans diverses bases de données.

Le GDPR a augmenté les restrictions imposées à ce que les organisations peuvent faire avec vos données et a étendu la droits des individus d’accéder aux données les concernant et de les contrôler. Ces évolutions vers de protection de la vie privée dès la conception et de protection des données dès la conception offrent de grandes opportunités pour intégrer des cadres juridiques à la technologie. Cependant, elles ne suffisent pas à elles seules

Par exemple, une meilleure connaissance du droit des droits de l'homme peut aider les développeurs de logiciels à comprendre ce qu'est la discrimination indirecte et pourquoi elle est interdite par la loi. (Toute discrimination fondée sur la race, la couleur, le sexe, la langue, la religion, l'opinion publique ou politique, l'origine nationale ou sociale, les biens, l'association à une minorité nationale, la naissance ou tout autre statut est interdite en vertu de l'article 14 de la de la Convention européenne sur les droits de l'homme .)

Il y a discrimination directe lorsqu'un individu est traité moins favorablement pour un ou plusieurs de ces motifs protégés. Il y a discrimination indirecte lorsqu'une règle d'apparence neutre entraîne un traitement moins favorable d'un individu (ou d'un groupe d'individus).

De même, comprendre les subtilités du droit à un procès équitable et son corollaire, la présomption d'innocence, Cela pourrait permettre de faire des choix plus éclairés dans la conception des algorithmes

Cela pourrait aider à éviter la possibilité que des algorithmes présument que le nombre d'arrestations par la police dans un quartier multiethnique est corrélé au nombre de condamnations pénales effectives.

Encore plus important. , cela les aiderait à élaborer des choix impartiaux de jeux de données non représentatifs de discriminations fondées sur l'appartenance ethnique ou la race.

Par exemple, les données sur la richesse et le revenu combinées à des données de localisation géographique peuvent servir de données indirectes. pour l'identification des populations appartenant à un certain groupe ethnique si elles ont tendance à se concentrer dans un quartier particulier .

Code juridique [19659015] De même, une meilleure compréhension du fonctionnement des cadres juridiques sur les droits de l'homme peut stimuler la création de solutions pour améliorer le respect des règles juridiques.

Par exemple, il existe un besoin urgent de solutions technologiques appropriées . , par lequel les individus pourraient facilement contester les décisions basées sur l'IA prises par les autorités publiques qui les concernent directement Cela pourrait être le cas de parents qui seraient identifiés à tort comme des agresseurs d'enfants potentiels par des algorithmes opaques utilisés par les autorités locales .