Fermer

octobre 11, 2018

Qu'est ce qui pourrait aller mal? (Partie 1)


Partie 1 d'une série en 2 parties.

L'adoption de l'intelligence artificielle (AI) et de machine learning (ML) continue de prendre de l'ampleur et est en passe de devenir une pratique réelle utilisée aujourd'hui dans les entreprises. AI s'appuie sur des algorithmes construits par des entreprises et des consultants, ainsi que sur des algorithmes préemballés dérivés des fournisseurs de l'intelligence artificielle en tant que service (AIaaS). L'intelligence artificielle grandit de jour en jour.

Problèmes liés au risque et à la gouvernance

Parallèlement, des questions relatives au risque et à la gouvernance se posent également. La révolution de l'intelligence artificielle a contribué à ce que les dirigeants d'entreprise tiennent compte des problèmes de confidentialité dans leurs produits. Dans le climat actuel, il est crucial de déterminer le risque lorsque l'IA est utilisée dans différents contextes. Malgré les difficultés que l’on peut attendre des technologies qui alimentent l’intelligence artificielle (c’est-à-dire la saveur largement adoptée de l’apprentissage automatique), le marché des technologies de l’information pour les entreprises reste toujours aussi engagé envers l’IA et le ML, investissant activement temps et ressources pour accélérer le développement.

Pour un dirigeant d'entreprise, de nombreux problèmes de confidentialité doivent être pris en compte, les algorithmes étant utilisés dans l'apprentissage automatique du côté de l'entreprise. Les entreprises de technologie telles qu'Amazon, Facebook, Netflix et des dizaines d’autres organisations qui génèrent des algorithmes utilisant la reconnaissance faciale sont bien au courant des problèmes de confidentialité. Les chefs d'entreprise de l'informatique d'entreprise sont conscients de la puissance de la technologie de reconnaissance faciale et l'ont mise en œuvre de manière novatrice. Nous avons déjà un logiciel de reconnaissance faciale utilisé pour le recrutement, les prêts et l'application de la loi.

Problèmes de confidentialité et résistance

Cependant, comme la reconnaissance faciale joue un rôle croissant dans les domaines de la sécurité, de l'application de la loi, rehaussement. L'American Civil Liberties Union et près de deux douzaines d'autres organisations ont demandé au géant de la technologie Amazon de cesser de vendre son logiciel Rekognition à la police. Le logiciel, qui est actuellement proposé aux services de police, a suscité des protestations de la part des activistes et des employés, encourageant la société à arrêter les ventes.

Des études indiquent également que la reconnaissance faciale pourrait ne pas être exacte. Le rapport officiel de l'université de Georgetown soulève de sérieuses questions concernant la vie privée et les violations des libertés civiles, déclarant que "la moitié des adultes américains – plus de 117 millions de personnes – font partie d'un réseau de reconnaissance faciale des forces de l'ordre." Aux États-Unis, un organisme chargé de l'application de la loi sur quatre peut accéder à la reconnaissance du visage, et cette utilisation est presque totalement non réglementée.

Le milliardaire et fondateur de Tesla, Elon Musk, a exprimé le besoin de règles plus strictes en matière d'IA . En août 2017, Musk a tweeté: « Si vous n'êtes pas préoccupé par la sécurité de l'IA, vous devriez l'être. Bien plus de risques que la Corée du Nord. ”

Pourtant, Dave Kenny, vice-président d’IBM pour Watson et le cloud, a écrit l’an dernier dans une lettre au Congrès:“ Cette technologie ne Soutenez les campagnes de peur communément associées au débat sur l'IA d'aujourd'hui. Le véritable désastre serait d'abandonner ou d'inhiber la technologie cognitive avant que tout son potentiel puisse être réalisé. Chaque jour, nous payons un lourd tribut pour ne pas savoir ce qui peut être connu: ne pas savoir ce qui ne va pas chez un patient, ne pas savoir où trouver des ressources naturelles critiques, ou ne pas savoir quels sont les risques pour notre économie mondiale. Il est temps de dépasser les tactiques de peur et de recentrer le dialogue sur l'IA sur trois priorités qui sont au cœur de cette discussion: Intention, compétences et données. "

Le débat en cours sur la responsabilité alimente un mouvement parmi les régulateurs, les vendeurs, les législateurs, et des organisations indépendantes sur la manière dont les entreprises peuvent réguler les algorithmes sans nuire à l'innovation. Le Congrès des États-Unis a récemment créé le Caucus de l'intelligence artificielle afin de mieux comprendre les problèmes d'intelligence artificielle.

La ​​deuxième partie de cette série portera sur les biais sociaux et cognitifs et les problèmes de sécurité.

<! – Commentaires ->




Source link