Fermer

octobre 18, 2018

Qu'est ce qui pourrait aller mal? (Partie 2)


Partie 2 d'une série en 2 parties. Lire la première partie .

La première partie de cette série examine différents points de vue sur les risques et les opportunités de l'intelligence artificielle (IA). La partie 2 approfondit le sujet.

Les biais sociaux et cognitifs introduits accidentellement ou intentionnellement par les ingénieurs qui codent les algorithmes peuvent être préjudiciables à l'éthique de l'intelligence artificielle (AI). Par exemple, il existe des systèmes de sélection d’emplois qui utilisent l’IA pour supprimer des candidates féminines à certains postes, sur la base de données d’embauche anciennes. Il est clair que les algorithmes qui définissent la manière dont les décisions humaines doivent être prises ne sont toujours pas à l'abri du sexisme qui peut se produire sur le lieu de travail ou dans les valeurs humaines des développeurs.

Conséquences potentielles de l'IA en tant que service [19659005] La manière dont AI automatisera les travaux informatiques des entreprises pourrait être affectée par des problèmes tels que la conception des algorithmes par un personnel à prédominance masculine, le manque de femmes scientifiques travaillant sur les données ou la réflexion intersectionnelle lors du développement d'algorithmes. L'intelligence artificielle en tant que service (AIaaS), lorsqu'un tiers propose l'IA, peut également avoir des conséquences économiques et sociales. Il pourrait y avoir des implications si une véritable offre AIaaS était disponible pour n'importe qui. Les tensions sociales et les questions de productivité du travail avec les humains peuvent être intenses dans une économie de l'IA

La prochaine génération d'entreprises de l'IAaaS est sur le point de soulever de nombreux défis en matière de politique économique. L'intelligence artificielle a certes facilité la vie des humains, mais si un algorithme tourne mal, les conséquences peuvent en résulter: morts, pertes de revenus, racisme, etc.

Cependant, dans l'ensemble, il n'y a pas grand-chose qui puisse être fait pour réduire tous les risques et protéger la vie privée. problème. Aujourd'hui, de plus en plus de robots et de machines peuvent résoudre des problèmes avec des données très complexes, apprendre, exécuter et perfectionner des tâches spécifiques. Alors que la croissance et l'innovation d'Amnesty International se répandaient dans le monde entier et que les entreprises continuaient de susciter l'intérêt sur la base de son succès initial, les chefs d'entreprise poursuivaient le travail acharné consistant à déployer de manière agressive des déploiements d'IA dans l'ensemble de l'organisation.

lorsque l'IA est utilisée dans des applications, des risques imprévus sont également potentiels et, dans certains cas, les ingénieurs eux-mêmes ne les approuvent même pas. Plus tôt cette année, Bloomberg a signalé qu'un groupe d'ingénieurs logiciels influents de la division cloud de Google avait refusé de créer un dispositif de sécurité appelé «intervalle d'air» pour les militaires. Un entrefer est une mesure de sécurité réseau utilisée par le biais d'un ou de plusieurs ordinateurs garantissant qu'un réseau informatique sécurisé est physiquement isolé des réseaux non sécurisés. Selon Bloomberg, "la technologie aiderait Google à remporter des contrats militaires sensibles".

La rébellion parmi les employés s'est considérablement développée avec les sociétés de technologie de la Silicon Valley. Les employés ont fait part de leurs préoccupations concernant la «méthode de la boîte noire» à Google dans une lettre de la société . "Ce plan nuira irrémédiablement à la marque Google et à sa compétitivité. Alors que Google craint de plus en plus que l'IA ne soit polarisée et armée, elle s'efforce déjà de conserver la confiance du public », ont déclaré les employés. «Ce contrat met en péril la réputation de Google et s’oppose directement à nos valeurs fondamentales. Construire cette technologie pour aider le gouvernement américain à la surveillance militaire – et à des conséquences potentiellement mortelles – n'est pas acceptable. " Bloomberg a rapporté la semaine dernière que Google avait cessé de faire concurrence au contrat.

N'oubliez pas que des explications raisonnables pour toutes les différentes parties prenantes sont essentielles au sein de l'entreprise informatique lors de l'utilisation d'algorithmes et d'applications d'IA sophistiqués. Pour les développeurs, la prise de décision automatisée peut être tout à fait imparable. Au sein de l'environnement DevOps, de nombreuses entreprises ont délaissé le modèle de maintenance informatique de l’arrière-boutique pour adopter un cycle de développement d’applications destinées aux clients. Les risques de sécurité élevés peuvent être répliqués avec des tâches automatisées et, par conséquent, transmis par des robots ou des machines.

Différents points de vue: menace ou opportunité?

Les entreprises sont à la fois sous-préparées et ignorantes de ces types de vulnérabilités potentielles découlant de DevOps. Le rapport CyberArk Threat Landscape suggère que les entreprises risquent de voir leurs nouvelles applications bloquées si elles ne considèrent pas la sécurité au niveau du code dès le départ. Lors de l'achat d'applications comprenant des éléments d'intelligence artificielle, la sécurité doit être une priorité absolue. L'intelligence artificielle, l'apprentissage par la machine et les approches d'apprentissage en profondeur sont des méthodes fondamentalement différentes pour programmer des ordinateurs. Pour le public, ce n’est que la nature humaine de se méfier de ce que l’on ne comprend pas, et il existe encore de nombreux modèles d’IA et de ML sous-jacents à des applications qui ne sont pas encore claires. Il est pertinent que la confiance reste la clé.

Si les dirigeants d’entreprises et les experts en technologie y parviennent, l’intelligence artificielle transformera probablement notre monde. Cependant, ces mêmes individus ne peuvent toutefois pas déchiffrer l’effet de transformation. Le choix des côtés s’est révélé être un processus compliqué. La gouvernance de l'intelligence artificielle crée de nombreux défis, les régulateurs craignant que notre monde ne soit contrôlé par des robots.

Le physicien théoricien Stephen Hawking a déclaré qu'il pourrait même y avoir une «apocalypse de robot». en croyant qu'il n'y a pas de réelle différence entre les réalisations d'un cerveau biologique et celles d'un ordinateur. La supériorité de l'IA est une peur connue. «Cela décollerait tout seul et se redéfinirait à un rythme toujours croissant», a-t-il déclaré à la BBC en 2014. «Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et ». Lors de la manifestation sur l'IA du Centre pour l'avenir de l'intelligence, Hawking a déclaré:« En bref, la montée en puissance de l'IA sera la meilleure ou la pire des choses pour l'humanité. Nous ne savons pas encore lequel. ”

Réaliser de la valeur en tenant compte des risques

Les entreprises du monde entier commencent tout juste à prendre conscience de la valeur réelle de l'intelligence artificielle. Selon Mark Russinovich, CTO de Microsoft Azure, l’intelligence artificielle reste l’un des services d’apprentissage automatique de niveau supérieur les plus prometteurs. S'exprimant lors du Cloud Tech Summit de GeekWire, Russinovich a déclaré: "Les entreprises tirent parti de l'IA et de ML pour automatiser les processus et obtenir des informations sur les opérations qu'elles n'avaient pas auparavant."

À mesure que les applications évoluent L'environnement de l'IA, la croissance de l'application et de l'adoption de l'apprentissage automatique et des techniques d'IA offriront de plus grandes opportunités Les algorithmes d'intelligence artificielle dans les entreprises informatiques ont le pouvoir de créer ainsi que le pouvoir de détruire. Les utilisations potentielles sont illimitées, de même que les conséquences imprévues et les erreurs commises dans ce domaine peuvent faire les manchettes des entreprises informatiques.

Pour en savoir plus, consultez l’étude récente de l’économiste Intelligent Unit. comment certaines entreprises « Tirer le meilleur parti du machine learning: 5 leçons apprises rapidement ."

<! – Commentaires ->




Source link