Introduction aux DSI sur la gestion des risques perçus en matière d’IA

Demandez à votre schmo moyen quels sont les plus grands risques de l’intelligence artificielle, et ses réponses incluront probablement : (1) l’IA rendra les humains obsolètes ; (2) Skynet deviendra réel, faisant de nous, les humains, éteints ; et peut-être que (3) les outils de création de deepfakes seront utilisés par de mauvaises personnes pour faire de mauvaises choses.
Demandez à votre PDG moyen quels sont les plus grands risques liés à l’intelligence artificielle et il parlera probablement d’opportunités manquées – de capacités commerciales basées sur l’IA que les concurrents sont capables de déployer plus tôt qu’ils ne le peuvent.
En tant que DSI, vous devez anticiper non seulement les risques réels de l’IA, mais également ceux perçus. Voici comment procéder.
Risques perçus par un schmo moyen
1. L’IA rendra-t-elle les humains obsolètes ? Réponse : Ce n’est pas un risque ; c’est un choix. Les ordinateurs personnels, puis Internet, puis les smartphones ont tous ouvert la voie à une humanité augmentée par ordinateur. L’IA peut faire de même. Les chefs d’entreprise peuvent se concentrer sur la création d’une entreprise plus forte et plus compétitive en utilisant les capacités de l’IA pour augmenter et responsabiliser leurs employés.
Ils le peuvent, et certains le feront. D’autres utiliseront l’IA pour automatiser les tâches actuellement effectuées par les humains qu’ils emploient.
Ou, plus probablement, ils feront les deux. Ni l’un ni l’autre ne sera meilleur dans l’absolu. Mais ils seront différents. En tant que DSI, vous devrez contribuer à communiquer les intentions de l’entreprise, que l’IA soit utilisée pour augmenter ou remplacer les employés.
2. Skynet. Cet avenir, le plus effrayant possible en matière d’IA, est, en l’occurrence, le moins probable. C’est le moins probable, non pas parce que les robots tueurs ne sont pas possibles, mais parce qu’un IA volontaire n’aurait aucune raison de les produire et de les déployer.
Dans la nature, les organismes qui chassent et tuent d’autres organismes sont soit des prédateurs en quête de nourriture, soit des concurrents pour les mêmes ressources. Hormis ceux de nos semblables qui chassent à des fins sportives, il est rare qu’une espèce nuise aux membres d’autres espèces juste pour le plaisir.
À l’exception de l’électricité et des semi-conducteurs, il est peu probable que nous et une IA volontaire nous retrouvions en compétition pour les ressources suffisamment intensément pour que le scénario du robot tueur devienne un problème pour nous.
En effet, si une IA nous concurrence pour l’électricité et les semi-conducteurs, il est peu probable qu’elle gaspille l’électricité et les semi-conducteurs dont elle dispose pour construire des robots tueurs.
3. Deepfakes. Oui, les deepfakes sont un problème et, en tant qu’extrémité pointue de la guerre contre la réalité, c’est un problème qui ne fera qu’empirer. Le faux sentiment de sécurité fourni par les fournisseurs de conseils sur la façon de repérer les deepfakes est particulièrement inquiétant (par exemple, ce). Ils sont inquiétants car, dans la mesure où leurs techniques fonctionnent, ils constituent un manuel d’instructions sur la façon de produire des deepfakes plus difficiles à détecter. Et ils contribuent à un scénario de « reine rouge » à la Lewis Carroll – reine rouge parce que les IA de création de deepfake et les IA de détection de deepfake devront s’améliorer de plus en plus vite juste pour rester au même endroit les unes par rapport aux autres.
Ainsi, tout comme les contre-mesures contre les logiciels malveillants ont évolué de mesures antivirus autonomes vers la cybersécurité dans son ensemble, nous pouvons nous attendre à une trajectoire similaire pour les contre-mesures contre les deepfakes à mesure que la guerre contre la réalité s’intensifie.
Les risques de l’IA tels que perçus par le PDG
Les PDG qui ne veulent pas devenir rapidement d’anciens PDG consacrent une grande partie de leur temps et de leur attention à une certaine forme de «REMORQUES» Analyse (menaces, opportunités, faiblesses et forces).
En tant que DSI, l’une de vos responsabilités les plus importantes consiste depuis un certain temps à contribuer à la stratégie commerciale en reliant les points, depuis les capacités informatiques jusqu’aux opportunités commerciales (si votre entreprise les exploite en premier) ou aux menaces (si un concurrent les exploite). eux en premier).
C’était le cas avant que la vague actuelle d’enthousiasme pour l’IA ne déferle sur le secteur informatique. C’est ce qu’était le « numérique » et c’est encore plus le cas aujourd’hui.
Ajoutez l’IA à l’ensemble et les DSI ont un autre niveau de responsabilité, à savoir comment intégrer ses nouvelles capacités dans l’entreprise dans son ensemble.
La menace silencieuse basée sur l’IA : les fragilités humaines artificielles
Il existe une autre catégorie de risques dont il faut s’inquiéter, mais qui reçoit peu d’attention. Appelons cela des « fragilités humaines artificielles ».
Commencez par celui de Daniel Kahneman Penser, vite et lentement. Kahneman y identifie deux façons de penser. Lorsque nous réfléchissons vite, nous utilisons les circuits cérébraux qui nous permettent de nous identifier d’un coup d’œil, sans délai et avec peu d’effort. La réflexion rapide est également ce que nous faisons lorsque nous « faisons confiance à nos tripes ».
Lorsque nous pensons lentement, nous utilisons le circuit qui nous permet de multiplier 17 par 53 – un processus qui demande une concentration, du temps et un effort mental considérables.
En termes d’IA, penser lentement est ce que font les systèmes experts, et d’ailleurs la programmation informatique à l’ancienne. Penser vite est là où réside tout l’enthousiasme de l’IA. C’est ce que font les réseaux de neurones.
Dans son état actuel de développement, la forme de réflexion rapide de l’IA est également sujette aux mêmes erreurs cognitives que la confiance en nos tripes. Par exemple:
Déduire la causalité à partir de la corrélation : Nous savons tous que nous ne sommes pas censés faire ça. Et pourtant, il est terriblement difficile de s’empêcher de déduire une causalité alors que tout ce dont nous disposons comme preuve est une juxtaposition.
Il se trouve qu’une grande partie de ce qu’on appelle aujourd’hui l’IA consiste en un apprentissage automatique de la part de réseaux neuronaux, dont l’apprentissage consiste à déduire une causalité à partir d’une corrélation.
Régression à la moyenne: Tu regardes Le grand salon britannique de la pâtisserie. Vous remarquez que celui qui remporte le prix Star Baker dans un épisode a tendance à cuisiner moins bien dans l’épisode suivant. C’est la malédiction du Star Baker.
Seulement, ce n’est pas une malédiction. C’est juste le hasard en action. La performance de chaque boulanger suit une courbe en cloche. Quand on gagne Star Baker une semaine, ils ont joué à l’extrémité de la courbe en cloche. La prochaine fois qu’ils cuisineront, ils auront plus de chances de fonctionner à la moyenne, pas encore une fois à la queue de Star Baker, car chaque fois qu’ils cuisineront, ils auront plus de chances de fonctionner à la moyenne et non à la queue gagnante.
Et pourtant, nous déduisons la causalité – la Malédiction !
Il n’y a aucune raison de s’attendre à ce qu’une IA d’apprentissage automatique soit à l’abri de cette erreur. Plutôt l’inverse. Face à des points de données aléatoires sur les performances des processus, nous devrions nous attendre à ce qu’une IA prédise une amélioration après chaque mauvais résultat.
Et puis conclure qu’une relation causale est à l’œuvre.
Défaut de « montrer votre travail » : Eh bien, pas votre travail ; le travail de l’IA. Des recherches actives sont en cours pour développer ce qu’on appelle « l’IA explicable ». Et c’est nécessaire.
Imaginez que vous chargez un membre du personnel humain d’évaluer une éventuelle opportunité commerciale et de vous recommander un plan d’action. C’est le cas, et vous demandez : « Pourquoi pensez-vous cela ? Tout employé compétent attend la question et est prêt à y répondre.
Jusqu’à ce que « l’IA explicable » soit une fonctionnalité et non un élément de liste de souhaits, les IA sont, à cet égard, moins compétentes que les employés que de nombreuses entreprises souhaitent qu’elles remplacent : elles ne peuvent pas expliquer leur pensée.
La phrase à ignorer
Vous avez sans doute entendu quelqu’un affirmer, dans le contexte de l’IA, que « les ordinateurs ne X, » où X est quelque chose pour lequel les humains les plus compétents sont doués.
Ils ont tort. C’est une affirmation populaire depuis que j’ai débuté dans ce métier, et c’est devenu clair depuis, peu importe le choix. X vous choisissez, les ordinateurs seront capables de faire tout ce qu’ils veulent, et de le faire mieux que nous.
La seule question est de savoir combien de temps nous devrons tous attendre pour que l’avenir arrive.
Intelligence artificielle, leadership informatique, gestion des risques
Source link