Les DSI se débattent avec l’éthique de la mise en œuvre de l’IA

McIntosh recommande de rechercher des ressources tierces et une expertise en la matière. «Cela contribuera grandement à accélérer l’élaboration et l’exécution de votre plan et de votre cadre», explique McIntosh. « Et, sur la base de vos pratiques actuelles de gestion de programme, fournissez le même niveau de rigueur – ou plus – pour vos initiatives d’adoption de l’IA. »
Avancer lentement pour que l’IA ne se déchaîne pas
L’Union internationale des travailleurs d’Amérique du Nord (LIUNA), qui représente plus de 500 000 ouvriers du bâtiment, employés du secteur public et postiers, s’est lancée dans l’utilisation de l’IA, principalement pour l’exactitude et la clarification des documents, ainsi que pour la rédaction de contrats, déclare le directeur informatique Matt Richard. .
Alors que LIUNA élargit les cas d’utilisation de l’IA en 2024, « cela nous amène à nous poser la question de savoir comment nous utilisons l’IA de manière éthique », dit-il. L’organisation a commencé à tester Google Duet pour automatiser le processus de rédaction et de négociation des accords avec les entrepreneurs.

Matt Richard, CIO, Union internationale des travailleurs d’Amérique du Nord
CHEF
À l’heure actuelle, les responsables syndicaux n’utilisent pas l’IA pour identifier les souhaits et les besoins des membres, ni pour examiner les données d’embauche qui pourraient être sensibles et renvoyer des préjugés sur les personnes en fonction de la manière dont les modèles sont formés, explique Richard.
« Ce sont les domaines où je deviens nerveux : lorsqu’un mannequin me parle d’une personne. Et je ne pense pas que nous soyons encore prêts à nous lancer dans cet espace, car franchement, je ne fais pas confiance aux modèles formés publiquement pour me donner un aperçu de la personne que je souhaite embaucher », dit-il.
Richard s’attend néanmoins à une « évolution naturelle » dans laquelle, à terme, LIUNA voudra peut-être utiliser l’IA pour obtenir des informations sur ses membres afin d’aider le syndicat à leur offrir de meilleurs avantages. Pour l’instant, « il y a encore une zone grise sur la façon dont nous voulons y parvenir », dit-il.
Le syndicat essaie également d’augmenter le nombre de ses membres, ce qui implique notamment d’utiliser l’IA pour identifier efficacement les membres potentiels, « sans identifier les mêmes personnes homogènes », explique Richard. « Notre organisation travaille très fort et fait du bon travail pour autonomiser les minorités et les femmes, et nous voulons développer ces groupes. »
C’est là que Richard s’inquiète de la manière dont les modèles d’IA sont utilisés, car éviter « le terrier de la recherche des mêmes stéréotypes démographiques » et l’introduction de préjugés signifie que les humains doivent faire partie du processus. « On ne laisse pas les modèles faire tout le travail », dit-il. « Vous comprenez où vous en êtes aujourd’hui, puis nous nous arrêtons et disons : ‘OK, les humains doivent intervenir ici et regarder ce que les modèles nous disent.' »
« Vous ne pouvez pas laisser l’IA se déchaîner… sans intervention. Ensuite, vous perpétuez le problème », dit-il, ajoutant que les organisations ne devraient pas choisir la « solution de facilité » avec l’IA et se concentrer uniquement sur ce que les outils peuvent faire. « Ma crainte est que les gens achètent et mettent en œuvre un outil d’IA, le laissent tomber et lui font confiance. … Il faut faire attention, ces outils ne nous disent pas ce que nous voulons entendre », dit-il.
À cette fin, Richard pense que l’IA peut être utilisée comme un coup de pouce, mais les responsables informatiques doivent utiliser l’intuition de votre équipe « pour s’assurer que nous ne tombons pas dans le piège de simplement faire confiance à des outils logiciels flashy qui ne nous fournissent pas les données ». nous en avons besoin », dit-il.
Prendre l’éthique de l’IA personnellement
Comme LIUNA, le fournisseur mondial de crédit à la consommation basé en République tchèque, Home Credit, en est au début de son parcours vers l’IA, utilisant GitHub Copilot pour les processus de codage et de documentation, déclare Jan Cenkr, CIO du groupe.
«Cela offre un énorme avantage en termes de gain de temps, ce qui à son tour présente également un élément de coût avantageux», explique Cenkr, qui est également PDG d’EmbedIT, filiale de Home Credit. L’IA éthique est une priorité pour Cenkr depuis le début.

Jan Cenkr, CIO du groupe, Home Credit
Crédit immobilier
« Lorsque nous avons commencé à déployer nos projets pilotes d’outils d’IA, nous avons également eu des discussions approfondies en interne sur la création de structures de gouvernance éthiques pour accompagner l’utilisation de cette technologie. Cela signifie que nous avons mis en place de véritables contrôles pour garantir que nous ne violons pas nos codes de conduite », dit-il.
Ces codes sont régulièrement actualisés et testés pour garantir qu’ils sont aussi robustes que possible, ajoute Cenkr.
La confidentialité des données est la considération la plus difficile, ajoute-t-il. «Toutes les informations et données que nous alimentons dans nos plateformes d’IA doivent absolument être conformes à la réglementation GDPR.» Étant donné que Home Credit opère dans plusieurs juridictions, le service informatique doit également garantir la conformité sur tous ces marchés, dont certains ont des lois différentes, ce qui ajoute à la complexité.
Les organisations devraient développer leurs structures de gouvernance « d’une manière qui reflète votre propre approche personnelle de l’éthique », explique Cenkr. « Je crois que si vous accordez le même soin au développement de ces structures éthiques qu’à l’éthique que vous appliquez dans votre vie personnelle et quotidienne, ces structures seront d’autant plus sûres. »
En outre, Cenkr affirme que le département informatique doit être prêt à mettre régulièrement à jour ses politiques de gouvernance. « La technologie de l’IA progresse quotidiennement et c’est un véritable défi de suivre le rythme de son évolution, aussi passionnante soit-elle. »
Mettre des garde-corps
Les outils d’IA tels que les chatbots sont utilisés à l’UST depuis plusieurs années, mais l’IA générative est un tout nouveau jeu de balle. Cela change fondamentalement les modèles économiques et a intégré l’IA éthique au débat, déclare Krishna Prasad, directeur de la stratégie et CIO de l’entreprise de transformation numérique, tout en admettant que « c’est un peu plus théorique aujourd’hui ».
L’IA éthique « n’apparaît pas toujours » dans les considérations de mise en œuvre, dit Prasad, « mais nous parlons du fait que nous avons besoin d’une IA responsable et d’une certaine capacité à assurer la transparence et à retracer la manière dont une recommandation a été formulée ».

Krishna Prasad, directeur de la stratégie et CIO, UST
UST
Les discussions entre les dirigeants de l’UST se concentrent sur ce que l’entreprise ne veut pas faire avec l’IA « et où voulons-nous tracer des limites telles que nous les comprenons aujourd’hui ; comment rester fidèles à notre mission sans causer de tort », dit Prasad.
Faisant écho aux autres, Prasad affirme que cela signifie que les humains doivent faire partie de l’équation, car l’IA est plus profondément ancrée au sein de l’organisation.
Une question qui a été soulevée à l’UST est de savoir si le fait que les dirigeants discutent des performances des employés alors qu’un robot les écoute constitue un compromis en matière de confidentialité. [like that] ont commencé à bouillonner », dit Prasad, « mais à ce stade, nous sommes à l’aise pour aller de l’avant en utilisant [Microsoft] Copilot comme moyen de résumer les conversations.
Une autre considération concerne la manière de protéger la propriété intellectuelle autour d’un outil développé par l’entreprise. « Grâce aux protections proposées aujourd’hui par les éditeurs de logiciels, nous avons toujours l’impression que les données sont contenues dans notre propre environnement, et il n’y a aucune preuve de perte de données en externe », déclare-t-il. Pour cette raison, Prasad affirme que lui et d’autres dirigeants n’ont aucun scrupule à continuer à utiliser certains outils d’IA, notamment en raison des gains de productivité qu’ils constatent.
Même s’il pense que les humains doivent être impliqués, Prasad s’inquiète également de leur contribution. « En fin de compte, les êtres humains ont intrinsèquement des préjugés en raison de la nature des environnements auxquels nous sommes exposés, de nos expériences et de la manière dont cela formule notre pensée », explique-t-il.
Il s’inquiète également de savoir si des acteurs malveillants auront accès à certains outils d’IA lorsqu’ils utiliseront les données des clients pour développer de nouveaux modèles pour eux.
Ce sont des domaines dont les dirigeants devront s’inquiéter à mesure que le logiciel deviendra plus répandu, explique Prasad. En attendant, les DSI doivent montrer la voie et démontrer comment l’IA peut être utilisée à bon escient et quel impact elle aura sur leurs modèles commerciaux, et rassembler les dirigeants pour discuter de la meilleure voie à suivre, dit-il.
« Les DSI doivent jouer un rôle dans la conduite de cette conversation, car ils peuvent briser les mythes et également exécuter », dit-il, ajoutant qu’ils doivent également se préparer à ce que ces conversations deviennent parfois très difficiles.
Par exemple, si un outil offre une certaine capacité, « voulons-nous qu’il soit utilisé autant que possible, ou devrions-nous nous retenir parce que c’est la bonne chose à faire », explique Prasad. « C’est la conversation la plus difficile », mais les DSI doivent présenter qu’un outil « pourrait être plus que ce que vous aviez prévu. Pour moi, cette partie est encore un peu floue, alors comment mettre des contraintes autour du modèle… avant de faire le choix de proposer de nouveaux produits et services utilisant l’IA.
Source link