Fermer

janvier 25, 2024

6 questions difficiles sur l’IA auxquelles tous les responsables informatiques sont confrontés

6 questions difficiles sur l’IA auxquelles tous les responsables informatiques sont confrontés



À cette fin, Perez évalue les projets d’IA comme il le ferait pour d’autres projets construits avec des technologies moins médiatisées, en travaillant avec des équipes pour évaluer le cas d’utilisation, les besoins en matière de gouvernance, les avantages commerciaux attendus et les retours attendus.

« Vous ne pouvez pas diluer votre engagement dans des projets qui n’apporteront aucune valeur », ajoute Perez. « Alors choisissez les quelques domaines clés dans lesquels vous pouvez voir la valeur et la grande valeur que l’IA peut apporter à l’entreprise et ciblez-les, concentrez-vous sur ceux-ci, apprenez de ceux-ci et développez-vous dans d’autres domaines à mesure que vous apprenez ».

3. Que pouvons-nous raisonnablement réaliser avec des ressources limitées ?

Après l’explosion de l’IA générative, Nicholas Colisto, vice-président senior et CIO de la multinationale Avery Dennison, s’est efforcé de garantir que son entreprise exploite son potentiel.

« L’IA existe depuis longtemps », explique-t-il, « mais lorsque son sous-ensemble génératif a explosé début 2023, de nombreuses entreprises, y compris la nôtre, nos dirigeants ont dit non parce qu’ils voulaient s’assurer qu’il y avait des lignes directrices pour vous protéger, ainsi que vos données. et votre personnel. »

Pour surmonter ces obstacles, Colisto s’est efforcé de sensibiliser les dirigeants aux capacités et aux risques de l’IA, cherchant à faire passer l’entreprise du « non au savoir ». Ses efforts ont porté leurs fruits et Avery Dennison s’est depuis tourné vers la conception, les tests et la fabrication d’IA.

Toutefois, elle reconnaît qu’elle a dû modérer cette dynamique en adoptant une série de contrôles des ressources.

« J’ai dû rappeler aux gens qu’avec l’IA, il n’y avait pas d’argent frais disponible », explique Colisto, ajoutant que certains pensaient à tort que les pratiques de financement de longue date de l’entreprise ne s’appliquaient pas aux projets liés à l’intelligence artificielle. « Les gens pensaient que l’IA était différente en termes d’investissement des entreprises ; il pensait que les entreprises disposaient de tout ce financement pour l’IA. Mais je n’entends pas beaucoup dire qu’ils abandonneraient leurs cycles d’investissement pour se concentrer sur l’IA.»

D’autres DSI déclarent qu’eux aussi entament des discussions sur les contraintes d’argent, de talent et de temps.

« Le talent est un problème à l’heure actuelle », déclare Sreekanth Menon, vice-président et responsable des services mondiaux d’IA/ML au sein de la société de services de transformation commerciale Genpact. « Les entreprises ont besoin d’un autre type de talent pour travailler avec l’IA. Ils ont besoin d’une reconversion massive ou de nouveaux talents. Et chacun essaie de travailler avec ses partenaires pour construire un écosystème [di talenti IA]. Mais tout cela prend du temps. »

De nombreuses entreprises souffrent d’un manque de talents. L’étude Microsoft/IDC révèle que 52 % des personnes interrogées citent le manque de travailleurs qualifiés comme le principal obstacle à la mise en œuvre et au développement de l’IA.

Les DSI rappellent à leurs collègues que leurs équipes informatiques ont également beaucoup à faire. « Nous avons des cycles de projet normaux. Nous avons régulièrement des projets en préparation. Nous n’aurions pas tout abandonné pour l’IA », souligne Colisto.

Plutôt que de discuter de ces points, les responsables de l’information affirment qu’ils ramènent les conversations aux priorités de l’entreprise.

« Nous demandons à nos unités commerciales d’identifier les idées qui correspondent aux objectifs stratégiques et de parler des coûts de ces idées, de la rentabilité ou de l’impact générateur de revenus de ces idées, ainsi que de la faisabilité d’atteindre ces objectifs », souligne Colisto. « Avec l’IA, nous avons toujours besoin d’unités commerciales pour identifier les programmes les plus précieux. Nous avons des centaines de cas d’utilisation dans toutes les fonctions principales et finançons ceux qui sont hautement prioritaires.

4. L’état actuel de nos opérations de données peut-il produire les résultats que nous recherchons ?

Autre sujet épineux que les DSI doivent aborder avec leurs pairs : les problèmes de qualité des données d’entreprise qui entravent leurs ambitions en matière d’IA.

Une enquête menée en 2003 auprès de plus de 1 500 professionnels et décideurs dans le domaine de l’intelligence artificielle [in inglese] par S&P Global Market Intelligence pour le fabricant de plateformes de données WEKA, a constaté que la gestion des données est l’obstacle technologique le plus fréquemment cité à la mise en œuvre de l’IA et du ML. De même, la relation Rapport d’enquête américaine sur les risques liés à l’IA 2023 de la société de services professionnels KPMG [in inglese]ont constaté que l’intégrité des données se classait au premier rang des trois principaux risques, suivie par la validité statistique et l’exactitude du modèle.

Le problème des données est très actuel et, souvent, ce sont les DSI eux-mêmes qui disent : « Si vous ne le résolvez pas, vous n’obtiendrez pas les résultats souhaités », déclare Krishna Prasad, directeur de la stratégie et CIO de l’UST, une entreprise de solutions de données en transformation numérique.

Prasad dit avoir entendu cette conversation dans sa propre entreprise et chez les entreprises clientes de l’entreprise.

Les directeurs de l’information affirment qu’il s’agit d’une discussion particulièrement difficile car ils ne sont généralement pas responsables de l’état des données de l’entreprise ; tout ce qu’ils peuvent faire, c’est partager leurs observations et contribuer à l’élaboration de remèdes.

D’un autre côté, ils affirment également que leurs appels à davantage d’actions en faveur de la qualité des données reçoivent aujourd’hui une plus grande attention, grâce à l’IA. « L’intelligence artificielle soulève la question des données, car les données sont désormais plus critiques que jamais pour l’entreprise », souligne Perez de Salesforce.

5. Quelle est notre propension au risque et comment y répondre ?

Les risques et les problèmes de sécurité liés aux initiatives d’IA dominent également de nombreuses conversations que les DSI ont avec leurs pairs et les équipes de direction. Et pour cause : les entreprises ont vu leurs données propriétaires et protégées par la réglementation circuler vers des outils d’IA ouverts, comme ChatGPT. Ils ont vu l’IA fournir des réponses déformées et des résultats complètement falsifiés (ce qu’on appelle l’hallucination de l’IA). Et ils ont obtenu des résultats qu’ils ne peuvent ni authentifier ni valider, faute d’explications.

« Il existe des exemples de personnes utilisant cette technologie d’une manière qui met leur entreprise et elles-mêmes en danger sans s’en rendre compte », explique Crawford.

Les DSI soulignent que bloquer l’utilisation de l’IA n’est pas la solution. Interdire son utilisation ne l’arrêtera pas, car il est probable que certains salariés continueront à en faire l’expérience [in inglese]. Aussi, Les éditeurs de logiciels d’entreprise intègrent l’IA [in inglese] dans les produits et services qu’ils vendent, l’intelligence artificielle entre donc de toute façon dans le secteur. De plus, interdire ou limiter son utilisation par peur du risque désavantage l’entreprise par rapport à ses concurrents qui poursuivent des initiatives en matière d’IA.

Crawford et d’autres soutiennent que les responsables de l’information doivent mettre ces points sur la table. Les DSI doivent également suivre les discussions législatives sur d’éventuelles réglementations et comprendre leur impact sur le programme d’IA de leur entreprise.

« C’est une conversation difficile à avoir pour les DSI, qui encouragent l’innovation tout en essayant de protéger les données des clients et la propriété intellectuelle, car s’ils ne font pas attention à ce qu’ils disent, ils peuvent paraître contre ou favorables. de cette nouvelle technologie et des personnes qui travaillent autour d’elles », ajoute Crawford.

6. Comment notre stratégie en matière d’IA aborde-t-elle les questions éthiques ?

Amanda Crawford, directrice exécutive du Département des ressources informationnelles du Texas et CIO de l’État du Texas, déclare qu’elle parle des paramètres éthiques et acceptables pour l’utilisation de l’IA dans le cadre de ses conversations sur la présence de la technologie au sein du gouvernement de l’État.

« Nous ne voulons pas être à la pointe ; ce n’est pas quelque chose à quoi nous aspirons, en raison des obligations et des responsabilités qui découlent du fait d’être gouvernement. Cela se produit avec d’autres technologies émergentes, et cela est certainement vrai pour une technologie disruptive comme l’IA », explique l’expert. « Le rythme auquel nous avançons au sein du gouvernement est donc un peu plus lent, c’est un peu plus réfléchi, intentionnel et délibéré parce que cela doit être le cas, compte tenu de la nature de ce que nous faisons. Nous devons garder la foi. »

Cela ne veut pas dire que l’État du Texas n’utilise pas l’IA, dit Crawford. En fait, comme de nombreuses entités privées, le gouvernement du Texas a mis en œuvre des chatbots, des systèmes d’automatisation et des systèmes intelligents dans l’ensemble de ses opérations, et explore les domaines dans lesquels l’IA générative et d’autres technologies d’IA plus récentes pourraient être utilisées.

«Mais les réflexions que nous menons concernent avant tout les questions d’éthique et de vie privée, ainsi que les obligations que nous avons en tant que gouvernement concernant les droits constitutionnels et le droit à la vie privée de nos électeurs. Ces aspects doivent être pris en compte dans nos décisions », explique Crawford.

Par exemple, ils pourraient se concentrer sur le fait que certaines tâches doivent être effectuées par des humains plutôt que par des systèmes intelligents en raison de la loi, des politiques publiques, des meilleures pratiques ou des attentes des citoyens.

« Je trouve souvent qu’en tant que DSI, c’est mon travail de poser ces questions », ajoute Crawford, ajoutant qu’elle et de nombreux autres responsables informatiques de l’État du Texas recherchent « un leadership aux niveaux exécutif et législatif pour nous aider à travers mise en œuvre ».

Crawford et les agences gouvernementales ne sont pas les seuls à remettre en question l’éthique de l’IA.

Les directeurs de l’information discutent avec leurs collègues de leurs responsabilités si leurs systèmes d’IA produisent des préjugés ou des hallucinations, a déclaré Prasad du FSO. Ils expliquent comment ils peuvent suivre et expliquer les résultats de l’IA et ce qui devrait se passer s’ils ne le peuvent pas.

« L’IA vous permet de faire toutes sortes de choses, mais la question est de savoir si vous voulez vraiment le faire. C’est un sujet qui nécessite une discussion avec l’équipe de direction et même avec le conseil d’administration.




Source link