6 dangers liés à l’IA générative que les responsables informatiques devraient éviter

L’essentiel est de ne pas s’attendre à un résultat que vous pouvez utiliser immédiatement et d’être attentif à reconnaître les façons dont l’IA générative peut être utilement faux. Traitez-le comme une discussion de brainstorming qui stimule de nouvelles idées plutôt que comme quelque chose qui produira l’idée parfaite pour vous.
C’est pourquoi Microsoft a adopté Copilot plutôt que le pilote automatique pour la plupart de ses outils d’IA générative. « Il s’agit de mettre les humains dans la boucle et de les concevoir de telle manière que l’humain ait toujours le contrôle avec un copilote puissant qui les aide dans chaque tâche », a déclaré le PDG Satya Nadella lors de la conférence Inspire cet été. Apprendre à expérimenter des invites pour obtenir de meilleurs résultats est un élément clé de l’adoption de l’IA générative, c’est pourquoi des outils comme Copilot Lab peuvent aider les employés à acquérir ces compétences.
De même, plutôt que de tenter d’automatiser les processus, créez des flux de travail pour vos propres outils d’IA générative qui encouragent le personnel à expérimenter et à évaluer ce que produit l’IA. N’oubliez pas de prendre en compte les informations dont disposera l’humain qui examine les suggestions de l’IA sur la situation – et quelle incitation il a à examiner les résultats et à vérifier toutes les sources citées, plutôt que de simplement gagner du temps en acceptant la première option qui lui est proposée sans s’en assurer. c’est précis et approprié.
Les utilisateurs doivent comprendre suffisamment bien les suggestions et les décisions qu’ils acceptent de l’IA générative pour savoir quelles pourraient en être les conséquences et les justifier auprès de quelqu’un d’autre. « Si votre organisation n’explique pas les décisions assistées par l’IA, elle pourrait être confrontée à des mesures réglementaires, à des atteintes à sa réputation et à un désengagement du public », prévient le Bureau du commissaire à l’information du Royaume-Uni.
Proposer plusieurs alternatives à chaque fois et montrer comment interpréter les suggestions peut aider, ainsi qu’utiliser des invites qui demandent à un LLM d’expliquer pourquoi il donne une réponse particulière. Et en plus de demander à l’IA générative de citer les sources des informations clés, réfléchissez aux moyens de mettre en évidence les éléments qu’il est important de vérifier, comme les dates, les statistiques, les politiques ou les précédents sur lesquels on s’appuie.
Mais en fin de compte, il s’agit de construire une culture dans laquelle l’IA générative est considérée comme un outil utile qui doit encore être vérifié, et non comme un substitut à la créativité ou au jugement humains.
« L’IA générative ou toute autre forme d’IA devrait être utilisée pour augmenter la prise de décision humaine, et non pour la remplacer dans des contextes où ses limites pourraient nuire », souligne Daga. « Les évaluateurs humains devraient être formés pour évaluer de manière critique les résultats de l’IA, et non pas simplement les accepter à leur valeur nominale. »
En plus d’un processus qui inclut un examen humain et encourage l’expérimentation et l’évaluation approfondie des suggestions de l’IA, des garde-fous doivent également être mis en place pour empêcher les tâches d’être entièrement automatisées lorsque cela n’est pas approprié. « Par exemple, l’IA peut générer des points de presse d’entreprise, mais seul un rédacteur humain peut approuver le partage de contenu avec des journalistes et des publications sélectionnés », ajoute-t-il.
L’IA générative peut certainement également rendre les développeurs plus productifs, qu’il s’agisse d’explorer une nouvelle base de code, de remplir du code passe-partout, de remplir automatiquement des fonctions ou de générer des tests unitaires. Vous pouvez profiter de cette productivité supplémentaire tout en décidant que le code ne sera pas publié dans un environnement de production sans examen humain.
Les entreprises sont responsables des conséquences de leurs choix, et cela inclut le déploiement de l’IA dans des domaines inappropriés, déclare Andi Mann, CTO mondial et fondateur du cabinet de conseil Sageable basé au Colorado. « Le client ne vous laissera pas indemne d’une violation de données simplement parce que « c’était la faute de notre IA ». »
Cacher l’IA
Il est crucial de garantir une utilisation responsable du système, que ce soit par les employés ou par les clients, et la transparence en est un élément important. Un nombre embarrassant de publications utilisent du contenu généré par l’IA qui est facile à repérer en raison de sa mauvaise qualité, mais vous devez savoir clairement quand même un contenu de bonne qualité est produit par un système d’IA, qu’il s’agisse d’un résumé de réunion interne, d’un message marketing, ou réponse du chatbot. Fournissez une « rampe de sortie » pour les systèmes automatisés tels que les chatbots qui permettent aux utilisateurs de transmettre leur question à un humain.
« Les clients devraient avoir la possibilité de refuser les interactions avec l’IA générative, en particulier dans les zones sensibles », explique Daga.
Supposons que l’IA puisse résoudre tous les problèmes
À mesure que l’utilisation de l’IA générative augmente dans les entreprises, la prise de conscience du fait que les gens doivent utiliser leur propre jugement sur ce que suggère l’IA augmente également. C’est ce qu’ont déclaré huit informaticiens sur dix lors de l’enquête de l’année dernière. Rapport sur l’état de l’automatisation DevOpset jusqu’à un peu plus de 90 % en 2023 État de l’automatisation DevOps et de l’IA étude.
Selon Mann, cette prudence est justifiée, en particulier lorsque les données de formation spécifiques à un domaine pouvant être utilisées pour générer des résultats prévisibles, souhaitables et vérifiables sont limitées, comme dans les opérations informatiques, car elles sont susceptibles de donner des résultats inexacts en raison de données de formation insuffisantes.
« GenAI sera moins significatif pour tout cas d’utilisation traitant de problèmes nouveaux et de causes inconnues avec des connaissances manquantes ou non documentées », a-t-il prévenu. « Former un LLM est impossible si des connaissances tribales humaines non divulguées constituent votre seul apport potentiel. »
Il voit cependant des opportunités d’utiliser GenAI comme acolyte. « Il peut s’agir d’un conseiller ou d’un expert actif qui forme un moteur pour apprendre à quoi ressemblent les opérations informatiques « bonnes connues » dans des disciplines et des réserves de connaissances définies, et reconnaître les problèmes connus, diagnostiquer les causes connues, identifier les inefficacités connues et répondre avec des mesures correctives connues. » il dit. Mais même si certains problèmes informatiques qui peuvent sembler nouveaux peuvent être résolus avec des processus et des solutions familiers, il n’est pas possible de savoir à l’avance de quoi il s’agit.
« Nous savons que la génération IA ne dit presque jamais qu’elle ne sait pas quelque chose, mais qu’elle génère plutôt des résultats trompeurs, fallacieux, erronés et même malveillants lorsque vous essayez de lui faire résoudre des « inconnues inconnues », explique Mann.
Faire plus de travail pour les humains
Le contenu produit par l’IA générative peut bien sûr être utile, mais comme il est si facile à créer, il peut également finir par représenter beaucoup plus de travail pour ceux qui doivent l’examiner et prendre des mesures en fonction de celui-ci.
Les magazines de fiction rapportent recevoir tellement d’histoires de mauvaise qualité écrites par l’IA qu’il s’agit en fait d’une attaque par déni de service. Les éditeurs ont expérimenté l’IA pour copier et modifier des manuscrits, mais les auteurs et les éditeurs signalent que les modifications suggérées sont souvent inutiles, non pertinentes ou tout simplement fausses – se heurtant à des problèmes avec les termes techniques, le style maison, les structures de phrases complexes et les mots utilisés correctement. mais de manière inhabituelle, pour commencer. Soyez honnête lorsque vous évaluez les domaines dans lesquels l’IA générative est réellement capable de contribuer.
Un élément clé de l’adoption de tout outil d’IA est de disposer d’un processus permettant de traiter les erreurs au-delà de leur correction individuellement à chaque fois. Ne présumez pas que l’IA générative apprend de ses erreurs ou qu’elle vous donnera le même résultat à chaque fois. Si cela est important, vous devez utiliser une ingénierie rapide et des filtres pour limiter les résultats dans les domaines les plus importants.
Préparez-vous également à une utilisation de l’IA générative dans des domaines et des processus que vous n’aviez pas prévus, où elle peut être moins précise. Encore une fois, la transparence est la clé. Le personnel doit connaître la politique de l’entreprise indiquant quand il peut utiliser l’IA générative et comment divulguer qu’il l’utilise. Vous voudrez peut-être aussi inclure l’utilisation de l’IA générative dans les audits et la découverte électronique de la même manière que vous le faites avec les systèmes de chat d’entreprise.
Les organisations devront peut-être commencer à définir ces politiques de manière plus urgente. Sur un millier d’entreprises américaines interrogées par TECHnalysis Research au printemps 2023, 88 % utilisaient déjà l’IA générative, mais seulement 7 % de ces premiers utilisateurs avaient des politiques formelles.
Et dans un étude récente d’IDC sur les opportunités de l’IA, plus d’un quart des chefs d’entreprise ont déclaré que le manque de gouvernance de l’IA et de gestion des risques constituait un défi pour la mise en œuvre et le développement de la technologie. Les premières préoccupations concernaient la confidentialité des données de l’entreprise, mais l’atteinte à la réputation devrait également être une priorité. En outre, plus de la moitié ont cité le manque de travailleurs qualifiés comme leur principal obstacle, qui concerne généralement les développeurs et les ingénieurs de données. Mais les utilisateurs professionnels moins techniques auront également besoin des compétences nécessaires pour formuler soigneusement les questions qu’ils posent à un outil d’IA, ainsi que pour évaluer et vérifier les résultats.
Source link