Fermer

juillet 8, 2024

10 façons de prévenir le désastre de l’IA fantôme

10 façons de prévenir le désastre de l’IA fantôme



Par exemple, dit Chandrasekaran, il y a de fortes chances que des données sensibles soient exposées et que des données propriétaires puissent aider un modèle d’IA (en particulier s’il est open source) à devenir plus intelligent, aidant ainsi les concurrents susceptibles d’utiliser le même modèle.

Dans le même temps, de nombreux travailleurs n’ont pas les compétences nécessaires pour utiliser efficacement l’IA, ce qui augmente encore le niveau de risque. Ils ne sont peut-être pas suffisamment compétents pour fournir au modèle d’IA les bonnes données afin de générer des résultats de qualité ; inciter le modèle avec les bons intrants à produire des résultats optimaux ; et vérifier l’exactitude des résultats. Par exemple, les employés peuvent utiliser l’IA générative pour créer du code informatique, mais ils ne peuvent pas détecter efficacement les problèmes dans ce code s’ils n’en comprennent pas la syntaxe ou la logique. « Cela pourrait être très préjudiciable », dit Chandrasekaran.

Parallèlement, l’IA fantôme pourrait provoquer des perturbations au sein du personnel, dit-il, car les travailleurs qui utilisent subrepticement l’IA pourraient bénéficier d’un avantage injuste par rapport aux employés qui n’ont pas utilisé de tels outils. « Ce n’est pas encore une tendance dominante, mais c’est une préoccupation que nous entendons dans nos discussions [with organizational leaders]», dit Chandrasekaran.




Source link