L’avis de l’Inde sur l’utilisation du LLM suscite la consternation

Les requêtes par courrier électronique envoyées à Microsoft, AWS, Oracle et à d’autres fournisseurs de modèles concernant l’avis sont restées sans réponse.
Faciliter la détection du contenu généré par l’IA
La recommandation de l’avis selon laquelle les fournisseurs de LLM filigranent tout le contenu généré qui pourrait être utilisé à des fins de tromperie peut également s’avérer problématique.
La méta est développer des outils pour identifier les images produites par l’IA générative à grande échelle sur ses plateformes de médias sociaux – Facebook, Instagram et Threads – mais ne dispose pas d’outils de ce type pour détecter l’audio et la vidéo générés. Google dispose également de ses propres algorithmes pour détecter le contenu généré par l’IA, mais n’a fait aucune annonce à ce sujet.
Ce qui manque, c’est une norme commune que tous les fournisseurs de technologie devraient suivre, selon les experts.
Une telle norme serait également utile ailleurs : si l’Union européenne La loi sur l’IA est approuvée en avril Ensuite, il introduira des obligations de transparence strictes pour les fournisseurs et les déployeurs d’IA afin d’étiqueter les contrefaçons profondes et de filigraner le contenu généré par l’IA.
Impact du conseil sur les prestataires de LLM et les entreprises
Les experts et les analystes ont déclaré que l’avis, s’il n’était pas davantage clarifié, pourrait entraîner une perte commerciale importante pour les fournisseurs de LLM et leurs clients, tout en étouffant l’innovation.
« L’avis freinera les progrès dans la commercialisation de ces modèles en Inde. Cela aura un impact significatif sur l’environnement global, car de nombreuses entreprises comptent sur cette technologie », a déclaré Mishra de Gartner.
Giri d’IDC a déclaré que l’avis pourrait amener les premiers utilisateurs de la technologie à se précipiter pour mettre à niveau leurs applications afin de garantir le respect de l’avis.
« Les ajustements apportés aux processus de publication, une transparence accrue et une surveillance continue pour répondre aux normes réglementaires pourraient entraîner des retards et augmenter les coûts opérationnels. Un examen plus strict des modèles d’IA pourrait limiter l’innovation et l’expansion du marché, ce qui pourrait entraîner des opportunités manquées », a déclaré Giri.
Tejasvi Addagada, responsable informatique, estime que donner la priorité à la conformité et à l’utilisation éthique de l’IA peut instaurer la confiance avec les clients et les régulateurs, offrant des avantages à long terme tels qu’une meilleure réputation et une différenciation sur le marché.
L’exclusion des startups crée une certaine confusion
Le tweet du ministre d’État chargé de l’informatique excluant les startups des nouvelles exigences a suscité de nouvelles controverses, certains se demandant si cela pourrait donner lieu à des poursuites judiciaires de la part de grandes entreprises alléguant des pratiques anticoncurrentielles.
« L’exemption des startups de l’avis pourrait soulever des inquiétudes concernant les lois sur la concurrence si cela leur donne un avantage injuste par rapport aux entreprises établies », a déclaré Natarajan.
Bien que les fournisseurs de modèles tels qu’OpenAI, Stability AI, Anthropic, Midjourney et Groq soient largement considérés comme des startups, ces entreprises ne correspondent pas à la définition des startups du gouvernement indien telle que définie par le ministère de la promotion de l’industrie et du commerce intérieur (DPIIT). , ce qui les obligerait à se constituer en société en Inde en vertu de la loi sur les sociétés de 2013.
La modification de la politique visant à exclure les startups semble être une réflexion secondaire, a déclaré Mishra, car de nombreuses petites startups innovantes sont également menacées, car l’ensemble de leur activité tourne autour de l’IA et des LLM.
Les experts attendent des éclaircissements supplémentaires de la part du gouvernement après l’expiration du délai de 15 jours accordé aux prestataires de LLM pour déposer des rapports sur leurs actions et le statut de leurs modèles.
Source link