Fermer

mars 21, 2024

AI Act, feu vert du Parlement européen : tout ce que les DSI doivent savoir

AI Act, feu vert du Parlement européen : tout ce que les DSI doivent savoir



Cependant, même les données synthétiques peuvent présenter des biais ou d’autres distorsions et il reste essentiel qu’il y ait toujours une surveillance humaine et une gouvernance adéquates derrière la collecte et l’utilisation des données, quels que soient leur type et leur source.

Il y a un autre aspect à prendre en compte dans la formation des modèles : la mise à jour des données, car les informations changent et une donnée peut être correcte aujourd’hui mais pas demain.

Dans l’AI Act, on parle aussi de modèles GPAI (General Purpose AI, sur lesquels il s’appuie) IA générative) Open source. Ceux-ci ont été exemptés de certaines exigences de transparence, à condition qu’ils rendent publics leurs paramètres et informations. Il faut cependant préciser que cette exemption ne s’applique pas aux modèles qui présentent un risque systémique, et tous doivent néanmoins respecter des obligations relatives aux résumés des contenus utilisés à des fins de formation et au respect des lois sur le droit d’auteur.

Compétences et gouvernance

Certains des points présents dans la loi sur l’IA ont également été soulignés par le Manifeste sur l’IA publié par Anitec-Assinform, une association Confindustria qui représente les entreprises des TIC. Le gouvernement italien, par exemple, est invité à promouvoir des programmes de tests contrôlés et à établir des bacs à sable réglementaires (l’UE le prévoit également), pour garantir que les solutions sont sûres et avant-gardistes et faciliter l’accès des PME aux nouvelles technologies. . Le Manifeste affirme également que l’intelligence artificielle ne remplacera pas les personnes au travail, mais les fera travailler différemment, en mettant également l’accent sur la nécessité de réaliser des activités de formation. Mais quelles sont les compétences nécessaires et qui doit s’en occuper ?

« Les compétences en IA doivent être traitées comme des compétences générales et comme un ensemble de connaissances transversales », déclare Alessandro De Nisco, professeur titulaire de gestion et de marketing à l’Université d’études internationales de Rome (UNINT) et directeur du Département des sciences humaines et internationales. événements sociaux de la même université. « Si l’on considère la question du point de vue universitaire, les compétences en intelligence artificielle devraient entrer dans les programmes de formation de tous les domaines d’études et inclure la mise à jour des enseignants. Cela implique que nous disposerons d’une main-d’œuvre prête à utiliser l’IA comme outil de travail dans un délai très court, donc à court terme, les entreprises devront intervenir dans leurs programmes de formation ».

Le véritable défi de l’intelligence artificielle, en effet, observe De Nisco, « n’est pas le développement d’applications, mais la reformulation de son organisation interne pour insérer progressivement cette technologie dans l’architecture de l’entreprise dans son ensemble, en sachant l’utiliser et avec quelles limites et quels risques. La première compétence aujourd’hui est de savoir comment vérifier les données et les informations générées par l’IA pour tout processus métier, car les risques de résultats incorrects, datés ou contraires à l’éthique pourraient compromettre ses grands avantages.

La gouvernance, les lignes directrices et la collaboration interservices sont des incontournables de l’IA dans l’entreprise et, si les DSI craignent de ne pas trouver suffisamment de talents informatiques, ils peuvent garder à l’esprit que les compétences requises sont tellement transversales qu’ils peuvent également s’appuyer sur des parcours d’études adjacents (de de l’économie à la physique), jusqu’aux domaines (apparemment) plus lointains, comme les sciences humaines et sociales.

Délais de conformité

Selon le texte final de la loi sur l’IA, les interdictions de pratiques spécifiques d’IA (telles que le score social) seront appliquées dans un délai de 6 mois, les règles sur les modèles GPAI dans un délai de 12 mois (avec 12 mois supplémentaires pour les modèles préexistants) et les réglementations pour les systèmes d’IA utilisés comme composants de sécurité ou à haut risque dans un délai de 36 mois alors que ces derniers existant avant l’application de la loi ne doivent s’y conformer que s’ils subissent des modifications significatives dans leur conception, tandis que ceux utilisés par les pouvoirs publics ont un délai de 4 ans conformité.




Source link