Fermer

décembre 4, 2023

Naviguer dans l’avenir de la réglementation de l’IA pour l’innovation éthique


Les opinions exprimées par les contributeurs d’Entrepreneur sont les leurs.

Cette histoire a été initialement publiée sur Lireécrire.com

Comme la conversation autour l’avenir de l’IA grandit, le débat sur la gouvernance de l’IA s’intensifie. Certains estiment que les entreprises qui utilisent ou achètent des outils basés sur l’IA devraient être autorisées à s’autoréglementer, tandis que d’autres estiment qu’une législation plus stricte de la part du gouvernement est nécessaire. nécessaire.

Le besoin urgent d’une certaine gouvernance dans le paysage en croissance rapide de l’IA est évident.

L’essor de l’IA : une nouvelle génération d’innovation

Il existe de nombreuses applications de l’IA, mais l’une des organisations les plus innovantes et les plus connues dans le domaine de l’intelligence artificielle est OpenAI. OpenAI a gagné en notoriété après que son processeur de langage naturel (NLP), ChatGPT, soit devenu viral. Depuis, plusieurs technologies OpenAI ont connu un grand succès.

De nombreuses autres entreprises ont consacré plus de temps, de recherche et d’argent pour rechercher une réussite similaire. Rien qu’en 2023, les dépenses consacrées à l’IA devraient atteindre 154 milliards de dollars, soit une augmentation de 27 % par rapport à l’année précédente, selon un article rapporté par Lireécrire.com. Depuis la sortie de ChatGPTl’IA est passée du statut de périphérie à celui de quelque chose dont presque tout le monde dans le monde est conscient.

Sa popularité peut être attribuée à divers facteurs, notamment son potentiel à améliorer la production d’une entreprise. Les enquêtes montrent que lorsque les travailleurs améliorer leurs compétences numériques et travailler en collaboration avec des outils d’IAils peuvent augmenter la productivité, améliorer les performances de l’équipe et améliorer leurs capacités de résolution de problèmes.

Après avoir vu des publications aussi positives, de nombreuses entreprises de divers secteurs – de l’industrie manufacturière et de la finance aux soins de santé et à la logistique – utilisent l’IA. Alors que l’IA semble devenir du jour au lendemain la nouvelle norme, nombreux sont ceux qui s’inquiètent d’une mise en œuvre rapide entraînant une dépendance technologique, des problèmes de confidentialité et des problèmes de confidentialité. autres préoccupations éthiques.

L’éthique de l’IA : avons-nous besoin d’une réglementation sur l’IA ?

Avec le succès rapide d’OpenAI, les législateurs, les régulateurs et le grand public discutent de plus en plus des implications en matière de sécurité et d’éthique. Certains sont favorables à une croissance plus éthique de la production d’IA, tandis que d’autres estiment que les individus et les entreprises devraient être libres d’utiliser l’IA à leur guise pour permettre des innovations plus significatives.

Si rien n’est fait, de nombreux les experts estiment que les problèmes suivants va surgir.

  • Préjugés et discrimination : les entreprises affirment que l’IA aide à éliminer les préjugés, car les robots ne peuvent pas faire de discrimination, mais les systèmes basés sur l’IA sont aussi justes et impartiaux que les informations qui leur sont fournies. Les outils d’IA ne feront qu’amplifier et perpétuer ces préjugés si les données que les humains utilisent pour coder l’IA sont déjà biaisées.
  • Agence humaine : nombreux sont ceux qui développeront une dépendance à l’égard de l’IA, ce qui peut affecter leur vie privée et leur pouvoir de choix concernant le contrôle de leur vie.
  • Abus de données : l’IA peut contribuer à lutter contre la cybercriminalité dans un monde de plus en plus numérique. L’IA a le pouvoir d’analyser des quantités de données beaucoup plus importantes, ce qui peut permettre à ces systèmes de reconnaître des modèles susceptibles d’indiquer une menace potentielle. Cependant, on craint que les entreprises utilisent également l’IA pour collecter des données qui pourraient être utilisées pour abuser et manipuler les personnes et les consommateurs. Cela conduit à savoir si l’IA rend les gens plus ou moins sécurisés (forgerock dotcom).
  • La propagation de la désinformation : parce que l’IA n’est pas humaine, elle ne comprend pas le bien ou le mal. En tant que telle, l’IA peut diffuser par inadvertance des informations fausses et trompeuses, ce qui est particulièrement dangereux à l’ère actuelle des médias sociaux.
  • Manque de transparence : la plupart des systèmes d’IA fonctionnent comme des « boîtes noires ». Cela signifie que personne ne sait jamais pleinement comment ou pourquoi ces outils arrivent à certaines décisions. Cela conduit à un manque de transparence et à des préoccupations quant à la responsabilité.
  • Perte d’emploi : L’une des plus grandes préoccupations au sein de la population active est la suppression d’emplois. Même si l’IA peut améliorer les capacités des travailleurs, nombreux sont ceux qui craignent que les employeurs choisissent simplement de remplacer entièrement leurs employés, préférant le profit à l’éthique.
  • Chaos : Dans l’ensemble, on craint généralement que si l’IA n’est pas réglementée, elle conduira à un chaos de masse, comme l’utilisation d’informations militarisées, la cybercriminalité et les armes autonomes.

Pour répondre à ces préoccupations, les experts plaident en faveur de solutions plus éthiques, telles que faire des intérêts de l’humanité une priorité absolue sur les intérêts de l’IA et de ses avantages. Selon beaucoup, la clé est de donner la priorité aux humains lors de la mise en œuvre continue des technologies d’IA. L’IA ne devrait jamais chercher à remplacer, manipuler ou contrôler les humains, mais plutôt à travailler en collaboration avec eux pour améliorer ce qui est possible. Et l’un des meilleurs moyens d’y parvenir est de trouver un équilibre entre l’innovation et la gouvernance de l’IA.

Gouvernance de l’IA : autorégulation contre législation gouvernementale

Lorsqu’il s’agit d’élaborer des politiques en matière d’IA, la question est la suivante : qui doit exactement réglementer ou contrôler les risques éthiques de l’IA ?

Doit-il s’agir des entreprises elles-mêmes et de leurs parties prenantes ? Ou le gouvernement devrait-il intervenir pour créer des politiques radicales exigeant que tout le monde respecte les mêmes règles et réglementations ?

Outre la question de savoir qui devrait réglementer, se posent la question de savoir exactement ce qui devrait être réglementé et comment. Voici les trois grands défis de la gouvernance de l’IA.

Qui devrait réglementer ?

Certains pensent que le gouvernement ne comprend pas comment assurer une bonne surveillance de l’IA. Sur la base des tentatives précédentes du gouvernement pour réglementer les plateformes numériques, les règles qu’ils créent ne sont pas suffisamment souples pour faire face à la vitesse du développement technologique, comme l’IA.

Ainsi, certains pensent que nous devrions permettre aux entreprises utilisant l’IA d’agir comme des pseudo-gouvernements, établissant leurs propres règles pour régir l’IA. Cependant, cette approche d’autorégulation a conduit à de nombreux préjudices bien connus, tels que des problèmes de confidentialité des données, la manipulation des utilisateurs et la propagation de la haine, des mensonges et de la désinformation.

Malgré le débat en cours, les organisations et les dirigeants gouvernementaux prennent déjà des mesures pour réglementer l’utilisation de l’IA. Le Parlement européen, par exemple, a déjà franchi une étape importante vers établir une réglementation complète sur l’IA. Et au Sénat américain, le chef de la majorité Chuck Schumer est en tête en décrivant un vaste projet de régulation de l’IA. Le Bureau de la science et de la technologie de la Maison Blanche a également commencé à élaborer un plan pour un Déclaration des droits de l’IA.

Quant à l’autorégulation, quatre grandes sociétés d’IA s’interdisent déjà ensemble pour créer une agence de régulation autonome. Microsoft, Google, OpenAI et Anthropic ont tous récemment annoncé le lancement du Frontier Model Forum pour garantir que les entreprises s’engagent dans l’utilisation et le développement sûrs et responsables des systèmes d’IA.

Que faut-il réglementer et comment ?

Il y a aussi le défi de déterminer précisément ce qui doit être réglementé – des éléments comme la sécurité et la transparence étant parmi les principales préoccupations. En réponse à cette préoccupation, le National Institute of Standards and Technology (NIST) a établi une base de référence pour des pratiques sûres d’IA dans leur pays. Cadre de gestion des risques liés à l’IA.

Le gouvernement fédéral estime que le recours aux licences peut contribuer à réglementer l’IA. Les licences peuvent fonctionner comme un outil de surveillance réglementaire, mais peuvent avoir leurs inconvénients, comme le fait de fonctionner davantage comme une solution « universelle » lorsque l’IA et les effets de la technologie numérique ne sont pas uniformes.

La réponse de l’UE à cette situation est un cadre réglementaire de l’IA plus agile et fondé sur les risques, qui permet une approche à plusieurs niveaux qui réponde mieux aux divers cas d’utilisation de l’IA. Sur la base d’une évaluation du niveau de risque, différentes attentes seront imposées.

Emballer

Malheureusement, il n’existe pas encore de réponse solide quant à savoir qui devrait réglementer et comment. De nombreuses options et méthodes sont encore à l’étude. Cela dit, le PDG d’OpenAI, Sam Altman, a approuvé l’idée d’une agence fédérale dédiée explicitement à la surveillance de l’IA. Microsoft et Meta ont également déjà approuvé le concept d’un régulateur national de l’IA.

En rapport: Le leader de la révolution de l’IA, âgé de 38 ans, n’arrive pas non plus à y croire – Rencontrez Sam Altman, PDG d’Open AI

Cependant, jusqu’à ce qu’une décision solide soit prise, il est considéré comme une bonne pratique pour les entreprises utilisant l’IA de le faire de la manière la plus responsable possible. Toutes les organisations sont légalement tenues d’opérer sous un devoir de diligence. Si une entreprise enfreint ces règles, des conséquences juridiques pourraient en découler.

Il est clair que les pratiques réglementaires sont indispensables – il n’y a pas d’exception. Il appartient donc pour l’instant aux entreprises de déterminer la meilleure façon de parcourir la corde raide entre la protection de l’intérêt public et la promotion de l’investissement et de l’innovation.




Source link

décembre 4, 2023