Nous devons nous concentrer sur l'IA complétant l'esprit, ne pas le remplacer
Toutes les quelques décennies, un développement technologique nous amène à croire que l'intelligence générale artificielle (alias AI forte), la marque d'IA capable de penser et de décider comme les humains, est juste autour du coin. L'excitation qui s'ensuit s'accompagne de craintes de quasi-futur dystopique et d'une course aux armements entre les compagnies et les États pour être le premier à créer une IA générale.
Cependant, chaque fois que nous pensions avoir une IA forte, nous avons été déçu. Mal. Chaque fois, nous avons dépensé beaucoup de temps, de ressources, d'argent et l'énergie de nos scientifiques les plus brillants pour accomplir quelque chose qui semble être une chimère. Et chaque fois, ce qui s'ensuivit fut une période de déception et de désintérêt sur le terrain, qui dura des décennies.
Nous sommes actuellement dans la pleine course d'un tel cycle, grâce à apprentissage automatique et apprentissage profond les technologies qui ont été au cœur des développements de l'IA au cours des dernières années. Poussé (et aveuglé) par les capacités de l'apprentissage profond, et comment il a jusqu'ici défendu les normes établies par des logiciels traditionnels, de nombreuses organisations et visionnaires (avec des poches profondes) pensent une fois encore une fois qu'une IA forte est à l'horizon et veut l'attraper avant que les autres ne le fassent (soupir d'exaspération).
Un exemple récent de la façon dont cette hype se manifeste est la déclaration par OpenAI de créer machines avec une réelle intelligence . Au cas où vous ne le sauriez pas, OpenAI est un organisme à but non lucratif lancé fin 2015 avec plus de $ 1 milliard de financement de la part d'Elon Musk et de Sam Altman, PDG de Y Combinator. L'organisation a réussi à acquérir le talent d'IA rare et à leur payer des salaires à six et sept chiffres pour s'engager dans des projets comme celui que je viens de mentionner.
se concentre sur la recherche d'une IA capable de rivaliser avec le cerveau humain, nous manquons de nombreuses opportunités et ne parvenons pas à répondre aux menaces que présente la faible technologie actuelle de l'IA
Et ce n'est pas une mauvaise chose. En fait, l'IA étroite peut se concentrer sur des tâches spécifiques et les faire beaucoup mieux que les humains. Par exemple, alimenter un algorithme d'apprentissage en profondeur avec suffisamment d'images du cancer de la peau, et il deviendra meilleur que les médecins expérimentés pour repérer un cancer de la peau
. l'apprentissage remplacera les médecins. Vous avez besoin d'intuition, de pensée abstraite et de beaucoup plus de compétences pour pouvoir décider ce qui est le mieux pour un patient. Mais les algorithmes d'apprentissage en profondeur aideront sûrement les médecins à accomplir leur travail mieux, plus rapidement et à prendre plus de patients en moins de temps. Cela réduira également le temps nécessaire pour éduquer et former les professionnels de la santé.
Un autre exemple est celui de l'éducation, où les algorithmes actuels de l'IA peuvent aider les enseignants à trouver et à combattre la douleur points dans l'apprentissage des élèves ou de repérer les problèmes dans leur propre programme d'études de nouvelles façons. Ces algorithmes d'IA sont encore trop loin d'acquérir les compétences sociales compliquées dont les enseignants ont besoin pour aider les élèves à trouver leur chemin vers la connaissance, mais ils peuvent certainement aider les enseignants à devenir meilleurs dans leur métier
, les parties répétitives de la plupart des emplois et laisser les humains prendre soin des parties qui nécessitent des soins humains et de l'attention. Un exemple très intéressant est le service client, où grâce au traitement et génération en langage naturel les chatbots alimentés par l'IA peuvent répondre aux requêtes simples et triviales de la plupart des clients, en laissant des employés tendent vers les cas les plus compliqués . Cela se traduit par moins de frustration chez les clients, des temps d'attente plus courts et une meilleure utilisation des temps des employés.
Une meilleure définition de l'IA faible est " intelligence augmentée ", ce qui indique clairement que la technologie est ici pour compléter l'esprit humain, ne pas le remplacer. Si nos experts ne pouvaient que se concentrer sur la création d'outils qui nous permettraient de tirer le meilleur parti de l'IA étroite et la rendre accessible à davantage d'organisations et de personnes, nous serions certainement dans une meilleure position.
Beaucoup de visionnaires mettent en garde contre un avenir lointain où l'IA devient trop intelligente et trop forte et conduit les humains à l'esclavage ou à l'extinction. Mais même les estimations les plus optimistes (ou pessimistes, selon votre perspective) placent le général AI au moins dans des décennies .
Ce qui est imminent, toutefois, c'est le danger clair et actuel de IA étroite . Il y a déjà de nombreuses façons dont l'IA faible peut être utilisée à des fins malveillantes, et nous n'avons pas besoin d'attendre des décennies avant que cela n'arrive.
Grâce aux progrès de l'apprentissage profond, créer des photos et des vidéos doctored est devenu très facile et accessible pour presque n'importe qui avec un ordinateur décent et une connexion Internet. Cette disponibilité d'outils créatifs très efficaces peut mener à une nouvelle ère de la cybercriminalité, où la falsification et la fraude n'ont plus besoin de beaucoup d'argent et d'accès à des personnes très talentueuses.
Un autre exemple est La technologie de reconnaissance faciale assistée par intelligence artificielle, qui devient de plus en plus efficace et disponible sur différents appareils grâce aux progrès de l'informatique de pointe. Entre de mauvaises mains, la technologie de reconnaissance faciale peut devenir un cauchemar de la vie privée . Déjà, plusieurs gouvernements comme la Chine exploitent la technologie pour établir un état de surveillance envahissant et garder un contrôle strict sur leurs citoyens, en particulier les dissidents.
biais algorithmique algorithmes AI qui imitent aveuglément et amplifient les préjugés humains, et les bulles de filtrage des médias sociaux les flux de nouvelles alimentés par l'IA qui nous montrent seulement ce que nous voulons voir plutôt que ce que nous devrions voir. Ce dernier a déjà montré ses pouvoirs destructeurs lors des élections de ces dernières années où de mauvais acteurs gaming AI algorithmes fonctionnant derrière Facebook à manipulent ses utilisateurs avec des publicités politiques micro-ciblées . , AI sera capable de blesser les gens de manière plus directe. En 2016, l'Agence de projets de recherche avancée de défense (DARPA) a lancé un concours de validation du concept appelé Cyber Grand Challenge dans lequel des algorithmes AI – et non des pirates humains – ont rivalisé trouver et exploiter les vulnérabilités dans les réseaux de l'autre. La compétition a montré un aperçu de ce à quoi pourraient ressembler les cyber-guerres du futur. Et vous n'avez pas besoin d'une forte IA pour cela.
Et la menace des armes autonomes approche. Ce n'est pas un robot de style Terminator qui peut parler, penser et tuer comme un tueur humain de sang-froid. Ce sont des drones contemporains, des armes à feu et des chars qui utilisent la technologie d'IA étroite contemporaine comme la vision par ordinateur et la reconnaissance vocale pour identifier, suivre et atteindre des cibles.
Il a raison. Et c'est exactement ce à quoi sert l'IA faible
Cette histoire est republiée à partir de TechTalks le blog qui explore comment la technologie résout les problèmes … et en crée de nouveaux. Comme eux sur Facebook ici et suivez-les ici:
Source link