Fermer

octobre 2, 2019

Pour lancer des projets d'IA, pensez "intelligence minimum viable"2 minutes de lecture



L'intelligence artificielle (IA) a été un sujet brûlant parmi les responsables informatiques et les dirigeants d'entreprise, car elle promet d'être le principal moteur de changement de l'histoire de l'humanité. Notre façon de travailler, de vivre, d’apprendre et de jouer ne sera plus jamais la même une fois que l’IA est insufflé dans tous nos appareils, voitures, appareils et tout ce avec quoi nous interagissons. Les DSI sont bien conscients de cela et envisagent d’utiliser l’intelligence artificielle dans le cadre de leur stratégie de transformation numérique.

L'un des défis est que les gens surestiment souvent ce que l'IA peut faire et attendent la perfection. En cas d’erreur, il est temps de raffiner les algorithmes ou de consacrer plus de temps à la phase d’apprentissage. Par exemple, dans le cas des voitures autonomes, lorsqu'un accident survient, les gens paniquent et agissent comme si la voiture était le cousin perdu de longue date d'un T-600 Terminator qui avait délibérément eu pour accident de tuer un humain. Le fait est que les voitures autonomes ne doivent pas nécessairement être sans accident, elles doivent simplement être meilleures que les conducteurs humains pour être utiles à la société. Cet obstacle est réalisable aujourd'hui.

Cela signifie, d'une manière générale, que les systèmes d'intelligence artificielle doivent simplement être fonctionnels (c'est-à-dire utiles à l'utilisateur) pour être mis en production. Peut-il obliger un médecin à travailler plus intelligemment? Peut-il aider à classer les images plus rapidement que les gens? Peut-il prévoir les pannes plus rapidement qu'un ingénieur? Une fois ce seuil atteint, déployez-le et profitez-en.

Viser l'intelligence minimale viable

La semaine dernière, j'ai assisté à un événement d'intelligence artificielle organisé à Cambridge par les consultants Cambridge, NVIDIA et NetApp, au cours duquel ce sujet avait été abordé. Au cours de son discours, Tim Ensor, directeur d’AI chez Cambridge Consultants, a expliqué comment, lorsque sa société travaille avec les clients, les initiatives d’IA sont lancées dès lors qu’elles atteignent une «intelligence minimale viable» (MVI).

Le seuil de ce que signifie "minimum viable" variera selon les cas d'utilisation. Par exemple, un robot basé sur l'IA qui assemble les commandes des clients pour un détaillant doit être proche de la perfection, car les erreurs peuvent coûter très cher aux entreprises. Pour d’autres applications, cependant, la barre n’est pas aussi haute.




Source link