Fermer

juillet 8, 2018

Cet homme a été viré par un ordinateur. Une vraie IA aurait pu le sauver


Ibrahim Diallo aurait été renvoyé par une machine. Des reportages récents ont relaté la frustration grandissante qu'il ressentait alors que son laissez-passer de sécurité cessait de fonctionner, que sa connexion au système informatique était désactivée et que le personnel de sécurité lui avait fait quitter le bâtiment. Ses directeurs étaient incapables d'offrir une explication et impuissants à renverser le système.

Certains pourraient penser que c'était un avant-goût des choses à venir alors que l'intelligence artificielle a plus de pouvoir sur nos vies. Personnellement, j'ai tiré la conclusion inverse. Diallo a été limogé parce qu'un ancien directeur n'avait pas renouvelé son contrat sur le nouveau système informatique et que divers systèmes automatisés ont ensuite cliqué en action. Les problèmes n'étaient pas causés par l'IA, mais par son absence.

Les systèmes ne présentaient aucune intelligence basée sur la connaissance, ce qui signifiait qu'ils n'avaient pas de modèle conçu pour encapsuler les connaissances (comme l'expertise des ressources humaines) sous forme de règles, texte et liens logiques. De même, les systèmes ne montraient aucune intelligence computationnelle – la capacité d'apprendre à partir d'ensembles de données – comme la reconnaissance des facteurs pouvant mener au renvoi. En fait, il semble que Diallo ait été licencié à la suite d'un système démodé et mal conçu, déclenché par une erreur humaine. L'IA n'est certainement pas à blâmer – et cela peut être la solution

La conclusion que je tirerais de cette expérience est que certaines fonctions des ressources humaines sont mûres pour l'automatisation par AI, d'autant plus que, dans ce cas, l'automatisation stupide être si inflexible et inefficace. La plupart des grandes organisations auront un manuel du personnel qui peut être codé comme un système expert automatisé avec des règles et des modèles explicites. De nombreuses entreprises ont créé de tels systèmes dans une gamme de domaines impliquant des connaissances spécialisées, pas seulement en ressources humaines.

Mais un système d'IA plus pratique pourrait utiliser un mélange de techniques pour le rendre plus intelligent. La façon dont les règles devraient être appliquées aux nuances de situations réelles pourrait être apprise à partir des dossiers RH de l'entreprise, de la même manière, des systèmes juridiques de common law comme les précédents d'utilisation de l'Angleterre établis par des cas antérieurs. Le système pourrait réviser son raisonnement à mesure que davantage de preuves seraient disponibles dans un cas donné en utilisant ce qu'on appelle « mise à jour bayésienne ». Un concept d'intelligence artificielle appelé « logique floue » pourrait interpréter des situations qui ne sont pas en noir et blanc, en appliquant des preuves et des conclusions à des degrés divers pour éviter le processus décisionnel radical qui a conduit au renvoi de Diallo. Plus d'ordinateur dit non. Shutterstock

Le besoin de plusieurs approches est parfois négligé dans la vague actuelle de surenthousiasme pour les algorithmes de "deep learning" des réseaux de neurones artificiels complexes inspirés par le cerveau humain qui peuvent reconnaître des modèles dans de grands ensembles de données . Comme c'est tout ce qu'ils peuvent faire, certains experts discutent maintenant pour une approche plus équilibrée. Les algorithmes d'apprentissage en profondeur sont excellents pour la reconnaissance des formes, mais ils ne montrent pas une compréhension profonde.

Utiliser l'IA de cette manière réduirait probablement les erreurs et, quand elles se produiraient, le système pourrait développer et partager les leçons avec d'autres IA. entreprises afin que des erreurs similaires soient évitées à l'avenir. C'est quelque chose qui ne peut pas être dit pour des solutions humaines. Un bon manager humain va apprendre de ses erreurs, mais le prochain manager est susceptible de répéter les mêmes erreurs.

Alors, quels sont les inconvénients? L'un des aspects les plus frappants de l'expérience de Diallo est le manque d'humanité montré. Une décision a été prise, même si elle était erronée, mais elle n'a pas été communiquée ni expliquée. Une IA peut faire moins d'erreurs, mais serait-il préférable de communiquer ses décisions? Je pense que la réponse n'est probablement pas.

Perdre son emploi et ses moyens de subsistance est un moment stressant et émotif pour quiconque, sauf les employés les plus frivoles. C'est un moment où la sensibilité et la compréhension sont requises. Donc, pour ma part, je trouverais certainement le contact humain essentiel, peu importe la façon dont le chatbot de l'IA

 The Conversation Un employé licencié peut avoir l'impression d'avoir été lésé et vouloir contester la décision par tribunal. Cette situation soulève la question de savoir qui était responsable de la décision initiale et qui la défendra en droit. Le moment est certainement venu d'aborder les questions juridiques et éthiques posées par la montée de l'IA, alors qu'elle en est encore à ses balbutiements

Adrian Hopgood professeur de systèmes intelligents et directeur de l'avenir. & Emerging Technologies, Université de Portsmouth

Cet article a été publié à l'origine le The Conversation . Lisez l'article original .




Source link