Fermer

janvier 28, 2019

Jusqu'où pouvons-nous prendre cette connexion?


Un film d'espionnage avec son attirail de gadgets et de technologies cools a toujours séduit le public. Dans ces films, nous avons vu l'utilisation d'un polygraphe pour détecter si quelqu'un est véridique ou non. Il va sans dire que le polygraphe est une industrie de plusieurs milliards de dollars et joue un rôle crucial dans le règlement des affaires de criminalité. Les polygraphes n'ont aucune «intelligence» intégrée. Ce sont des machines simples qui font ce pour quoi elles ont été conçues: mesurer des statistiques vitales telles que la pression artérielle et le pouls pour parvenir à une conclusion.

L'intelligence artificielle (IA) devenant un courant dominant, elle est de plus en plus utilisée de manière innovante. L'Union européenne a récemment annoncé le lancement d'un essai de détection de tromperie (une machine pour l'IA) afin d'identifier les personnes se trouvant au niveau du contrôle des frontières. Les responsables sont conscients du fait que cela est crucial et qu'ils doivent absolument être sûrs à 100%, mais ils reconnaissent également qu'il n'existe pas de technologie qui puisse être correcte à 100%. Ils suivront une approche de conception éthique avec une transparence totale des résultats des tests. Dans quelle mesure leurs ensembles de données de test devraient-ils être bons et complets pour apprendre à cette machine à identifier les mensonges et à juger les personnes sans préjugé ?

L’automatisation et la robotique ne font pas partie du 21e siècle

René Descartes

le philosophe français du XVIIe siècle, connaissait bien les robots. Il s'est demandé si les humains ne sont que des machines répondant à l'environnement. Mais il a ensuite ajouté que cela n’était pas possible, car le comportement humain est bien plus compliqué et varié qu’il faut expliquer de manière aussi simple. Avec l'intelligence artificielle, nous essayons d'apporter la même complexité aux machines. Les machines ne sont plus fondamentalement des boîtes métalliques de puces d'ordinateur ni de câbles programmées pour suivre un ensemble d'instructions fixe en entités beaucoup plus puissantes qui peuvent prendre en compte plusieurs facteurs pour décider de la prochaine étape du traitement.

Une différence fondamentale entre les humains et machines a été que les machines manquent d'émotions. Cette ligne est maintenant floue, avec l'intégration de l'émotion dans les applications d'intelligence artificielle. En mai 2018, la démonstration de Sundar Pichai sur la technologie Google Duplex est devenue virale. La voix de la machine est très réaliste et contient même des fillers comme «mmm» que nous, les humains, utilisons dans nos conversations quotidiennes. Il y avait un tollé que la technologie utilisée de cette façon est trompeuse. Depuis lors, Google a confirmé que l'assistant d'intelligence artificielle s'identifierait comme une machine lorsqu'il passerait des appels pour le compte de personnes.

Pourrions-nous analyser les sentiments d'une machine?

Analyse des sentiments [noun] est défini comme le processus d'identification informatique et de catégorisation d'opinions exprimées dans un texte, en particulier pour déterminer si l'attitude de l'auteur à l'égard d'un sujet, d'un produit, etc., est positive, négative ou neutre. De nombreuses applications et programmes définissent un plan d’action spécifique en fonction des sentiments des utilisateurs. Pouvons-nous, humains, analyser le sentiment inverse? Pourrons-nous comprendre les émotions des machines et adapter notre comportement à la gelée avec la machine?

Connexion émotionnelle avec des machines

Julia est «Sujet Trois» dans le film original de Netflix Tau . Au fil du temps, Julia parvient à établir un lien émotionnel avec Tau, à tel point que celle-ci lui présente ses excuses pour que ne l'autorise pas à la laisser sortir de sa captivité. Grâce à une conversation et à des interactions régulières, Julia est capable de manipuler et d'extraire plus d'informations de Tau.

Bien sûr, Tau est une œuvre de fiction, mais pourrions-nous être en mesure d'avoir un lien émotionnel avec des machines à venir, prendre des décisions émotionnellement biaisées? Les machines vont-elles comprendre et respecter nos jugements et nos préjugés? Pourrons-nous établir un lien émotionnel avec des machines et obtenir un résultat inattendu ou non programmé? Dans le livre Homo Deus Yuval Noah Harari dit que les êtres humains sont des algorithmes organiques. Il est d'avis que les algorithmes non organiques (les machines intelligentes) peuvent certainement surpasser les algorithmes organiques

À mon avis, les machines et leur intelligence croissante occupent une place de choix dans nos vies. Il existe de nombreux scénarios, allant des sports et des loisirs aux voitures sans conducteur et assistants numériques perfectionnés où des machines émotionnellement intelligentes peuvent être notre compagnon. Mais la question principale est la suivante: allons-nous accepter l'intelligence émotionnelle croissante des machines?

Seul le temps nous dira si la «détection de tromperie» gardera sa santé mentale et respectera les règles ou créera une faille en émettant des jugements biaisés émotionnellement.

Pour plus d'informations à ce sujet, voir « Prévisions AI pour 2019 ."

<! – Commentaires ->




Source link