Les 3 choses dont personne ne vous parle / Blogs / Perficient

L’IA générative ou, comme je préfère l’appeler, l’apprentissage automatique génératif (ML) a pris d’assaut le monde des affaires. Vous avez probablement déjà rencontré un e-mail ou une forme de marketing généré par l’un de ces modèles, peut-être sans même vous en rendre compte. Ce sont des outils puissants et j’attends avec impatience les améliorations que nous pouvons apporter à la vie des gens. Mais je pense aussi qu’il est essentiel de comprendre leurs limites, de peur d’aboutir à des résultats embarrassants.
Voyons donc comment certains modèles populaires non personnalisés gèrent les invites de texte et d’image et les 3 choses dont personne ne parle en matière d’IA générative.
1. L’intelligence artificielle est un abus de langage
Bien que l’intelligence artificielle soit utile en tant que terme marketing, l’intelligence constitue davantage un objectif final pour de nombreux chercheurs qu’une évaluation précise de l’état actuel de la technologie. L’intelligence implique de nombreux attributs, notamment la réflexion, le jugement, l’initiative et l’émerveillement.. Ce domaine d’étude est appelé Intelligence Générale Artificielle (AGI) et reste en dehors du champ des modèles les plus populaires. Cette distinction devient encore plus évidente à mesure que vous intégrez des scénarios et des exigences complexes aux modèles actuellement disponibles. N’oubliez pas que la plupart du temps, ces outils s’appuient sur un modèle prédictif basé sur des données d’entraînement plutôt que sur une évaluation logique d’une demande par rapport à une série de règles comme les algorithmes traditionnels.
Si vous lui présentez des invites ou des situations dans lesquelles il n’a pas de formation, il peut avoir du mal à produire un résultat réaliste ou précis. Par exemple, j’ai donné à un modèle génératif populaire l’invite suivante « Un hibou respire dans l’espace ».
C’est une belle photo, mais j’ai peur que la chouette ne respire pas de sitôt…
En tant qu’humains, nous reconnaissons facilement une série de règles conceptuelles sur un sujet (par exemple, les hiboux ont besoin d’air pour respirer), mais ce modèle n’a pas encore d’enseignement de ce type. Cela ne veut pas dire que ces modèles n’atteindront pas un jour un niveau de base de ces attributs d’intelligence, mais il faut veiller à comprendre cette limitation en attendant.
Heureusement, nous pouvons obtenir le résultat souhaité en spécifiant quelques instructions supplémentaires : « Un hibou respire dans l’espace, portant une combinaison d’astronaute ».
2. Les modèles de Deep Learning ne sont pas toujours dignes de confiance
Les modèles d’apprentissage profond présentent généralement les informations avec le même degré de confiance projeté, même si elles sont complètement incorrectes ou contradictoires par rapport à ce qu’elles ont dit précédemment. N’oubliez pas qu’il s’agit d’un modèle de langage prédictif, et non d’un acteur conscient ou d’une source digne de confiance.
C’est une distinction très importante ! Le modèle génère les informations exactement à l’inverse de ce qu’il aurait dû indiquer.
Pour aider à atténuer ce problème, nous pouvons demander au modèle d’extraire les réponses uniquement à partir d’un ensemble de réponses approuvé, comme dans l’image ci-dessous.
Cependant, cette approche n’est souvent pas suffisante. Nous pouvons facilement nous retrouver avec le modèle comblant certaines lacunes en utilisant un langage qui ne fait pas partie de l’ensemble strictement approuvé, comme le montre l’exemple ci-dessous.
Bien que le modèle ait essayé de répondre à toutes les questions, il a enfreint la règle que nous avions fournie au début de la session.
C’est là Politiques et cadres de gouvernance de Perficient Nous pouvons implémenter un algorithme procédural qui se situe entre la sortie brute du modèle d’IA et toutes les demandes des utilisateurs. Cette couche de gestion garantit une conformité stricte des résultats et rejette toute tentative du modèle de fournir une réponse en dehors du langage exact de l’ensemble approuvé. C’est beaucoup plus conforme à ce que nous recherchons !
3. Méfiez-vous des modèles appartenant à des partenaires
Bien que les modèles détenus par des partenaires puissent avoir un retour sur investissement élevé si vous n’avez pas de pratique de ML existante, vous limitez le potentiel de votre entreprise en vous appuyant sur des modèles partenaires fermés. Par exemple, les modèles fermés sont souvent conçus pour des cas d’utilisation étendus plutôt que adaptés à vos produits ou services.
Bien que les options n°1 et n°2 dans l’image ci-dessus soient techniquement réalisables, la plus simple après avoir inséré la solution EditConfig existe et est mieux aligné sur les meilleures pratiques d’Adobe. Notamment, l’option n°2 est une solution très complexe que je ne recommanderais jamais à personne de mettre en œuvre et l’option n°3 ne répond pas du tout à la question. Je ne ferais pas confiance à ce modèle pour répondre de manière cohérente et correcte aux questions sur AEM sans beaucoup plus de formation. Il n’existe pas encore de solution simple, alors assurez-vous de toujours vérifier ce que le modèle vous dit par rapport à une source fiable.
Donc, si vous devez éventuellement consacrer beaucoup de temps à former un modèle tiers, pourquoi ne pas investir dans votre propre modèle ? Vous n’êtes pas obligé de le faire seul, car Perficient dispose d’une pratique de l’intelligence artificielle qui peut vous guider à partir de la base.
Réfléchir de manière critique aux mesures de protection de l’IA générative
J’espère que ces considérations vous ont été utiles et vous ont amené à réfléchir à la manière de mettre en place des garanties lors de l’utilisation de l’IA générative. Jusqu’à la prochaine fois !
Pour plus d’informations sur la façon dont Perficient peut mettre en œuvre les expériences numériques de vos rêves, contactez-nous ! Nous aimerions avoir de vos nouvelles.
Source link