Fermer

mai 16, 2024

3 éléments à prendre en compte lors de la création de systèmes GenAI responsables

3 éléments à prendre en compte lors de la création de systèmes GenAI responsables



L’IA générative (GenAI) a le potentiel de transformer des secteurs entiers, notamment dans le domaine du service client et du codage. Si le premier acte de la transformation numérique consistait à créer des applications (par exemple, créer des expériences client omnicanal), alors le deuxième acte ajoute GenAI. Sa fonctionnalité principale, l’utilisation de grands modèles de langage (LLM) pour créer du contenu, qu’il s’agisse de code ou de conversations, peut introduire un tout nouveau niveau d’engagement pour les organisations. C’est pourquoi les experts estiment la technologie pourrait ajouter l’équivalent de 2 600 milliards à 4 400 milliards de dollars par an dans des dizaines de cas d’utilisation.

Mais il existe également des défis importants qui pourraient entraîner d’importants dommages financiers et de réputation pour les entreprises. Bien que le marché de la GenAI en soit encore à ses balbutiements, certains principes importants commencent déjà à émerger en faveur d’un développement et d’une utilisation responsables (comme nous l’a dit Sriram Subramanian de Microsoft).

Quels sont les défis ?

Si GenAI vise uniquement à générer du contenu, alors les principales préoccupations découlant de la technologie tournent autour du type de contenu qu’elle produit. Cela pourrait être considéré comme préjudiciable, c’est-à-dire un discours biaisé, inapproprié, haineux, ou une incitation à la violence ou à l’automutilation. Ou cela pourrait simplement être inexact. Le défi de GenAI est qu’il peut diffuser des inexactitudes, des contrevérités et des « informations » incohérentes avec une telle confiance et une telle éloquence qu’il est facile de les prendre au pied de la lettre. Enfin, il y a les préoccupations persistantes en matière de sécurité et de confidentialité. Y a-t-il un risque pour les données d’entreprise être exposé via un LLM? Ou les résultats pourraient-ils porter atteinte à la propriété intellectuelle des titulaires de droitsmettant l’organisation en danger juridique ?

Ce sont autant de préoccupations pour ceux qui développent des applications sur les modèles GenAI ou pour les organisations qui utilisent les capacités GenAI pour prendre de meilleures décisions commerciales.

Trois principes à garder à l’esprit

Il pourrait être utile de réfléchir à une GenAI responsable en termes de six principes de Microsoft : équité, transparence, responsabilité, inclusivité, confidentialité et sécurité, et fiabilité et sûreté. Il existe bien entendu de nombreuses façons d’atteindre ces objectifs. Mais Subramanian recommande une approche en trois volets. Premièrement, mettez en place des règles pour normaliser la manière dont la gouvernance est appliquée. Deuxièmement, mettez en place une formation et des meilleures pratiques. Et troisièmement, assurez-vous de disposer des outils et processus appropriés pour transformer la théorie en réalité.

1) GenAI est une responsabilité partagée

Il ne fait aucun doute que de nombreux prestataires de LLM prennent des mesures pour fonctionner de manière plus responsable, mais le paysage évolue rapidement. Dans certains cas, ils intègrent davantage de contrôles, de contrepoids et d’outils tels que la modération du contenu et la limitation du débit, ainsi que des barrières contre les contenus nuisibles ou inexacts. Celles-ci contribueront à forcer les développeurs travaillant avec les modèles à produire des applications plus responsables. Il s’agit de faire monter la marée pour tous les bateaux. Même si les organisations qui développent des modèles fondamentaux améliorent leurs pratiques pour surmonter les préjugés et tenter d’être plus explicables, d’autres changements peuvent s’avérer être des revers.

En tant que tels, les développeurs ne peuvent pas s’exonérer de toute responsabilité et dépendent entièrement des fournisseurs de modèles fondamentaux. Les développeurs doivent également jouer leur rôle pour garantir que leurs applications suivent les meilleures pratiques en matière de sûreté et de sécurité. Par exemple, un développeur de panier d’achat peut vouloir s’assurer que si un utilisateur pose des questions sur sa santé, son logiciel affichera une réponse standard que le modèle ne peut pas aider et fournira une recommandation de consulter un prestataire de soins de santé. Ou bien, une application reconnaîtrait qu’un utilisateur met des informations personnelles dans une invite et reconnaîtrait qu’elle ne devrait pas traiter cette invite. C’est comme les deux pédales d’un vélo : les LLM peuvent faire des progrès, mais les développeurs doivent également faire leur part pour garantir que l’expérience de l’utilisateur final est sûre, fiable et sans parti pris.

Considérez-le comme quatre couches : les deux dernières sont le modèle de base lui-même et le système de sécurité en plus, puis il y a l’application, et enfin la couche d’expérience utilisateur par-dessus où les développeurs peuvent ajouter des méta-invites et davantage de mécanismes de sécurité. .

2) Le risque peut être géré en minimisant l’exposition

Ce n’est pas parce que vous commencez à construire avec GenAI que vous devez utiliser GenAI pour tout. Analyser les couches de logique pour envoyer uniquement ce qui est nécessaire à un modèle fondamental présente de nombreux avantages, notamment la gestion des risques potentiels. Comme l’a noté Jake Cohen, chef de produit chez PagerDuty, til reste encore beaucoup de place pour utiliser des logiciels « classiques ».

Le traitement des données sensibles en dehors d’un LLM minimise ce qui est partagé avec l’IA. Cela peut être particulièrement utile si vous construisez avec un service GenAI partagé, comme OpenAI ou Anthropic. Mais cela ne signifie pas qu’il ne peut pas bénéficier de l’apprentissage automatique et des autres modèles d’IA que vous gérez. Il existe de nombreux cas d’utilisation déterministes, depuis la corrélation et le regroupement jusqu’à la prédiction, qui ajoutent encore une valeur considérable.

Outre l’atténuation de la surface d’exposition à la vie privée, il existe d’autres avantages à segmenter ce qui doit être exécuté dans un LLM par rapport à ce qui peut s’exécuter dans des logiciels traditionnels ou d’autres pipelines d’IA. Le coût et la latence sont d’autres facteurs pouvant favoriser le traitement des données en dehors d’un LLM partagé. Minimiser les dépendances à l’égard d’un service tiers peut également créer des options pour gérer votre budget d’erreurs du point de vue de la fiabilité globale du service. La clé est de déterminer exactement ce qui doit s’exécuter dans un LLM et de concevoir une architecture qui prend en charge un mélange de services GenAI étroitement étendus aux côtés de la programmation traditionnelle et d’autres pipelines d’IA.

3) Les invites sont essentielles

D’une manière générale, l’apprentissage en contexte avec des invites compilées est un bien meilleur moyen de générer le niveau de précision requis à partir de GenAI que d’essayer de recycler le modèle sur de nouvelles données à l’aide de techniques de réglage fin. Cela signifie qu’il y a encore énormément de valeur à extraire de l’ingénierie rapide. Internet regorge de blogs et de listes détaillant « les 40 principales invites sans lesquelles vous ne pouvez pas vivre », mais ce qui fonctionne pour chaque organisation et chaque développeur dépendra de son cas d’utilisation et de son contexte spécifiques.

Quelque chose qui fonctionne bien à tous les niveaux est de fournir un rôle ou un personnage à GenAI pour l’aider à fournir des réponses plus précises. Dites-lui « Vous êtes un développeur » ou « Vous êtes un ingénieur d’escalade » et le résultat devrait être plus pertinent pour ces rôles. Fournissez également à l’IA plus d’exemples de sorties, ou quelques prises de vue, dans ces invites. En ce qui concerne les invites et l’utilisation responsable de GenAI en général, plus les efforts sont déployés, plus la récompense est grande.

Enfin, à mesure que votre équipe maîtrise l’ingénierie des invites et comment combiner quelques exemples pour obtenir des résultats plus précis, réfléchissez à la manière dont vous soustraire cet effort à vos utilisateurs. Tout le monde n’aura pas la formation ou le temps nécessaire pour concevoir correctement des invites pour chaque cas d’utilisation. En supprimant les invites réellement soumises à un LLM, vous avez plus de contrôle sur les données qui entrent dans le LLM, la façon dont les invites sont structurées et les quelques exemples utilisés.

Pour en savoir plus, visitez-nous ici.




Source link