Fermer

juillet 24, 2024

Soyez honnête : les valeurs de votre entreprise et l’IA sont-elles alignées ?

Soyez honnête : les valeurs de votre entreprise et l’IA sont-elles alignées ?



« Avec une nouvelle personne, vous l’embauchez pour ses compétences », dit-elle. « Mais lorsque vous les intégrez, vous expliquez votre culture et comment vous faites les choses afin que la nouvelle personne puisse travailler dans le cadre de cette compréhension. Il s’agit donc de l’intégration de vos LLM et c’est crucial pour les organisations et les entreprises. Le réglage fin nécessite un ensemble de données d’une taille comprise entre 0,5 % et 1 % de l’ensemble de données d’origine d’un modèle afin d’avoir un impact significatif sur les modèles, dit-elle.

Avec GPT 4 qui représenterait plus d’un billion de paramètres, même 1 % est un montant important, mais les entreprises n’ont pas besoin de prendre en compte l’ensemble des données lors du réglage précis.

« Vous ne pouvez pas dire que vous avez rédigé 10 questions et réponses et peaufiné un modèle et affirmer qu’il est désormais entièrement conforme aux valeurs de mon organisation », déclare Iragavarapu. « Mais il n’est pas non plus nécessaire de tout régler avec précision. Il vous suffit de vous concentrer sur un processus commercial ou une culture spécifique. Il s’agit vraiment d’approfondir un petit domaine ou un petit concept, sans aborder toute l’étendue du LLM.

Avec les bons réglages, il est possible de surmonter l’alignement fondamental d’un modèle, dit-elle. Et pour savoir si la mise au point a fonctionné, le LLM doit être testé sur un grand nombre de questions, posant la même chose de différentes manières.

Jusqu’à présent, il n’existe pas de bon moyen automatisé de le faire, ni de LLM open source conçu spécifiquement pour tester l’alignement d’autres modèles, mais il existe certainement un besoin crucial.

À mesure que de simples cas d’utilisation de questions-réponses évoluent vers des agents autonomes alimentés par l’IA, ce type de tests deviendra absolument nécessaire. « Chaque organisation a besoin de cet outil dès maintenant », déclare Iragavarapu.

Verrouillage du fournisseur

Lorsqu’une entreprise n’a d’autre choix que de recourir à un fournisseur d’IA particulier, maintenir l’alignement sera une bataille constante.

« S’il est intégré à Windows, par exemple, vous n’aurez peut-être pas ce contrôle », explique Lopez Murphy de Globant. Mais la tâche est beaucoup plus simple s’il est facile de passer à un autre fournisseur, à un projet open source ou à un LLM maison. Disposer d’options permet de garantir l’honnêteté des fournisseurs et de remettre le pouvoir entre les mains des acheteurs de l’entreprise. Globant lui-même dispose d’une couche d’intégration, un middleware d’IA, qui permet à l’entreprise de basculer facilement entre les modèles. «Il peut s’agir d’un LLM commercial», dit-il. « Ou quelque chose que vous avez localement, ou quelque chose sur [AWS] Substrat rocheux. »

Et certaines organisations proposent leurs propres modèles. « C’est pourquoi certains gouvernements veulent avoir leur propre Ais souveraine, afin de ne pas s’appuyer sur la sensibilité d’une entreprise de la Silicon Valley », explique Lopez Murphy.

Et les gouvernements ne sont pas les seuls à exiger un degré élevé de contrôle sur les IA qu’ils utilisent. Blue Cross Blue Shield Michigan, par exemple, présente des cas d’utilisation de l’IA à haut risque impliquant la cybersécurité, l’analyse des contrats et la réponse aux questions sur les avantages des membres. Parce qu’il s’agit de domaines très sensibles et hautement réglementés, l’entreprise a construit ses systèmes d’IA en interne, dans un environnement cloud sécurisé, contrôlé et dédié.

«Nous faisons tout en interne», a déclaré Fandrich. « Nous enseignons et contrôlons les modèles dans une partie privée segmentée du réseau, puis décidons comment et s’il faut les mettre en production. »




Source link