Fermer

août 20, 2024

Exploiter la puissance d’AWS Bedrock via CloudFormation / Blogs / Perficient

Exploiter la puissance d’AWS Bedrock via CloudFormation / Blogs / Perficient


Les progrès rapides de l’intelligence artificielle (IA) ont conduit au développement de modèles fondamentaux qui constituent la base de nombreuses applications de l’IA. AWS Bedrock est la solution complète d’Amazon Web Services qui exploite ces modèles pour fournir de solides capacités d’IA et d’apprentissage automatique (ML). Ce blog explore l’essentiel des modèles fondamentaux d’IA dans AWS Bedrock, en soulignant leur importance et leurs applications.

Que sont les modèles fondamentaux de l’IA ?

Les modèles fondamentaux d’IA sont des modèles pré-entraînés conçus pour servir de base à diverses applications d’IA. Ces modèles sont formés sur de vastes ensembles de données et peuvent être ajustés pour des tâches spécifiques, telles que le traitement du langage naturel (NLP), la reconnaissance d’images, etc. Le principal avantage de l’utilisation de ces modèles est qu’ils réduisent considérablement le temps et les ressources informatiques nécessaires au développement d’applications d’IA à partir de zéro.

AWS Bedrock : une solution d’IA complète

AWS Bedrock fournit une suite de modèles fondamentaux facilement accessibles et déployables. Ces modèles sont intégrés à l’écosystème AWS, permettant aux utilisateurs de tirer parti de la puissance de l’infrastructure et des services d’AWS. AWS Bedrock offre plusieurs avantages clés :

  1. Évolutivité: Les modèles AWS Bedrock peuvent évoluer pour répondre aux demandes d’applications volumineuses et complexes. L’infrastructure AWS garantit que les modèles peuvent gérer des volumes élevés de données et de trafic sans compromettre les performances.
  2. Facilité d’utilisation: Avec AWS Bedrock, les utilisateurs peuvent accéder à des modèles pré-entraînés via de simples appels API. Cette facilité d’utilisation permet aux développeurs d’intégrer rapidement et efficacement les capacités d’IA dans leurs applications.
  3. Rentabilité: L’utilisation de modèles pré-entraînés réduit le besoin de ressources informatiques étendues et de processus de formation fastidieux, ce qui entraîne des économies de coûts.

Composants clés d’AWS Bedrock

AWS Bedrock comprend plusieurs composants clés conçus pour faciliter le développement et le déploiement d’applications d’IA :

  1. Modèles pré-entraînés: Ces modèles sont la pierre angulaire d’AWS Bedrock. Ils sont formés sur de vastes ensembles de données et optimisés pour les performances. Les utilisateurs peuvent sélectionner des modèles adaptés à des tâches spécifiques, telles que l’analyse de texte, la classification d’images, etc.
  2. Personnalisation du modèle: AWS Bedrock permet aux utilisateurs d’affiner les modèles pré-entraînés pour répondre à leurs besoins spécifiques. Cette personnalisation garantit que les modèles peuvent atteindre une grande précision pour des applications spécialisées.
  3. Intégration avec les services AWS: Les modèles Bedrock s’intègrent de manière transparente à d’autres services AWS, tels qu’AWS Lambda, Amazon S3 et Amazon SageMaker. Cette intégration simplifie le déploiement et la gestion des applications d’IA.

Amazon Bedrock prend en charge une large gamme de modèles de fondation proposés par des fournisseurs leaders du secteur. Nous pouvons choisir le modèle le mieux adapté à la réalisation de vos objectifs uniques.

Voici quelques-uns des plus populaires :

11

Note: Les utilisateurs de compte disposant des autorisations IAM appropriées doivent activer manuellement l’accès aux modèles de fondation (FM) Bedrock disponibles pour utiliser Bedrock.. Une fois l’accès au modèle accordé pour cette région particulière, nous pouvons l’utiliser pour créer et faire évoluer notre application..

L’utilisation des services AWS Bedrock nécessite des autorisations IAM spécifiques pour garantir que les utilisateurs et les applications peuvent interagir avec le service de manière sécurisée et efficace. L’accès de base au substrat, la formation et le déploiement de modèles, l’inférence et l’utilisation, la gestion des données, la gestion des ressources de calcul, la gestion de la sécurité et des identités, la surveillance et la journalisation sont les types d’autorisations IAM généralement nécessaires.

Les paramètres de coût pour l’utilisation d’AWS Bedrock incluent les coûts de calcul, de stockage, de transfert de données et d’utilisation du modèle en fonction du nombre de jetons d’entrée pour les unités par mois. Comprendre ces paramètres peut aider à estimer les coûts associés au déploiement et à l’exécution de modèles d’IA à l’aide d’AWS Bedrock. Pour des calculs de coûts précis, AWS fournit le calculateur de tarification AWS et des informations de tarification détaillées sur son site officiel.

Essayons d’implémenter l’un de ces modèles de base (par exemple : Titan) à l’aide du service AWS CloudFormation.

Amazon Titan dans le substrat rocheux de l’Amazonie

Amazon Bedrock propose en exclusivité la série de modèles Amazon Titan, qui bénéficient des 25 années d’innovation d’Amazon en matière d’IA et d’apprentissage automatique. Via une API entièrement contrôlée, ces modèles de base (FM) Titan offrent une gamme de choix hautes performances pour le texte, les graphiques et les informations multimodales. Créés par AWS, les modèles Titan sont pré-entraînés sur de vastes ensembles de données, ce qui les rend puissants et polyvalents pour un large éventail d’applications tout en promouvant une utilisation responsable de l’IA. Ils peuvent être utilisés tels quels ou personnalisés de manière privée avec vos données.

Les modèles Titan comportent trois catégories : intégrations, génération de texte et génération d’images. Ici, nous nous concentrerons sur les modèles de génération Amazon Titan Text, qui incluent Amazon Titan Text G1 – Premier, Amazon Titan Text G1 – Express et Amazon Titan Text G1 – Lite. Nous implémenterons « Titan Text G1 – Premier » dans la liste ci-dessus.

Amazon Titan Text G1 – Premier

Amazon Titan Text G1 – Premier est un grand modèle de langage (LLM) pour la génération de texte qui est intégré à la base de connaissances Amazon Bedrock et aux agents Amazon Bedrock et est très utile pour une variété de tâches, notamment la synthèse, la génération de code et les réponses ouvertes. et des questions basées sur le contexte, et prend également en charge le réglage personnalisé en version préliminaire.

IDENTIFIANT – amazon.titan-text-premier-v1:0

Nombre maximum de jetons – 32 000

Langue – Anglais uniquement

Cas d’utilisation – Fenêtre contextuelle de 32 Ko, réponses aux questions basées sur le contexte, génération de texte ouvert, prise en charge de la base de connaissances, prise en charge de l’agent, chaîne de pensée, réécriture, brainstorming, résumés, génération de code, création de tableaux, formatage des données, paraphrase, extraction, QnA, chat , Personnalisation du modèle (aperçu).

Paramètres d’inférence – Température, Top P (par défaut : température = 0,7, Top P = 0,9)

Lors de l’implémentation de cela à l’aide de CloudFormation, nous devrons d’abord créer une pile pour cela. La création d’un modèle de pile pour AWS CloudFormation implique de définir votre infrastructure et vos ressources AWS à l’aide du format JSON ou YAML.

Essayons d’implémenter la fonction Python AWS Lambda qui utilise le service Titan d’AWS Bedrock pour générer du texte basé sur une invite de saisie via un script de formation de cloud basé sur YAML.

22

Le modèle AWS CloudFormation donné définit des ressources pour créer un rôle IAM et une fonction Lambda pour appeler un modèle à partir d’AWS Bedrock, c’est-à-dire fournir des capacités de génération de texte via le modèle Titan spécifié.

Rôle IAM

  • Permet à Lambda d’assumer le rôle et d’invoquer le modèle Bedrock.
  • Accorde l’autorisation d’invoquer le modèle Bedrock spécifique (amazon.titan-embed-text-v1) et de répertorier les modèles disponibles.

Fonction Lambda

  • Fonction Python qui utilise Boto3 pour appeler le modèle Bedrock amazon.titan-text-premier-v1:0.
  • Envoie une charge utile JSON au modèle avec une configuration spécifiée pour la génération de texte. Renvoie la réponse du modèle sous forme de réponse HTTP.
  • Si l’on vérifie le tableau de bord de la fonction Lambda, alors le fichier « index.py » contient :

33
Cette fonction AWS Lambda interagit avec le service AWS Bedrock pour générer du texte en fonction d’une invite de saisie. Il crée un client pour le runtime Bedrock, appelle un modèle de génération de texte spécifique avec des configurations données, traite la réponse pour extraire le texte généré et renvoie ce texte dans une réponse HTTP. Cette configuration permet l’automatisation des tâches de génération de texte à l’aide des capacités d’AWS Bedrock.

Résultats d’exécution

44

Comme on le voit dans la fenêtre de réponse pour l’entrée donnée comme : « Bonjour, comment vas-tu ? », le texte de sortie est renvoyé comme « Bonjour ! Je vais bien, merci. Comment puis-je vous aider aujourd’hui ?

De cette manière, le modèle Amazon Titan Text G1 – Premier d’AWS Bedrock est conçu pour un large éventail de tâches de traitement du langage naturel (NLP) grâce à ses capacités avancées et sa grande fenêtre contextuelle.






Source link