Fermer

septembre 29, 2023

Qu’est-ce que l’IA ? — Apprendre l’IA, partie 1 / Blogs / Perficient


Au vu du buzz sur les réseaux sociaux et les médias, l’IA semble avoir été inventée. Cependant, un œil attentif remarquerait par exemple Deep Blue d’IBM, qui a battu le champion du monde d’échecs Garry Kasparov en 1997. Alors, qu’est-ce que l’IA ?

IA forte ou faible

Au sens large, l’IA est forte ou faible. Avant l’avènement des modèles d’IA génératifs (forts), il existait une IA faible, conçue pour effectuer des tâches spécifiques sans posséder de capacités de raisonnement généralisées. Une IA forte, celle qui fait parler le monde, apprend, raisonne, perçoit et comprend, un peu comme un cerveau humain.

Une IA faible est le moteur d’échecs ; il fait référence à une liste de mouvements finis sur un échiquier et dispose d’un algorithme prédictif pour l’aider à proposer des mouvements dans de nouvelles positions. Cependant, donnez à un moteur d’échecs IA une partie de dames et il pourrait planter complètement.

ChatGPT est une IA puissante. Vous pourriez lui demander de jouer aux échecs et aux dames, même en même temps. Ensuite, vous pourriez lui dire d’écrire le synopsis du jeu dans le style d’Abraham Lincoln.

Merriam-Webster abrégé

Il y a probablement des centaines de nouveaux termes inventés ou soudainement pertinents au cours de la dernière année, mais la liste suivante énumère les termes les plus courants et les plus utiles. Si un mot est en gras, je le définis dans ce blog. Si une définition utilise un mot que vous ne connaissez pas, revenez-y après avoir lu davantage, et cela devrait avoir plus de sens.

OpenAI

L’entreprise derrière ChatGPTet LUI DONNERle plus célèbre.

LLM

Grand modèle de langage. ChatGPT, Card et Claude sont LLM. C’est l’expression première de IA générative (IA forte). Vous pouvez également entendre les termes suivants lorsque vous discutez LLM spécifiquement.

Saisir

C’est le texte soumis au chatbot. Tout service que vous utilisez peut également insérer son propre texte dans toute soumission que vous saisir.

Sortir

C’est le texte sorti par le chatbot.

Invite

L’acte de fabriquer un saisir pour susciter une certaine réponse. Si « écrivez-moi un e-mail à mon patron pour le remercier » est trop familier, « écrivez-moi un professionnel email… » pourrait produire de meilleurs résultats et serait un acte de incitant.

Jeton

UN jeton est la plus petite unité d’information en laquelle une entrée ou une sortie peut être décomposée. Regarde ça tokeniseur pour un visuel sympa sur la façon dont cela fonctionne. En gros, un jeton est égal à 4-5 caractères anglais.

Fenêtre contextuelle

Le nombre de jetons un LLM est capable d’absorber avant de ne plus se souvenir des jetons précédents.

Multimodal

Cela fait référence au type d’entrée et de sortie d’un LLM peut interagir avec. Un chatbot qui ne peut que saisir texte et sortir le texte est unimodal. ChatGPT-4 sera bientôt capable de créer des images saisir et sortirtout en en discutant par texte, ce qui en fait multimodal.

IA générative

Fait référence au type d’IA derrière LLM, et plus largement fait référence à la capacité des machines à être prédictives et non statiques. Des entreprises comme Runaway utilisent IA générative pour créer des vidéos à partir d’images et d’invites, de la même manière que ChatGPT d’OpenAI crée des mots et du code à partir d’invites.

ChatGPT

ChatGPT est un LLMle modal le plus performant étant ChatGPT-4, qui est un multimodal LLM avec un jeton de 32 000 fenêtre contextuelle.

LUI DONNER

LUI DONNER est un outil de génération d’images, prenant saisir texte et sortie images.

Copilote

En soi, vous avez besoin du contexte de la situation pour comprendre à quoi elle fait référence. Microsoft a publié Windows Copilot, Github Copilot, Sales Copilot, etc., il est donc généralement prudent de supposer qu’il fait référence à l’un de ces produits. De manière générale, cela représente l’idée de IA générative travailler aux côtés de l’utilisateur, et non le remplacer.

Du matériel à ChatGPT

Pourquoi l’IA est-elle coûteuse ?

Lors de la sortie de ChatGPT, il est devenu évident que l’IA serait extrêmement utile si elle était appliquée correctement. Cependant, le développement de modèles d’IA avancés comme ChatGPT nécessite une configuration informatique spéciale – et ils sont coûteux. Pourquoi avons-nous besoin de telles configurations ?

Les modèles d’IA générative utilisent intégrations pour exercer leurs capacités humaines. Les intégrations transforment les données brutes (texte, images, son) en vecteurs.

Les vecteurs sont mathématiques. Les cartes graphiques sont vraiment bonnes en mathématiques. Les cartes graphiques sont chères. Mais pourquoi des vecteurs ?

Que sont les intégrations ?

Les intégrations permettent à un chatbot de prendre en compte ce que vous dites et de le comparer à l’ensemble de données sur lequel il a été formé pour déterminer à quel point vos mots sont « mathématiquement proches » des mots de son ensemble de données. Il le fait à travers de nombreuses similitudes possibles. Imaginez que vous demandiez à un informaticien et à un fan de Taylor Swift à quel point les mots « rouge » et « Taylor » sont proches. Vous obtiendrez deux réponses différentes et le vecteur les stockera toutes les deux.

Traduire du texte en vecteur, comparer deux vecteurs, puis générer un vecteur de réponse nécessitent tous un calcul graphique.

Qu’est-ce que « développer » l’IA ?

Développer l’IA consiste à lui apprendre les corrélations entre les données, par exemple, un homme et un homme sont plus proches qu’un homme et une femme, une photo d’un oiseau est mieux décrite comme un « animal » que comme une « montagne ».

Pour générer des intégrations, les modèles sont formés sur des corpus de textes massifs. Les modèles auto-organisent les intégrations uniquement sur la base de la similarité contextuelle, et non sur des étiquettes manuelles déclarant quels mots sont liés. Cela signifie que vous avez besoin beaucoup de mots pour qu’ils perçoivent naturellement la corrélation statistique.

Par exemple, GPT-3 s’est entraîné sur des milliards de mots.

Le réglage fin adapte ensuite ces intégrations à des tâches spécifiques, c’est là que les « données étiquetées », ou les données qui disent « c’est une bonne réponse, ceci est une moins bonne réponse » entrent en jeu.

Fermeture

Ceci est la première partie de ma série Learn AI ! Il y a beaucoup de choses à couvrir et je suis ravi de présenter le code, les cas d’utilisation et les explications conviviales de tout ce qui concerne la génération IA. Si vous souhaitez vous lancer dans l’IA à partir d’une approche pratique, pratique et axée sur les connaissances, consultez mes autres écrits et suivez cette série.






Source link

septembre 29, 2023