Site icon Blog ARC Optimizer

Google s’attaque à OpenAI avec le nouveau projet Astra AI Assistant

Google s’attaque à OpenAI avec le nouveau projet Astra AI Assistant


Google est dans son ère Gémeaux, selon le PDG Sundar Pichai.

Pichai est monté sur scène lors de l’événement I/O de Google mardi et a partagé les nouvelles capacités du géant de la technologie. ans Modèle Gemini AI, qui a été officiellement sorti en décembre comme le plus grand modèle d’IA de Google capable de raisonner de manière multimodale ou à travers du texte, du code, de l’audio, de la vidéo et de l’image.

Google a également présenté un prototype d’un nouvel assistant d’IA, le Projet Astra, et a annoncé que des résumés de recherche rédigés par l’IA seraient déployés aux États-Unis à partir d’aujourd’hui.

Pichai a déclaré que plus de 1,5 million de développeurs ont utilisé le modèle Gemini AI depuis son lancement et que Google l’a intégré dans l’ensemble de ses deux milliards de produits utilisateurs.

Bien que Google en soit « aux tout premiers jours du changement de plateforme d’IA », selon Pichai, la multitude d’annonces sur l’IA lors de l’événement montre que l’entreprise a travaillé dur non seulement pour ajouter de nouveaux produits d’IA, mais également pour intégrer des services familiers et existants. comme la recherche Google avec l’IA.

Sundar Pichai, PDG de Google. (Photo d’Andrej Sokolow/alliance photo via Getty Images)

Google dispose désormais d’un générateur d’images IA mis à jour appelé Imagen 3, d’un nouveau générateur de vidéo IA appelé Veo et d’un bac à sable IA musical développé en collaboration avec des artistes, musiciens et créateurs YouTube.

Il a également annoncé un modèle d’IA rentable, Gémeaux 1.5 Flashqui est un plus rapide version des modèles d’IA précédents de Google. Il peut par exemple générer des images et rédiger des réponses plus rapidement.

Le nouveau : assistant IA du projet Astra

Lors de l’événement, Google a présenté l’assistant Project Astra AI, qui correspond aux capacités du GPT-4o d’OpenAI, révélé hier.

Tout comme GPT-4o, qui sera largement disponible pour les utilisateurs gratuits et payants dans les semaines à venir, l’assistant IA de Google combine des signaux audio, visuels et écrits pour répondre rapidement aux utilisateurs.

En rapport: OpenAI lance un nouveau chatbot IA, GPT-4o, qui ressemble presque à celui d’un ami

Par exemple, un utilisateur pourrait montrer au Projet Astra son environnement avec la caméra de son téléphone et demander à l’agent IA de traiter le code sur un écran ou de parler des composants d’un haut-parleur sur son bureau.

L’agent IA répond avec peu de décalage dans ses réponses, ce qui permet un meilleur va-et-vient.

Le projet Astra est encore un prototype, mais il montre l’intention de Google de travailler sur un assistant IA unique.

L’IA prend le contrôle de la recherche Google

Les aperçus de l’IA, ou résumés écrits des résultats qui apparaissent en haut d’une page de recherche Google, sont déployés dès aujourd’hui auprès de tous les utilisateurs américains.

D’ici la fin de l’année, Google affirme que les aperçus de l’IA s’appliqueront à plus d’un milliard de personnes en utilisant la recherche.

Google a déjà testé l’IA dans la recherche pour répondre à des milliards de requêtes.

Pichai a déclaré que les utilisateurs posaient des questions plus longues et plus complexes, utilisaient davantage la recherche et rapportaient une satisfaction accrue à l’égard des résultats.

Certaines fonctionnalités d’IA « à venir » dans la recherche Google incluent le fait de poser des questions directement dans la barre de recherche avec une vidéo et en plusieurs étapes capacités de raisonnement.

En rapport: Google envisagerait des frais d’abonnement pour les recherches Internet améliorées par l’IA






Source link
Quitter la version mobile