Fermer

novembre 15, 2023

Microsoft Ignite 2023 : 11 points à retenir pour les DSI

Microsoft Ignite 2023 : 11 points à retenir pour les DSI



L’étude observationnelle a révélé que les utilisateurs de Copilot étaient capables de trouver des informations 27 % plus rapidement et de rattraper les réunions manquées presque quatre fois plus rapidement.

Peut-être qu’une future itération de Copilot pourrait conseiller les utilisateurs sur ce qu’il faut faire du temps qu’il leur fait gagner : alors qu’environ la moitié de ceux qui gagnent plus de 30 minutes par jour avec Copilot déclarent consacrer le temps gagné à un travail ciblé, un sixième déclare consacrer le temps gagné à un travail ciblé. cela dans… plus de réunions.

7. Identifiants d’IA générative

Le domaine est si nouveau qu’il est difficile d’évaluer qui sait quoi, c’est pourquoi Microsoft intervient pour offrir de nouvelles références dans ses compétences appliquées Microsoft pour englober l’IA. Ils couvriront le développement de l’IA générative avec Azure OpenAI Service ; créer des systèmes de traitement de documents avec Azure AI Document Intelligence ; créer des outils de traitement du langage naturel avec Azure AI Language ; et la création de systèmes Azure AI Vision.

8. Rationaliser les opérations d’IA générative sur Azure

Lors de Build en mai, Microsoft a annoncé Azure AI Studio, un système unifié pour créer des applications d’IA générative, et six mois plus tard, il lance enfin un aperçu de la plate-forme. (La technologie de l’IA générative progresse rapidement, mais pas si vite, semble-t-il.) Les développeurs pourront choisir parmi une gamme de LLM propriétaires et open source ; choisir des sources de données, notamment Microsoft Fabric OneLake et Azure AI Search pour les intégrations vectorielles, permettant d’affiner les réponses avec des données en temps réel sans avoir à réentraîner l’ensemble du modèle ; et surveiller les performances de leurs modèles une fois déployés.

9. Nouvelles puces Azure pour les charges de travail d’IA d’entreprise

Microsoft met à jour son infrastructure Azure avec de nouvelles puces adaptées aux charges de travail d’IA. Pour accélérer la formation des modèles d’IA et l’inférence générative, les machines virtuelles ND MI300 v5 fonctionneront bientôt sur le dernier GPU d’AMD, l’Instinct MI300X, tandis que la nouvelle variante NVL de la puce H100 de Nvidia alimentera les machines virtuelles NC H100 v5, actuellement en avant-première. Ceux-ci offriront plus de mémoire par GPU pour améliorer l’efficacité du traitement des données.

Mais Microsoft ajoute également ses propres puces personnalisées. Il a conçu Azure Maia pour accélérer la formation de l’IA et les charges de travail d’inférence telles que les modèles OpenAI, GitHub Copilot et ChatGPT. Maia dispose d’un compagnon, Azure Cobalt, pour les charges de travail générales (non IA).

10. Développement plus facile d’applications d’IA de petite génération avec Windows AI Studio

Azure AI Studio se concentre sur les LLM, mais l’utilisation de modèles d’IA génératifs moins gourmands en ressources, formés pour des tâches spécifiques et suffisamment petits pour s’exécuter localement sur un PC ou un appareil mobile, suscite un intérêt croissant. Pour aider les développeurs à personnaliser et à déployer de tels SLM, Microsoft publiera bientôt Windows AI Studio, qui offrira la possibilité d’exécuter des modèles dans le cloud ou à la périphérie du réseau, et inclura des capacités d’orchestration d’invites pour maintenir les éléments synchronisés partout où ils s’exécutent.

11. Utiliser l’IA générative pour la gestion des connaissances

Les outils de communication d’entreprise Viva Engage de Microsoft offrent aux employés un moyen d’apprendre de leurs pairs en recherchant dans une base de données de réponses aux questions fréquemment posées fournies par des experts en la matière. Une mise à jour d’Answers in Viva qui doit être déployée avant la fin de l’année ajoutera une option permettant de générer ces réponses – et même les questions auxquelles elles répondent – à l’aide de l’IA, sur la base de fichiers de formation importés d’autres sources. Cela pourrait offrir aux entreprises un moyen rapide de passer d’une plateforme de gestion des connaissances héritée ou de partager des ressources détenues dans un autre système.




Source link

novembre 15, 2023