Les opinions exprimées par les contributeurs entrepreneurs sont les leurs.
À la fin du premier trimestre en 2025, c’est le bon moment pour réfléchir aux récentes mises à jour de Services Web Amazon (AWS) à leurs services qui fournissent des données et des capacités d’IA pour mettre fin aux clients. À la fin de 2024, AWS a accueilli plus de 60 000 praticiens lors de leur conférence annuelle, RE: Invent, à Las Vegas.
Des centaines de fonctionnalités et de services ont été annoncés au cours de la semaine; Je les ai combinés avec les annonces qui sont venues depuis et ont organisé cinq données clés et des innovations en IA que vous devriez en prendre note. Plongeons-nous.
La prochaine génération d’Amazon Sagemaker
Amazon Sagemaker a toujours été considéré comme le centre de tout AI dans AWS. Des services comme Amazon Glue ou MapReduce élastique ont pris en charge les tâches de traitement des données, avec Amazon Redshift pour ramasser la tâche de SQL Analytics. Avec un nombre croissant d’organisations axées sur les efforts sur les données et l’IA, les plates-formes tout-en-un telles que Databricks ont naturellement attiré les yeux de ceux qui commencent leur voyage.
La prochaine génération d’Amazon Sagemaker est la réponse d’AWS à ces services. Sagemaker Unified Studio rassemble l’analyse SQL, le traitement des données, le développement du modèle d’IA et AI génératif Développement des applications sous un même toit. Tout cela est construit au-dessus des fondements d’un autre nouveau service – Sagemaker Lakehouse – avec des données et une gouvernance de l’IA intégrées à travers ce qui existait auparavant autonome en tant qu’Amazon Datazone.
La promesse d’une solution de première partie AWS pour les clients qui cherchent à commencer, à augmenter la capacité ou à obtenir un meilleur contrôle de leurs données et de leurs charges de travail d’IA est en effet passionnante.
Marketplace Amazon Bedrock
S’entendant avec le thème des charges de travail de l’IA, je veux mettre en évidence le marché du fondement d’Amazon. Le monde de l’IA génératif est en mouvement rapide et de nouveaux modèles sont en cours de développement tout le temps. Grâce à un substratum rocheux, les clients peuvent accéder aux modèles les plus populaires sur une base sans serveur – ne payant que les jetons d’entrée / sortie qu’ils utilisent. Pour ce faire, pour chaque modèle de l’industrie spécialisée auquel les clients peuvent vouloir accéder n’est pas évolutif, cependant.
Le marché du fondement d’Amazon est la réponse à cela. Auparavant, les clients pouvaient utiliser Amazon SageMaker Jumpstart pour déployer des LLM sur votre compte AWS de manière gérée; Cela les a exclus des caractéristiques du fondement qui étaient activement développées (agents, flux, bases de connaissances, etc.). Avec le marché du fondement, les clients peuvent sélectionner parmi plus de 100 modèles spécialisés (et en croissance), y compris ceux de HuggingFace et Deepseek, les déployer sur un point de terminaison géré et y accéder via les API standard.
Il en résulte une expérience plus transparente et facilite l’expérience avec différents modèles (y compris les propres modèles affinés des clients).
Automatisation des données du substratum rocheux d’Amazon
Extraire les informations à partir de données non structurées (documents, audio, images, vidéo) est quelque chose qui LLMS se sont avérés exceller. Bien que la valeur potentielle née de cela soit énorme, la mise en place de pipelines performants, évolutives, rentables et sécurisés pour extraire cela est quelque chose qui peut être compliqué, et les clients ont historiquement lutté avec elle.
Ces derniers jours – au moment de la rédaction – l’automatisation des données du fondement d’Amazon a atteint la disponibilité générale (GA). Ce service se déroule pour résoudre le problème exact que je viens de décrire. Concentrons-nous sur le cas d’utilisation du document.
Traitement des documents intelligents (IDP) n’est pas un nouveau cas d’utilisation pour l’IA – il existait bien avant que Genai ne fasse. IDP peut débloquer d’énormes gains d’efficacité pour les organisations qui traitent des formulaires papier lors de l’augmentation ou du remplacement des processus manuels effectués par des humains.
Avec l’automatisation des données du substratum rocheux, le déchargement lourd de la construction de pipelines IDP est abstrait des clients et fourni en tant que service géré facile à consommer et qui s’intègre par la suite dans les processus et les systèmes hérités.
Amazon Aurora DSQL
Bases de données sont un exemple d’un outil où le niveau de complexité exposé à ceux qui le tiendra n’est pas nécessairement corrélés avec sa complexité dans les coulisses. Souvent, c’est une relation inverse où plus une base de données est plus simple et plus « magique », plus elle est complexe dans les zones invisibles.
Amazon Aurora DSQL est un excellent exemple d’un tel outil où il est aussi simple d’utiliser en tant qu’autres services de base de données gérés d’AWS, mais le niveau de complexité d’ingénierie pour rendre son ensemble de fonctionnalités possible est énorme. En parlant de son ensemble de fonctionnalités, regardons cela.
Aurora DSQL se déroule pour être le Service de choix pour les charges de travail qui nécessitent des bases de données durables, fortement cohérentes et actives dans plusieurs régions ou zones de disponibilité. Les bases de données multi-régions ou multi-AZ, sont déjà bien établies dans des configurations actives passives (c.-à-d. Un écrivain et de nombreux read-replicas); Active-active est un problème qui est beaucoup plus difficile à résoudre tout en étant performant et en conservant une forte cohérence.
Si vous êtes intéressé à lire les détails techniques profonds des défis qui ont été surmontés dans la construction de ce service, je recommanderais de lire la série de Marc Brooker (Distinguished Engineer at AWS) de la série de articles de blog sur le sujet.
Quand annoncer le serviceAWS l’a décrit comme fournissant « une mise à l’échelle horizontale pratiquement illimitée avec la flexibilité de l’échelle indépendante des lectures, des écritures, des calculs et du stockage. Il évolue automatiquement pour répondre à toute demande de charge de travail sans barre de données ou mises à niveau d’instance.
Pour les organisations où l’échelle mondiale est une aspiration ou une exigence, la construction d’une base d’Aurora DSQL les établit très bien.
Extension des fonctionnalités zéro-ETL
AWS pousse la vision « zéro-ETL » depuis quelques années maintenant, l’aspiration étant de rendre les données en mouvement entre les services spécialement conçus possible. Un exemple serait de déplacer les données transactionnelles d’une base de données PostgreSQL exécutée sur Amazon Aurora vers une base de données conçue pour des analyses à grande échelle comme Amazon Redshift.
Bien qu’il y ait eu un flux relativement continu de nouvelles annonces dans ce domaine, la fin de 2024 et le début de 2025 ont vu une vague qui accompagnait les nouveaux services AWS publiés sur Re: Invent.
Il y en a beaucoup trop pour parler ici dans n’importe quel niveau de détail qui fournirait de la valeur; Pour en savoir plus sur toutes les intégrations zéro-ETL disponibles entre les services AWS, veuillez visiter AWS Page zéro-ETL dédiée.
En terminant cela, nous avons couvert cinq domaines relatifs aux données et à l’IA dans lesquels AWS innove pour faciliter la construction, la croissance et la rationalisation des organisations. Tous ces domaines sont pertinents pour les petites startups en croissance, ainsi que les entreprises d’un milliard de dollars. AWS et autres fournisseurs de services cloud Y a-t-il pour abstraction de la complexité et du levage de lourds, vous laissant vous concentrer sur la création de votre logique commerciale.
Source link