Fermer

mai 9, 2025

Un examen plus approfondi de l’assistant d’IA d’Oracle Analytics / Blogs / Perficient

Un examen plus approfondi de l’assistant d’IA d’Oracle Analytics / Blogs / Perficient


Poser des questions sur les données fait partie d’Oracle Analytics via la barre de recherche de la page d’accueil depuis plusieurs années maintenant. Il l’a fait avec le traitement du langage naturel (NLP) pour répondre aux questions avec diverses visualisations générées automatiquement. Ce qui a été introduit depuis la fin de 2024, c’est la capacité de tirer parti des modèles de grandes langues (LLM) pour répondre aux questions et aux commandes des utilisateurs à partir d’un classeur. Cela apporte une expérience très améliorée, grâce à l’évolution du traitement du langage, des modèles NLP classiques aux LLM. La nouvelle fonctionnalité est l’assistant AI, et bien qu’elle ne soit auparavant disponible que pour les déploiements OAC plus grands, avec la mise à jour de mai 2025, elle a maintenant été mise à la disposition de toutes les instances OAC!

Si vous envisagez une solution qui tire parti de GEN AI pour l’analyse des données, l’assistant AI est un bon ajustement pour les déploiements à l’échelle de l’entreprise. Je vais expliquer pourquoi.

  • Exploite une couche sémantique d’entreprise: Ce que j’aime le plus sur le fonctionnement de l’assistant AI, c’est qu’il réutilise le même modèle de données et les mêmes métadonnées qui sont déjà en place et accueillent divers types de rapports et de besoins analytiques. L’assistant AI ajoute un autre canal pour l’interaction utilisateur avec les données, sans les risques de redondance de données et de métadonnées. En conséquence, peu importe la création de rapports manuellement ou le tirant de l’IA, tout le monde dans toute l’organisation reste cohérent dans l’utilisation des mêmes définitions KPI, les mêmes relations d’entité et les mêmes structures de rouleau dimensionnelles pour les rapports.
  • Gouvernance des données: Ceci est dans le même sens que mon premier point, mais je veux souligner l’importance des contrôles lorsqu’il s’agit d’apporter la puissance des LLM aux données. Il existe de nombreuses façons de tirer parti de la génération AI avec des données et certaines sont originaires des plates-formes de gestion des données elles-mêmes. Cependant, la mise en œuvre des solutions de requête de données GEN AI directement dans la couche de données nécessite un examen plus approfondi des aspects de sécurité de la mise en œuvre. Qui pourra obtenir des réponses sur certains sujets? Et si le sujet s’applique à celui qui demande, quelle quantité d’informations sont-elles autorisées à connaître?

L’assistant AI suit simplement les mêmes contrôles de sécurité des mêmes objets et au niveau des lignes qui sont appliquées par le modèle de données sémantique.

  • Et l’agilité? Oui, l’analyse régie est très importante. Mais comment les gens peuvent-ils innover et explorer des solutions plus efficaces aux défis commerciaux sans la possibilité d’interagir avec les données qui découlent de ces défis. L’assistant AI fonctionne non seulement avec le modèle de données d’entreprise commun, mais aussi avec des ensembles de données préparés individuellement. En conséquence, la même interface d’IA répond aux questions posées à la fois sur les données de l’entreprise ainsi que les ensembles de données départementaux ou individualisés.
  • Tanabilité et flexibilité: Activer l’assistant AI pour les données organisationnelles, tandis que relativement une tâche facile, permet une configuration sur mesure. Le but du réglage de la configuration est d’augmenter les niveaux de fiabilité et de précision. La flexibilité entre en jeu lors de la réalisation du LLM sur les informations à prendre en considération lors de la génération de réponses. Et cela peut être fait par un mécanisme de réglage fin de désignation des entités de données et / ou des champs de données au sein de ces entités, peut être envisagée.
  • Prise en charge de l’indexation des données, en plus des métadonnées: Lors du réglage de la configuration de l’assistant AI, trois options sont disponibles parmi lesquelles choisir, jusqu’au niveau du champ: n’indexez pas uniquement les métadonnées et index. Avec l’option Index, nous pouvons inclure des informations sur les données réelles dans un champ particulier afin que l’assistant AI soit conscient de ces informations. Cela peut être utile, par exemple, pour un champ de type de projet, de sorte que le LLM est informé des différentes valeurs possibles pour le type de projet. Par conséquent, l’assistant d’IA fournit des réponses plus pertinentes aux questions qui incluent des types de projets spécifiques dans le cadre de l’invite.
  • Quel LLM utiliser? Les LLM continuent d’évoluer, et il semble qu’il y aura toujours un LLM meilleur, plus efficace et plus précis vers lequel basculer. Oracle a fait la configuration de l’assistant AI ouvert, dans une certaine mesure, dans la mesure où il peut accueillir des LLM externes, en plus du LLM intégré qui est déployé et géré par Oracle. À l’heure actuelle, s’il n’utilise pas le LLM intégré, nous avons la possibilité d’utiliser un modèle AI ouvert via l’API AI Open. Pourquoi pouvez-vous souhaiter utiliser le modèle LLM vs intégré sur un modèle AI ouvert?
    • Le LLM intégré se concentre sur les données analytiques qui font partie de votre environnement. Il est donc plus précis en ce qu’il est moins sujet aux hallucinations. Cependant, cette approche ne fournit pas de flexibilité en termes d’accès aux connaissances externes.
    • Les LLM externes incluent les connaissances publiques (selon les connaissances sur lesquelles un LLM est formé) en plus des données analytiques spécifiques à votre environnement. Cela permet normalement à l’assistant de l’IA d’avoir de meilleures réponses lorsque les questions posées sont larges et nécessitent des connaissances publiques pour s’attacher aux éléments de données spécifiques logés dans un seul système. Pensez par exemple sur les faits géographiques, les statistiques, la météo, les informations des sociétés commerciales, etc. Il s’agit d’informations publiques et peut aider à répondre aux questions analytiques dans le contexte des données d’une organisation.
    • Si l’intention est d’utiliser un LLM mais d’éviter l’inclusion de connaissances externes lors de la génération de réponses, il est possible de restreindre le LLM afin qu’il limite les réponses basées uniquement sur les données organisationnelles. Cette approche tire parti des capacités de raisonnement des modèles sans compromettre la source d’informations pour les réponses.
  • Le facteur humain: Facteurs d’assistance AI dans l’aspect humain de la mise en œuvre des LLM pour l’analyse. Avoir une conversation avec des données via le langage naturel est à la plupart simple lorsqu’il s’agit d’ensembles de données moins complexes. En effet, dans le cas, les réponses sont plus déterministes. Comme le modèle de données devient plus complexe, il y aura plus d’opportunités de malentendu et de connexions manquées entre ce qui est en tête par rapport à une réponse générée par l’IA, sans parler d’une réponse visuelle. C’est pourquoi l’assistant AI a la capacité d’un utilisateur final d’ajuster les réponses à mieux s’aligner sur ses préférences, sans réitérer les invites et les conversations allongées dans les deux sens. Ces ajustements peuvent être facilement appliqués avec des clics de bouton, par exemple pour modifier une apparence visuelle ou modifier / ajouter un filtre ou une colonne, le tout dans une fenêtre de chat. Et quelles que soient les visualisations produites par l’assistant AI, peuvent être ajoutées à un tableau de bord pour d’autres ajustements et référence future.

Dans le prochain article, je mentionnerai quelques choses à surveiller lors de la mise en œuvre de l’assistant AI. Je vais également démontrer ce à quoi il ressemble d’utiliser l’assistant AI pour la gestion de projet.






Source link