AI/ML à grande échelle : le prochain horizon pour la stratégie de données de PPG

Jeff Lipniskis décrit son rôle chez PPG comme ayant des responsabilités informatiques sectorielles. En tant que directeur mondial des technologies de l'information, des revêtements architecturaux et de l'Amérique latine, il relève du DSI de l'entreprise et est responsable de l'informatique à l'échelle mondiale dans le secteur des revêtements architecturaux de l'entreprise, dirige l'informatique pour ses revêtements protecteurs et marins, et supervise l'informatique au sein de la recherche et de la organisation de développement.
Vétéran de 21 ans chez PPG, Lipniskis a connu une transformation importante du portefeuille et la mondialisation de l'entreprise. Au cours de ses deux décennies chez PPG, la société a réalisé plus de 60 acquisitions et a à peu près doublé de taille en termes de ventes. Aujourd'hui, PPG est le plus grand fabricant mondial de peintures et de revêtements, opérant dans 65 pays à travers le monde.
Derek Hulitzky d'IDG a rencontré Lipniskis lors du sommet Data and Analytics d'IDG pour discuter de la façon dont les données permettent la stratégie commerciale de PPG.
Voici des extraits édités de cette conversation. Regardez la vidéo complète de la session de conférence pour plus d'informations.
Sur l'équilibre entre standardisation et flexibilité :
Jeff Lipniskis : [A]s vous regardez une transformation construite autour de l'acquisition, vous ont une grande diversité d'infrastructures, différentes plateformes ERP, un portefeuille d'applications plus complexe. Et plus important encore, de nombreuses variations dans les processus métier, au fur et à mesure que vous rassemblez ces organisations. Et c'est à ce niveau de processus métier que les données se croisent, où nos données sont générées, où elles sont gérées. Donc, en tant qu'organisation, nous passons beaucoup de temps à nous concentrer sur la normalisation.
Et si je continue sur cette voie, pour réfléchir à la façon dont nous optimisons cette base d'approvisionnement lorsque nous rassemblons les organisations ? Comment pouvons-nous optimiser notre empreinte de fabrication et de laboratoire et la consolider et l'avoir à la bonne taille ? Comment pouvons-nous créer une expérience client qui ne donne jamais l'impression que vous faites affaire avec soixante entreprises issues d'une acquisition, mais que vous traitez avec un seul PPG. Et les données sont un élément clé de cette expérience.
Mais, en fin de compte, nous devons être flexibles du côté informatique, pour être sûrs d'atteindre ces résultats commerciaux.
Sur la bonne gouvernance :
Le noyau pour nous commence autour de la gouvernance et de la gouvernance à l'échelle mondiale, en ayant un bon programme de gestion des données de référence et d'enrichissement des données et la normalisation des processus et en continuant à faire évoluer cela.
Ensuite, nous avons examiné le pilier suivant de cette stratégie, qui concerne le développement de l'architecture de données, pour arriver à une vue commune des données et de la définition, alors que vous avez des sources sur des systèmes disparates. Comment reliez-vous cela ensemble et dans plusieurs secteurs d'activité ?
Sur le(s) bon(s) outil(s) pour le travail :
Nous, en tant que client Microsoft au sein d'Azure, nous avons travaillé avec des ensembles d'outils Microsoft pour le reporting et l'analyse, etc. Mais ensuite, au fur et à mesure que vous passerez au monde de l'IA/ML, ce que vous verrez, de notre point de vue en tout cas, c'est que vous commencerez à voir des variations, car cela devient plus adapté à l'objectif qu'une taille unique. Je veux dire qu'il s'agit de savoir quel est le modèle ou l'outil le plus prêt. Et cela peut vous mettre dans une multitude de fournisseurs différents et parfois vous connectez plusieurs clouds ici, plusieurs solutions pour construire ce modèle ou cette capacité.
Sur l'investissement dans l'architecture de données :
Je serais le premier à dire que nous sommes partis d'un niveau de maturité très bas, et nous sommes arrivés à l'architecture actuelle en faisant appel à une expertise extérieure pour nous aider . Notre architecture continue d'évoluer. Nous développons des talents et des capacités internes aujourd'hui, nous continuons donc à maintenir cette architecture à jour et à la développer. Je dirai que si nous pouvions revenir en arrière, investir davantage en amont dans l'architecture nous aurait aidés à long terme.
Sur la préparation des données :
Nous nous concentrons vraiment sur toutes les nouvelles implémentations système, pour être sûr que nous ne créons pas plus de données et plus d'héritage qui ne sont pas prêts pour l'IA. Et vous devez créer des métriques de qualité des données, vous devez faire des audits et valider dès le premier jour, que même si vous ne mettez pas les données dans un modèle, cela vous amènera là où vous voulez aller, en un an, deux ans, trois ans, donc vous n'aurez pas de mauvaise surprise sur la route.
Quelle est l'avenir de la stratégie de données de PPG Pour nous, il s'agira de continuer à faire mûrir les bases que nous avons en place, et je pense que nous avons une bonne base sur laquelle nous appuyer. Et en s'appuyant sur cela en apprenant et en s'adaptant et en continuant à être flexible. Mais si je regarde cet horizon, nous allons certainement augmenter l'attention et voir plus d'impact de l'IA et de l'apprentissage automatique, et nous verrons que continuer à croître rapidement, sinon, j'utiliserai même le mot « de façon exponentielle », comme nous avons plus de préparation des données. Je pense vraiment que le prochain horizon est l'IA/ML à grande échelle.
Source link