Fermer

décembre 3, 2020

Tendance Martech 2030 n ° 4: du Big Data au Big Ops


 Martech 2030 Trend # 4: From Big Data to Big Ops

Plus tôt cette année, j'ai collaboré avec Jason Baldwin, responsable mondial de la gestion des produits chez WPP sur ce projet pour décrire cinq grandes tendances du martech qui façonneront la décennie à venir pour les agences et les marques. Vous pouvez télécharger notre article complet y compris de nombreuses interviews formidables de dirigeants de WPP. Je la republie ici sous le nom de une série en 7 parties . Ceci est la partie 5.

On dit que les données sont le nouveau pétrole. Une meilleure analogie est que les données sont la nouvelle peinture à l'huile.

Les peintures à l'huile varient de 4 $ à 400 $ le tube, des huiles et pigments communs aux rares. Ils ont une valeur intrinsèque. Mais c'est en appliquant ces peintures sur toile, dans des actes de création inspirés, que des ordres de grandeur plus importants peuvent être obtenus, transformant la matière en chefs-d'œuvre.

 Data is the New Oil Paint

Data by lui-même a également une valeur, que nous pouvons observer à travers les prix sur les marchés de données. Mais c'est en intégrant ces données dans la conception et la livraison d'expériences client remarquables que les spécialistes du marketing créent une valeur de plus en plus grande pour leurs organisations.

Concevoir et offrir des expériences client dans une entreprise numérique native ou transformée numériquement est une fonction d'un un grand nombre d'applications, d'automatisations, de robots, de modèles de décision, de processus dynamiques, de flux de travail, de compétences, de personnes et plus encore – une myriade d '«acteurs» humains et logiciels – qui doivent tous travailler de concert.

Chacun de ces acteurs opère sur données, et leur performance est influencée par les données auxquelles ils ont accès et leur qualité. Mais en opérant sur des données, ils les modifient souvent aussi – soit en mettant à jour les données existantes, soit en contribuant aux nouvelles données qu'ils collectent, dérivent et génèrent. Étant donné que tant de processus automatisés par logiciel ou à médiation logicielle fonctionnent désormais en parallèle dans une organisation numérique, beaucoup avec un certain degré d'indépendance, mais tous interagissant avec l'univers collectif de données de l'entreprise, des effets d'interaction complexes émergent.

Sur la base des tendances que nous avons déjà examinées – The Great App Explosion qui est alimentée par des créateurs citoyens plus décentralisés «sans code» tirant parti des plates-formes et des réseaux – nous pouvons nous attendre à ce que la complexité augmente de façon exponentielle au cours de la prochaine décennie.

L'efficacité avec laquelle les entreprises orchestrent tout cela – l'étendue massive de leurs opérations numériques – sera un axe majeur de l'avantage concurrentiel.

LA DÉCENNIE DE BIG OPS

Les années 2010 portaient sur le Big Data, luttant contre l'énorme échelle et la complexité des données circulant dans les organisations à une vitesse accélérée. Les années 2020 seront davantage consacrées aux «grandes opérations» – la couche d'orchestration au-dessus de cet univers de données et de son échelle et de sa complexité croissantes.

Tout comme le big data décrivait une croissance exponentielle du volume, de la vitesse et de la variété des données. canalisés dans et hors des organisations, les grandes opérations décrivent une mise à l'échelle similaire du volume, de la vitesse et de la variété des processus automatisés ou à médiation logicielle qui se répercutent sur les opérations de marketing, les opérations de vente, les opérations de service et les opérations de revenus globales.

 Du Big Data au Big Ops

L'échelle des données dans les entreprises continuera de croître aussi, mais les mécanismes de canalisation et de stockage seront relativement faciles et banalisés avec les plates-formes cloud. La compétitivité des données sera fonction de deux choses:

  1. La source de vos données: leur exactitude et leur fraîcheur; sa provenance et ses autorisations légales; et son exclusivité
  2. Avec quelle efficacité vous distillez et activez ces données dans vos opérations commerciales et vos expériences client.

C'est l'énigme de la philosophie du 21e siècle: si des données sont générées, mais que personne n'en fait jamais rien, est-ce que cela a même existé? (La réponse: nous serions mieux si ce n'était pas le cas. Les données collectées mais jamais utilisées ont une valeur inférieure à zéro. C'est une responsabilité, avec des coûts de stockage et des risques de vol.)

Recherche cette année par IDC et Seagate estiment que 44% de toutes les données disponibles pour les entreprises ne sont pas saisies et que sur les données saisies, 43% restent inutilisées. À peine un tiers du total est mis en œuvre aujourd'hui. Le reste, ce sont des «données sombres». La première mission des grandes opérations est de mettre en lumière toutes les données pertinentes.

INTELLIGENCE DES DONNÉES ET RÉFLEXES DE DONNÉES

Capturer les données disponibles et les utiliser est un début, mais la partie «les mettre un large éventail de possibilités qui affectent son impact. Les données prennent de la valeur dans deux dimensions:

  1. Le degré auquel elles sont distillées en informations, connaissances et perspicacité
  2. Le degré auquel elles sont activées dans l'organisation, du rapport à la prise de décision et, dans un grand environnement opérationnel, conduisant des réactions automatisées.

La première dimension est votre intelligence des données. Le second est vos réflexes de données.

 Intelligence de données et réflexes de données

Ces deux dimensions se croisent pour déterminer la valeur des données. Les données peuvent être distillées en informations, mais sont-elles introduites dans les bonnes décisions au bon moment? Les données peuvent être simplement traitées, mais peuvent-elles immédiatement déclencher une réponse automatisée utile pour un client?

Exploiter les données dans les grandes opérations – développer vos réflexes de données – repose sur la connectivité et la coordination des données, enveloppées par la gestion et la gouvernance des données; des capacités qui sont encore à un stade précoce de maturité pour la plupart des entreprises.

Dans la myriade de sources de données de notre organisation, les bons ensembles de données sont-ils connectés à un processus opérationnel? Peut-il accéder aux données pertinentes en temps opportun? Et avec la conformité et l'éthique des données de plus en plus importantes, les «mauvais» ensembles de données – ceux auxquels un processus d'opérations particulier ne devrait pas avoir accès – sont-ils correctement limités par la gouvernance des données?

Une telle connectivité des données est l'épine dorsale des grandes opérations.

Mais la vraie complexité réside dans la coordination des données, la gestion des interdépendances et des activités parallèles entre les processus opérationnels et les données avec lesquelles ils travaillent.

Quels acteurs ops obtiennent le premier passage aux nouvelles données? Au fur et à mesure qu'ils le valident et le traitent – formatez, nettoyez et augmentez-le – les acteurs ultérieurs y travaillent-ils correctement? Avec de nombreux acteurs travaillant avec les mêmes ensembles de données, comment les mises à jour de données conflictuelles sont-elles résolues? Alors que d'autres acteurs continuent d'enrichir et de distiller ces données en informations de plus haut niveau, les processus en amont sont-ils réexécutés de manière itérative pour actualiser leurs modèles et leurs sorties?

Tout comme les bases de données distribuées sont souvent «finalement cohérentes» – avec des mises en garde et des contraintes qui doivent être prises en compte dans logique applicative – les grands environnements opérationnels seront confrontés à une méta version de ce défi alors qu'ils s'efforcent d'obtenir des opérations finalement cohérentes dans toutes les décisions internes et les expériences client. Les plates-formes logicielles centralisées, ainsi que les bases de données blockchain et grand livre, aideront à orchestrer cette complexité. Mais la gouvernance assurée par le leadership des grandes opérations sera cruciale pour concevoir et gérer efficacement cette couche d'opérations numériques.

Ce sont des défis opérationnels plus que des défis liés aux données.

 DevOps + RevOps = Big Ops

CONCURRENCE POUR UNE UTILISATION EFFICACE DES DONNÉES

Au fur et à mesure que les organisations acquièrent de grandes compétences en matière d'opérations, elles seront mieux placées pour extraire de la valeur de sources de données supplémentaires provenant de l'extérieur des murs de l'entreprise. Les organisations de marketing devront investir dans les compétences en données (littératie des données) de leur personnel pour s'assurer que les compétences de quelques-uns sont une seconde nature pour l'organisation au sens large au cours de cette période, les stratégies «sans code» et les plates-formes accéléreront cette compréhension. Les agences continueront de combler les lacunes en matière de compétences avec des experts compétents en matière de données et dans des domaines où les investissements sont en augmentation pour le secteur dans son ensemble.

La décennie à venir verra une croissance significative des alliances de données entre entreprises – partage de données de seconde partie – négociées en toute sécurité par un écosystème de confiance plates-formes de données telles que Crossbeam et InfoSum.

Les marchés de données pour les données de tiers vont également se développer. Gartner prévoit que d'ici 2022, 35% des grandes organisations seront soit des vendeurs soit des acheteurs de données via des marchés de données en ligne formels, contre 25% en 2020. D'ici à 2025, le nombre de fournisseurs de marché et de produits de données au sein des marchés et des échanges de données devraient croître de 25% par an. Bien qu'avec une pression réglementaire accrue, la gouvernance et la gestion des autorisations entourant les données constitueront une complexité supplémentaire à gérer pour les grandes opérations.

Une source émergente de données est les «données de tiers» que les prospects et les clients gèrent directement sur eux-mêmes et partagent avec les entreprises de manière plus contrôlée. L'acquisition de ces données au bon moment, dans le bon but et au bon coût – et le respect des contrats par lesquels elles sont fournies – sera une facette clé des grandes opérations à venir.

Étant donné que le même ensemble de données variera. significativement en valeur en fonction de l'efficacité avec laquelle une entreprise est en mesure de l'opérationnaliser, il y aura de plus en plus d'opportunités d'arbitrage de données autour de ces échanges.

Pour les agences, il existe des possibilités de mettre en relation les clients avec le bon deuxième et le bon tiers les fournisseurs de données, en tant qu'élément intégral des campagnes et programmes de marketing, mais aussi pour créer leurs propres réseaux de données et marchés spécialisés.

Les grandes opérations rendront le Big Data plus puissant que jamais. Cependant, bien que cela présente un énorme avantage pour les entreprises et les clients, cela amplifiera également les problèmes de biais dans les ensembles de données. Les données qui dénaturent les gens, soit par leur caractère incomplet soit par leur inexactitude, se répercuteront plus rapidement sur les opérations numériques et avec des conséquences plus importantes.

Un élément crucial des grandes opérations consistera à mettre en place des freins et contrepoids pour se prémunir contre la discrimination des données et appliquer des politiques de bonnes données. éthique. Alors que la technologie aidera dans cette mission, en tirant parti de l'IA pour détecter les modèles opérationnels et les anomalies qui peuvent indiquer un biais ou une mauvaise utilisation des données, le poids du bon jugement reposera sur les épaules de l'homme.

 Big Ops: Converging Digital Ops Domaines

Restez à l'écoute pour Tendance # 5: Harmoniser l'homme + la machine à paraître prochainement. Vous pouvez également télécharger l'article complet à tout moment.

<! –

->




Source link