Francis Wolinski – Yotta Conseil: Entre le Data Marketing et le Marketing de la Data – Premier jour

Francis Wolinski – Yotta Conseil

@fran6wol

16 novembre 2017

GirlsInTech Paris – partenaire institutionnel de l’événement – m’a invité, en tant qu’expert data, au congrès Data Marketing Paris 2017 qui s’est tenu à l’Espace Grande Arche de La Défense (merci Paul et Jamie).

RGPD : protection renforcée des internautes

La conférence d’ouverture portait sur les nouveaux règlements RGDP (Règlement Général sur la Protection des Données) et ePrivacy, par Armand Heslot de la CNIL.

Le RGDP s’appliquera à tous dès le 25 mai 2018. Il responsabilisera les entreprises (accountability, privacy by design, notification, transparence) ; il créera de nouveaux droits pour les citoyens (portabilité, limitation, oubli) et augmentera significativement les sanctions en cas de violation.

Le point fondamental est le consentement – c’est-à-dire, la manifestation de volonté libre, spécifique, éclairée et univoque – de la personne qui accepte que ses données à caractère personnel – permettant directement ou indirectement son identification – soient utilisées dans un traitement.

ePrivacy, appelée également la « directive cookies » mise en place en 2002 va également être modifiée à l’occasion de la mise en place du RGDP. L’idée est d’obtenir le consentement des utilisateurs via les navigateurs web ou de tout autre terminal utilisateur M2M, IOT, etc.

Il est certain que la mise en œuvre de cette directive aura des impacts sur les modalités d’accès aux contenus sur internet et aux services basés sur ces technologies. Reste à voir si ça n’impactera pas non plus l’UX avec des quantités d’options à choisir dès lors que l’on accèdera à une ressource… A suivre.

De nombreux cabinets de conseil, sociétés de service et startups se sont mis sur le créneau du GDPR comme Smart GDPR (Pitch 4 Talent challenge Start’up).

Marketing de la privacy pour les entreprises centrés sur ses clients

Ensuite, Ludovic Lévy d’Orange nous a présenté une vision dans laquelle l’entreprise centrée sur ses clients doit tirer partie de ces réglementations contraignantes pour engager une nouvelle relation de confiance. C’est le marketing de la privacy qui s’appuie sur le privacy by design.

La confiance des utilisateurs est assez basse. Un sondage montre que seulement 12% ont confiance dans les géants du web, 18% dans leur opérateur et 33% dans leur banque ! Il y a effectivement une marge de progrès.

L’idée est de bannir les consentements ambigus au profit de consentements éclairés et contextuels. Bref, passer de CGU incompréhensibles et que personne ne lit, rédigés par des juristes pour des juristes, à des cas d’usage qui seraient présentés au client et que ce dernier serait à même de comprendre et d’en accepter ou d’en décliner l’offre en fonction des données et des traitements nécessaires.

Toutes les actions d’opt-in ou d’opt-out qui deviendront de plus en plus nombreuses et indispensables vont probablement générer tout un écosystème legaltech dans lequel des agents intelligents assisteront les usagers pour les aider à maîtriser leurs données en interaction avec les multiples services et au final augmenter la confiance qu’ils ont envers les gros opérateurs.

Fédération d’acteurs français pour contrer les géants du web…

Fabien Magalon de l’Alliance Gravity et Francis Morel des Echos ont présenté une initiative française pour contrer le duopole Google et Facebook qui, à l’heure actuelle, concentre l’essentiel des revenus publicitaires : 2/3 du web et 90% du mobile.

Alliance Gravity regroupe une vingtaine d’acteurs français majeurs (Les Echos, Lagardère, M6, SFR, Fnac/Darty, et plusieurs titres de presse…) pour fournir des outils permettant d’utiliser des données transactionnelles, telcos et navigationnelles.

1200 critères ont été définis et regroupés en 8 catégories : socio/démo, socio/pro, possessions, moments de vie, usages et assiduité, géographie, intérêts et intentions. L’idée étant de distinguer la consultation informationnelle de l’intention d’achat, qui va seule conduire potentiellement à un lead qualifié.

L’initiative est intéressante, elle reste cependant franco-française – tiendra-t-elle le choc face aux géants du web qui sont nés sur le continent américains et qui sont très largement mondialisés.

Des startups proposent des outils automatiques pour obtenir des leads qualifiés comme Sirdata (Pitch 4 Talent challenge Start’up) qui collecte au fur et à mesure de leurs parcours des informations sur les internautes.

Les prérequis d’une organisation data-driven

Ensuite, Elias Hadaya de World Vision – alias Vision du Monde – ONG canadienne spécialisée dans le parrainage d’enfants nous a présenté leur approche des campagnes marketing auprès des donneurs.

Le secteur humanitaire est très complexe et fragmenté entre les organismes traditionnels, les entreprises et fondations et de nouveaux acteurs nés avec le financement participatif. De plus, depuis la crise financière de 2008, les dons stagnent et suivent à peu près les indices boursiers…

Cela a conduit World Vision a révolutionner son approche marketing qui se phagocytait elle-même et définir une nouvelle approche data-driven et holistique fondée sur une amélioration de l’expérience client.

Une plateforme complète de traitement des données online (digital analytics experience, big data & social analytics, predictive modelling, marketing operations planning & design) a été mise en œuvre pour cibler précisément les donneurs en fonction de leur catégorie d’appartenance, de leur habitude de navigation et des contacts digitaux ou physiques qu’ils peuvent avoir directement ou indirectement avec World Vision.

Des startups proposent des plates-formes pour fournir des outils analytics adaptés au e-commerce comme Brainify (trophée du Pitch 4 Talent challenge Start’up).

L’art de la data visualisation

Enfin, en ce premier jour de congrès, j’ai assisté à la conférence donnée par Edouard Beaucourt de Tableau Software sur un sujet ancien (présentation d’une planche datant de l’époque de Napoléon) et toujours très intéressant car mixant des aspects cognitifs et rationnels parlant au cerveau gauche mais aussi intuitifs et émotionnels parlant au cerveau droit.

Les deux graphiques présentés sur les effets dramatiques de la guerre en Irak en sont une illustration parfaite :

Un premier graphique montre le nombre de tués dans une couleur rouge sang, inversé verticalement avec une impression de coulures et intitulé avec un titre évocateur : Irak – Le Bilan Sanglant. Un second graphique, avec exactement les mêmes données, est de couleur vert pastel, présenté normalement et intitulé avec un euphémisme plein d’espoir : Irak – le nombre de décès diminue.
 

 

On le voit bien, on le sait bien, on peut tout dire avec des chiffres. C’est la présentation adaptée au message que l’on veut faire passer qui compte.

 

Les data ont la parole – Second jour

La seconde journée du congrès Data Marketing a démarré par la vision de deux géants américains : IBM et Google et de trois acteurs majeurs français : le CNRS, AccorHotels et la SNCF.

IBM

Tout d’abord, une personne d’IBM Watson est venue présenter a capella (sans support) quelques retours d’expérience sur l’utilisation de l’IA d’IBM pour améliorer l’expérience client.

De son point de vue, les données structurées sont des données artificielles tandis que les données non structurées sont, quant à elles, des données naturelles – qui vont donc être traitées par une intelligence artificielle…

Deux paradoxes sont soulignés. D’une part, on met en production des dispositifs relativement rustiques mais qui ont néanmoins un impact important avec un pay back à 12-18 mois. D’autre part, pour bénéficier de la rupture engendrée, il faut accepter de mettre en production des dispositifs imparfaits mais qui vont s’améliorer au fur et à mesure. Par exemple, un chatbot s’auto-améliore en analysant ses propres logs conversationnels.

Trois cas d’usage de Watson ont été évoqués : l’engagement relationnel avec le client (par ex. chatbot), l’analyse de flux documentaires (par ex. comptes-rendus- d’accidents ou de maintenance, contrats, emails, verbatim NPS…) et l’enrichissement automatique de données à partir de celles qui sont internes à l’entreprise ou d’autres collectées sur le web.

CNRS

Ensuite Balázs Kegl, chercheur au CNRS / Université de Paris-Saclay, a présenté les défis organisationnels et métiers posés par la mise en place de projets de data science.

Trois acteurs de l’entreprise sont concernés par les projets de data science. Tout d’abord le métier (BU) qui possède une expertise sur son domaine, ensuite les data scientists (DS) qui conçoivent les pipelines de machine learning et enfin l’informatique (IT) ou la DSI qui va devoir mettre tout ça en production.

Ces trois acteurs doivent être épaulés par deux autres acteurs : le data engineer qui met en place l’architecture informatique et le data value architect qui met en place l’architecture des données qui sont nécessaires aux data scientists.

L’idée est de sortir de la démarche classique des POCs où l’on part en général des données disponibles pour produire un score (par exemple, attrition, risque, appétence) vers une démarche inverse où le métier définit d’abord le type de score qui l’intéresse et où ensuite on va chercher les données qui peuvent être utilisées pour le prédire.

Google

Puis Luigi Reggiani  de Google est venu présenter la vision de l’ère de l’assistance propulsée par la démultiplication des usages et des appareils connectés ainsi que le développement du machine learning.

Avec un moteur de recherche qui a bientôt 20 ans, Google est capable d’analyser les tendances mondiales et leurs spécificités locales. Le constat partagé est une exigence accrue des utilisateurs avec un besoin d’immédiateté, d’instantanéité ainsi que de personnalisation et de contextualisation des réponses.

Le vocal émerge et constitue déjà 25% des requêtes des 16-24 ans aux USA et probablement 50% en 2020, date à laquelle les foyers auront en moyenne 30 appareils connectés (j’en compte déjà 12 chez moi alors que je n’ai ni ampoule, ni chauffage, ni frigo connecté…).

L’essor du vocal est dû aux énormes progrès des techniques d’analyse où la précision est passée de 75% à 95% en quelques années. Avec le vocal, c’est la machine qui s’adapte à l’humain et non l’humain qui est obligé de passer par une interface (clavier, souris, écran). La voix est beaucoup plus rapide : x3 par rapport au clavier et x7 par rapport à l’écriture. Enfin, la voix libère.

L’interaction vocale peut être utilisée dans de multiples contextes : domicile (Google Home), mobilité (Pixel Android), ordinateur, appareil portatif, automobile, TV… Evidemment, les interfaces vocales (VUI) diffèrent sensiblement des GUI. Par exemple, on ne présente pas un menu déroulant vocal car les items y seraient présentés successivement.

Pour les utilisateurs, trois grands bénéfices sont attendus : vitesse, simplicité et praticité. L’accent doit être mis sur l’expérience utilisateur qui, seule, façonne les nouveaux outils et qui distingue ceux qui seront massivement adoptés. Aussi, toutes les séquences de dialogue doivent être envisagées avec des scénaristes afin de répondre de manière adaptée et également pour définir une personnalité vocale qui sera ambassadrice de la marque.

AccorHotels

Matthieu Perrin d’ AccorHotels est venu présenter un retour d’expérience dans le design d’une nouvelle offre hôtelière réfléchie avec des « Millennials » (génération Y).

L’un des points de départ de cette expérimentation, réside dans les paradoxes de cette génération, (qui à mon avis percolent dans toutes les autres… ). La diapo projetée est très instructive et se passe de commentaire.

SNCF

Enfin, Benoit Bouffart de OUI.sncf (future ex-Voyages-SNCF) est venu présenter l’expérience de la SNCF sur les chatbots. J’en profite pour saluer l’équipe de SNCF Innovation & Recherche, avec laquelle j’ai récemment collaboré sur un autre sujet. Ils font un travail scientifique et technique formidable, et ce, dans un cadre humain favorisant la créativité.

La SNCF met en œuvre une assistance numérique depuis plusieurs années : l’assistante virtuelle Léa en 2011, ensuite les réseaux sociaux, la voix sur mobile et à présent l’utilisation de la plate-forme conversationnelle iAdvize ainsi que Messenger et The Assistant et également Google Home sur le vocal.

Les techniques actuelles permettent de traiter les deux sources – vocal et clavier – par une chaine de traitement. Le vocal est transformé en texte via des algorithmes STT (Speech-to-Text) et les flux clavier ou STT sont ensuite traités par des algorithmes de NLP (Natural Language Processing) pour catégoriser la demande (par ex. recherche, réservation) et aussi en extraire les informations nécessaires (par ex. date, heure, départ, destination).

Au final, la SNCF estime que le vocal est une révolution identique au mobile qui va influer sur toutes les expériences utilisateurs. A suivre.

One thought on “Francis Wolinski – Yotta Conseil: Entre le Data Marketing et le Marketing de la Data – Premier jour

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *