La matinale Data&IA par B&D

Novembre 2018 – Pas d’IA sans Data

Par Business & Decision, groupe Orange

L’invitation de cette matinale – structurée autour d’une conférence, d’une table ronde et de 12 ateliers – donne le ton :

  • Assistants personnels, collaborateurs augmentés, chatbots, moteurs de recommandation… autant d’innovations et de ruptures technologiques que les entreprises doivent s’approprier.
  • Mais il n’y a pas d’Intelligence Artificielle sans Data ! L’enjeu est de valoriser efficacement les données dans une perspective d’industrialisation, en intégrant dans une même chaîne de valeur leur gestion, leur exploitation et leur gouvernance.
  • Business & Decision et ses partenaires vous proposent de bénéficier, en une matinée, d’un panorama complet des cas d’usage, des méthodes et des outils pour piloter les projets Data et IA.

Acte 1 : Présentation en plénière

1.1/ Battle de projets : enchaînement de 4 pitchs de 3 minutes, la salle vote pour son préféré.

Projet 1 : un leader de la distribution dope sa fidélité client

Les datalake servent classiquement à étudier les données de l’entreprise pour définir des actions de pilotage. Utilisées dans un CRM, ces données peuvent servir à identifier les clients en décrochage et lancer des actions de fidélisation. Anticiper le départ à la concurrence et agir, le projet a permis de retenir 20% des clients qui auraient pu partir.

Projet 2 : la data pour améliorer la production

Pour une entreprise qui travaille en silo, gérer la productivité sur une chaîne de production est complexe. Comment connaitre le point d’avancement, de blocage, à quoi sert le travail de chacun, qui a-t-il avant et après ? Ce grand groupe multipliait les retards au point d’en faire la une de la presse économique. L’intégration des données de chaque service dans une base interrogeable de tous a permis de gagner de fluidité, en connaissance et d’améliorer significativement ses délais de livraison.

Projet 3 (Victorieux) : la poste optimise son fonctionnement à tous les étages !

Comment optimiser le cœur de métier du leader français de la distribution avec ses 40 millions de courriers et colis par jour ? Certes je n’ai pas compris l’usage qu’il a été fait des données et de l’IA dans ce cas, ce que je peux vous dire c’est que le ROI généré a permis de financer 2 projets : « Veiller sur vos proches » et « Envoyer un colis depuis sa boîte aux lettres ».

Projet 4 : la révolution des chatbots

Les chatbot ont leur place dans les compagnies d’assurances, et pas forcément là où je l’aurai cru. Plutôt que se concentrer sur des chatbots dédiés aux clients finaux, les plus belles réussites portent sur l’assistance aux personnels décentralisés. Les agences passent désormais par le chatbot plutôt qu’en direct avec le siège, trouvant 80% de réponses adaptées aux questions techniques. Autre avantage : les chatbots fonctionnent le samedi, lorsque les agences sont ouvertes et que le siège est fermé.

1.2/ Industrialiser la gestion de la Data par l’IA

La première et principale étape est de lutter contre la tragédie des silos, grâce à la mise en place d’outils de communication autour de la donnée.

  1. En entrée il faut définir les usages et cycles de vie de la data : besoin de temps-réel ; de traitement batch ; projet exploratoire.
  2. Techniquement il faut définir les données à exploiter et à traiter. Le datalake sert uniquement à stocker et traiter les données, ce n’est pas une fin en soi.
  3. Il convient ensuite de préparer et construire les projets d’IA (traitement, analyse).
  4. En sortie, des données traitées sont rendues accessibles aux utilisateurs.

Attention : il convient de choisir des langages, outils et environnements (technique et infrastructure) compatibles.

Il y a d’un côté le besoin de définir une architecture d’entreprise et la place qu’y prend la data science, de l’autre la gouvernance à mettre en place entre les métiers et la DSI. Une organisation agile sera alors plus à même gérer les évolutions métiers, législatives et technique.

1.3 Les 4 objectifs de l’IA

En américain « Intelligence = Renseignement », à ne pas prendre donc dans son sens premier en français. Une meilleure définition pourrait être « AI = Apprentissage Intensif ».

L’IA interagit, elle apprend dans différentes situations, elle permet d’anticiper et d’automatiser des réponses.

L’IA est née dans les années 30 pour les analyses non supervisées (donne des résultats sur une masse de données entrantes), avant d’être supervisées (poser une question pour obtenir un résultat) jusqu’à en venir au deeplearning (échange de plus en plus complexe avec une analyse par réseau de neurones informatiques). L’objectif est d’atteindre le seuil de deeplearning non supervisé, permettant d’obtenir des résultats exploitables sans poser de questions.

Cette dernière étape répondra au besoin d’optimisation (gain) et d’automatisation (limiter l’intervention) avec grande quantité de données que l’IA sera en mesure de qualifier.

1.4 Les facteurs clés de succès

Au sommet : les enjeux.

A la base : l’infrastructure et les données.

Pour aller de l’un à l’autre il faut construire une pyramide superposant : une éthique, un dé-silotage, de l’innovation et une méthode.

B&D dispose d’offres pour bâtir des initiatives avec des offres packagées sur 3 thématiques : réseaux de distribution ; anticiper les risques métier ; maîtriser la production.

Acte 2 : Table ronde avec les partenaires

2.1 Retour d’expérience

La Caisse des dépôts optimise l’usage des données du groupe avec un datalab (10 projets), un portail open data accessible aux 6000 collaborateurs et la création d’un studio de data visualisation.

MSD est un groupe pharmaceutique de 300 collaborateurs sur le terrain (délégués parcours de soin) qui mène des projets de gestion des données sur les enjeux de santé humaine. Les professionnels de santé sont accompagnés d’applications qui exploitent les données dédiées à la bonne tenue de leur mission. Ces outils sont voués à fortement évoluer pour s’adapter aux besoins du terrain et à l’offre que propose MSD.

Oracle s’engage dans le machine learning avec pour objectif d’automatiser les traitements des données dans le cloud pour accélérer le time to market, pour cela il faut :

  • construire des méthodes pour lutter contre les silos en se focalisant sur la gouvernance avec un mode collaboratif (agile), sans survendre le périmètre des projets (quelles données a-t-on en termes de quantité et de qualité),
  • repérer les données exploitables qui vont faire l’objet de référentiels et être exploités dans le cadre de la data visualisation.
  • assurer une appropriation par les métiers dont les analystes vont vérifier les prédictions.

2.2 Définir la suite des projets engagés

Chaque acteur de la table ronde nous indique la prochaine étape qu’il va mener sur ses projets de Data et d’IA :

  • rechercher des cas d’usage sur les données structurées,
  • monter un service de gestion des données « data office »,
  • regrouper les métiers de l’IA et de la data science dans une démarche collaborative,
  • ouvrir le cloud aux collaborateurs pour tester et construire des modèles,
  • intégrer des réseaux de neurones dans les processus IA.

Acte 3 : Atelier Oracle

3.1 Présentation

ORACLE : L’AI au service de la data et des business, comment l’intelligence artificielle rend notre Datawarehouse autonome, plus facile à déployer et administrer pour les métiers.

Je note tout d’abord une méthode de présentation très intéressante et agréable, à travers un dialogue entre nos 2 hôtes : une responsable métier qui veut monter un projet de data visualisation sur un périmètre de données qualifiées et un acteur DSI débordé qui amène sa collègue à passer directement et en toute autonomie dans la solution cloud d’Oracle.

La démarche est envisageable pour les données qui peuvent être exposées dans le cloud.

3.2 L’environnement de travail

Dans l’exercice, nous allons déterminer une nouvelle méthode de fixation du prix de nos bières. Note : « l’abus d’alcool est dangereux pour la santé ».

La création d’un environnement se fait en quelques clics à travers le choix du nombre de Cpu et d’espace disque, ajoutons-y un mot de passe.

Cet environnement est évolutif, vous pouvez manuellement modifier le nombre de Cpu et la taille de disque pour optimiser vos temps de réponse et la quantité de données à stocker. Dans l’exemple à milliards de lignes, passer de 4 à 16 Cpu réduit un temps de traitement de la data visualisation de 100 à 16 secondes.

La solution propose aussi des actions automatiques avec une IA omniprésente :

  • self-driving : optimisation automatique des composantes techniques,
  • self-securing : enlève le risque humain,
  • self-repairing : plateforme autogéré qui détecte et corrige.

3.3 Trouver une méthode

Nous voici avec un environnement sur lequel il faut charger les données et construire des modèles mêlant prédictif et data visualisation.

Ces données peuvent provenir du Si de l’entreprise ou de bases open data. Dans l’exemple nous prenons les avis de clients sur un site spécialisé sur les bières puis nous allons créer une relation entre le prix et les avis.

La démarche est la suivante :

  1. Explorer (data discovery) : grâce à la data visualisation et à travers plusieurs critères de découpage des données. Nous allons construire des courbes de tendances, créer des groupes cohérents (cluster) et définir des coefficients de corrélation entre les variables (point sensible car il existe des fausses corrélations, sans lien direct entre action et conséquence).
  2. Apprendre : avec le comportement prédictif, il est possible d’intégrer des algorithmes tels que R et Python.
  3. Appliquer : en analysant le prix réel à celui prédit, vous allez pouvoir comparer les données d’entrainement (celles qui ont permis de construire le modèle) à celles que gardés pour le tester (généralement 20% de la masse globale de données).
  4. Evaluer (et faire évoluer) le modèle : travail à réaliser entre les responsables métiers, les Data Scientist, les développeurs d’applications et les diverses parties prenantes.

Voici une mise en bouche sur le contenu des autres ateliers auxquels je n’ai pas assisté

SEMARCHY : Découvrez 4 exemples de projets réussis avec Semarchy xDM : Référentiels Client Unique B2C et B2B, Produits et Organisation.

TABLEAU : Faites parler vos données avec l’analytique en libre-service.

VERTICA : Plate-forme analytique, Big Data, Cloud, Machine Learning : quels choix et quelles opportunités avec Vertica ?

DENODO : Data Virtualization : la data marketplace qui révolutionne l’accès à toutes vos données d’entreprise sans les répliquer, de manière sécurisée et gouvernée.

MICROSOFT : Lancez-vous dans l’Intelligence Artificielle avec Microsoft !

QLIK : Pilotez la performance de vos points de vente et optimisez votre Supply-Chain.

TALEND : Un data hub partagé pour valoriser les données client, mieux gérer les risques et développer ses services innovants.

ALTERYX : Comment gagner du temps avec Alteryx.

ASG TECHNOLOGIES : Trouvez les données stratégiques de l’entreprise.

INFORMATICA : Venez découvrir CLAIRE, le moteur d’Intelligence Artificielle d’Informatica et les bénéfices qu’en font nos clients.

SAS : Text Analytics et Machine Learning en action, cas pratiques pour améliorer l’expérience client.

Leave Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.