Retour sur la 1ère journée ROADEF à Bordeaux

0

Ce jeudi 1er février se tenait à l’Institut de Mathématiques de Bordeaux la première journée autour de l’Optimisation, de la Recherche Opérationnelle, et de l’Intelligence Artificielle.

L’événement était organisé par l’association ROADEF (Société Française de Recherche Opérationnelle et d’Aide à la Décision) et l’AMIES (Agence pour les Mathématiques en Interaction avec l’Entreprise et la Société) et a été l’occasion de voir la dynamique autour du sujet en région Aquitaine. Plus de 75 participants ont ainsi assisté à des présentations autour des problématiques d’optimisation, d’apprentissage et de sujets plus théoriques.

Introduction par les représentants locaux de la ROADEF et de l’AMIES

Pr. François Clautiaux et Dr Antoine Jeanjean, organisateurs de l’événement, débutent la journée par une présentation de la Recherche Opérationnelle, l’Aide à la Décision et l’Intelligence Artificielle.

L’objectif principal est de créer une dynamique locale autour de sujets qui ont le vent en poupe notamment côté Intelligence Artificielle. Antoine commence par nous rappeler que l’IA c’est des maths et elle est utilisée depuis des dizaines d’années. Le grand bouleversement vient du volume de données à traiter qui est devenu très important.

Un terme qui est à la mode pour des thématiques qui sont là depuis des dizaines d’années […] Une chose qui a changé : c’est qu’il y a énormément de données…

Antoine nous présente ensuite les étapes du traitement de la donnée, allant croissant en ce qui concerne la valeur ajoutée :

  1. Récupération de données
  2. Structuration
  3. Mise à disposition (dashboard, kpi, BI)
  4. Analyse des données (forecast, statistiques, apprentissage)
  5. Recherche Opérationnelle (RO), Aide à la décision (simulation, solver)
  6. Intelligence Artificielle (IA)

Les organisateurs nous présentent ensuite les associations AMIES et ROADEF. L’AMIES est financée par « Investissement d’avenir » et propose des moyens pour intervenir au sein des entreprises. Le programme PEPS permet ainsi de collaborer avec un laboratoire à hauteur de 50% sur un projet. Il existe également le SEME (Semaine d’Etudes Maths-Entreprise) lors duquel des doctorants ont une semaine pour travailler sur des sujets publiés par des entreprises.

L’association ROADEF existe depuis près de 20 ans et compte à l’heure de cette présentation environ 1000 chercheurs privés/publics autour de sujets tels que la planification, le pricing, la simulation, l’algorithmique. Un congrès annuel à Lorient regroupe près de 600 personnes.

Au niveau de la recherche autour de l’optimisation statistique, elle se concentre principalement autour de 3 grands groupes :

  • 3 pôles IMB, LaBRI, IMS
  • Inria Sud Ouest
  • L’école Kedge

Enfin il existe des partenariats entre l’Université de Bordeaux et les entreprises (contrats de recherche avec PME, start-up, grand groupe, SNCF, EDF …). Ces partenariats peuvent prendre différentes formes : formation (futurs cadres techniques, cadres actuels), projets étudiants, stages, recherche, expertise, participation (projets étudiants, séminaires, financement).

CDiscount — Julien Jouganous — Big Data et Datascience pour le e-commerce

Julien travaille chez CDiscount et propose de nous présenter son quotidien de data scientist.

Après une définition de la data science, nous avons un aperçu des problématiques rencontrées chez le numéro 2 des sites de e-commerce en France. Avec des volumétries de 16M de visiteurs uniques, 1,7M de visites par jour et près de 30M de produits au catalogue (en comptant la Marketplace), cela représente 200To de données à traiter régulièrement. Le tout repose sur un socle Hadoop (avec 2 clusters de 19 noeuds) et les briques Hive pour le requêtage SQL et Spark pour des traitements plus avancés (type Machine Learning).

Une des problématiques est de pouvoir retracer le parcours client pour optimiser différentes fonctionnalités du site. Il est donc nécessaire de pouvoir normaliser et consolider les données brutes pour reconstruire ce parcours.

Les différentes étapes du parcours typique (recherche -> fiche produit -> panier) font l’objet d’optimisation :

  • Le moteur de recherche : pour donner les résultats les plus pertinents (effectivement, rechercher « TV » sur différents sites de e-commerce donne des résultats surprenants)
  • Les résultats de recherche : les différents filtres ne sont pas affichés par hasard, mais en fonction de ce qui permet à l’utilisateur de trouver plus facilement ce qu’il recherche
  • Recommandations sur les fiches produits, l’idée est d’afficher des produits similaires
  • Recommandations sur le panier : ici on présentera plutôt des produits qui ont été achetés en même temps par d’autres utilisateurs

La catégorisation des produits (principalement sur la MarketPlace) est faite par des algorithmes de Machine Learning. Une première étape a été la catégorisation avec fouille de texte sur les fiches produits (15M de produits). Récemment, un concours Kaggle a eu pour objet la catégorisation basée sur l’image. Il s’est terminé avec un score de 79.6% de précision. Les algorithmes vainqueurs de ce type de concours sont souvent des ensembles complexes de plusieurs dizaines d’autres algorithmes et sont donc très difficiles à mettre en production. Cependant, le concours aura permis d’avoir une idée de la performance atteignable avec les données disponibles, et il aura également fourni de nombreux outils.

D’autres éléments du site CDiscount font l’objet de Machine Learning : SEO, paiement d’annonces, scoring de crédit, prévision de la demande pour optimisation des stocks…

Le pôle Data Scientist de CDiscount publie régulièrement des articles sur son blog : techblog.cdiscount.com

Mapotempo — Gwénaël Rault — Accompagner le décideur sur le premier et le dernier kilomètre

Gwénaël nous présente la solution d’optimisation de tournées proposée par Mapotempo. La société a été créée en 2012 par Mehdi JABRANE (logisticien) et Frédéric RODRIGO (cartographie libre) et une première version lancée en 2014.

L’application permet aux utilisateurs d’organiser des tournées selon différentes contraintes (options de sectorisation, sélection de la flotte, découpage des visites, ordonnancement de livraison, préférence de points mal situés ou du moins pas pratiques en réalité). Ces choix sont propres à chaque client, et pour faciliter la saisie de ces préférences, une couche de Machine Learning va être mise en oeuvre afin d’apprendre les habitudes des utilisateurs et de proposer par la suite des suggestions de préférence.

Ensuite, des tournées optimales sont calculées à l’aide de solvers tels que or-tools ou l’API GraphHopper.

Se posent alors deux problématiques principales. La première concerne les tournées de véhicules périodiques (par exemple : un commercial doit passer voir son client 1 fois par mois, mais avec un certain délai entre deux visites).

La seconde problématique concerne les tournées à grande échelle, avec la contrainte de préférence d’avoir des tournées géocohérentes. Les solutions existantes donnent des résultats satisfaisants lors de la planification de tournées jusqu’à 1000 points, mais ne passent pas à l’échelle à partir de 20000–30000 points.

Une première approche consiste à regrouper les points en fonction de leur emplacement. Pour cela, de la clusterisation est mise en place à l’aide d’algorithmes de k-means dichotomique et en utilisant la distance à vol d’oiseau.
Les avantages : temps de réponse, résultat intelligible, réduction du volume de données.
Les inconvénients : contrôle restreint sur taille des clusters (il faut spécifier le nombre de clusters), pas d’échanges entre cluster, affectation problématique à un sous-cluster.

Les prochaines étapes pour améliorer ces résultats sont entre autres l’utilisation d’autres algorithmes de partitionnement, l’utilisation des distances réelles et rendre perméable les frontières des clusters.

Le code source de l’application : https://github.com/Mapotempo

SNCF Bordeaux — Jean Damay & Mohamed Benkirane

Jean Damay démarre cette session par une présentation du groupe SNCF (composé des entités Réseau, Voyageurs, Keolis, Logistics, Immobilier). Le groupe représente près de 30000 km de lignes à gérer, avec près de 70% du trafic en Île-de-France, où se posent alors des problématiques dites de « mass transit ».

Le groupe de travail Modélisation et Expérience Voyageur a ainsi en charge d’intervenir sur l’optimisation du roulement des ressources, la simulation ferroviaire, et la mise au point des plans de transport. Sachant que la production ferroviaire doit prendre en compte de nombreuses contraintes :

  • ressource infra, diagramme espace temps (cf. figure), espacement entre les trains,
  • matériel roulant : trains, optimiser le nombre de rames,
  • personnel : agents, chef de bords, durée de travail à respecter…
                                                  Diagramme espace-temps (G CHP – CC BY-SA 2.5 via Wikimedia Commons)

Les prévisions de circulation se font entre 6 mois et un an avant le départ du train. Naturellement ces prévisions doivent être adaptées jusqu’au départ du train.

Mohamed Benkirane, doctorant en Recherche Opérationnelle présente ensuite son sujet sur « L’établissement des grilles horaires et planification matériel ». Il intervient dans le cadre du projet OptimTER chargé de l’optimisation des activités TER. L’entité TER travaille en étroite collaboration avec les Autorités (Conseil régional) et SNCF Réseau afin de répondre aux besoins des voyageurs.

Dans un contexte difficile (avec le développement du covoiturage, des bus « Macron » et l’ouverture à la concurrence des TER en 2023), TER cherche à optimiser la planification des trains.
La problématique peut se résumer à une approche par flot sur graphes (trouver les chemins les plus courts) avec des contraintes complexes, par exemple : pouvoir gérer les trains multirames où chaque rame peut repartir vers sa propre destination, mais également les gares en cul-de-sac (si le train est composé de 2 rames, la rame de queue doit repartir en premier)…

La tâche se découpe en 2 parties :

  1. Modélisation sous forme de graphe, la notion d’hypergraphe (les arêtes sont reliés à des ensembles de sommets)
  2. Partie algorithmique, génération et résolution des modèles

Les résultats sont concluants et l’industrialisation des travaux de Mohamed est prévue courant 2018.

 

Time Zéro — Ronan Golhen — Directeur Technique chez MaxSea International

Après le train, on aborde la problématique du routage maritime avec la société MaxSea, éditeur logiciel à Bidart, numéro 1 dans les logiciels de routage océanique.

Le cœur de métier de MaxSea était historiquement les navires de plaisance afin d’optimiser les temps de traversée (en fonction de l’angle du vent, des vagues…). L’outil phare de MaxSea permet ainsi d’obtenir un gain de temps de 15% à 20%.

Ronan nous présente ensuite les nouveaux défis dans le domaine de la marine commerciale, avec notamment l’arrivée de l’utilisation des voiles en plus des moteurs classiques. Il cite l’exemple du Rainbow Warrior II sur lequel il a fallu optimiser l’utilisation du fuel tout en respectant le temps de traversée.

                              By Salvatore Barbera from Amsterdam, The Netherlands (Rainbow Warrior On The Bosphorus) [CC BY-                                                                                        SA 2.0 (https://creativecommons.org/licenses/by-sa/2.0)], via Wikimedia Commons)

On parle alors d' »Eco routing », et cela devient une problématique majeure dans le transport maritime (2d émetteur de NOx et SOx). On voit ainsi émerger de plus en plus de projets de navire mixte, avec utilisation de la force éolienne, par exemple : le projet Ecoliner de chez Airbus, avec des navires tractés par des voiles de kite de 1000m2. Sur des navires de cette dimension, le déploiement des voiles doit se faire de manière automatique, et on se retrouve devant un problème d’optimisation où en plus des paramètres du vent et des vagues, il faut gérer la vitesse du navire, le type de voile…

Le projet EcoRoutage met en oeuvre différentes techniques :

  • Recalcul d’un parcours en fonction de l’historique, comparaison par rapport à la consommation réelle
  • Statistiques : étude de plusieurs routes, prise en compte de l’historique météo, estimation du gain
  • Avant le départ, proposition d’une route en fonction des prévisions météo et en fonction des dates de départ/arrivée souhaitées.

 

Addin Soft / XlStat — Dr Thierry Fahmy — Machine Learning et apprentissage automatique

Thierry Fahmy, Docteur en statistique, fondateur de Addin Soft, leader mondial en statistiques dans Excel, nous donne un aperçu de l’historique de le Machine Learning et de l’IA.

Après les buzz autour du Data Mining dans les années 94–95, le buzz du Big Data dans les années 2010, c’est au tour de l’IA.

Historiquement, l’IA peut être définie comme le fait de reproduire le comportement humain. Après avoir connu plusieurs hivers de 1974 à 1980 puis entre 1987 et 1993, l’IA revient sur le devant de la scène grâce aux nouveaux apports de la recherche et au Big Data.

L’apprentissage automatique est le domaine de l’IA qui s’est énormément développé depuis quelques années. Les définitions divergent entre Wikipédia en Anglais et Wikipedia en Français, mais on peut retenir que l’apprentissage automatique consiste à produire de l’information pour déclencher des décisions. Il fait intervenir de nombreuses disciplines en mathématiques, statistiques, recherche opérationnelle et sciences informatiques.

On retrouve également plusieurs définitions de l’Intelligence Artificielle. Normale Sup propose de l’appeler Informatique Heuristique, et définit ainsi l’IA comme l’étude des activités intellectuelles de l’homme pour lesquelles aucune méthode n’est a priori connue.

On distingue l’IA faible dotée d’un objectif précis, de l’IA forte, autonome dans son apprentissage.

Thierry nous présente ensuite les écueils autour de l’apprentissage et de l’IA :

  • biais : un modèle apprend à généraliser à partir des données fournies en entrée, il y a déjà eu plusieurs cas de prédicteurs racistes pour le crime, les concours de beauté.
  • erreurs d’apprentissage comme par exemple le bot Tay de Microsoft qui a fini par tenir des propos racistes.
  • erreurs en reconnaissance d’images : OpenAI arrive à tromper un modèle en injectant des données dans une image de panda, le faisant passer pour un gibbon par le modèle. On imagine très bien les problèmes que cela pourrait poser dans le cadre de la reconnaissance de criminels par reconnaissance faciale…

De nombreuses inquiétudes subsistent autour de l’IA (robotisation des armes, automatisation de l’emploi, assurances qui évaluent les risques clients d’après leurs profils Facebook…). Il existe des projets en cours pour mettre un peu d’éthique comme l’appel contre les armes autonomes (https://futureoflife.org/autonomous-weapons-open-letter-2017) ou la création d’un comité d’éthique au sein de Google.

La problématique reste néanmoins un des sujets brûlants du moment.

Scorelab — Adrien Todeschini — Recommandation personnalisée et Machine Learning

Scorelab est une société créée en avril 2016 spécialisée dans la mise en oeuvre de système de recommandation. Elle a été fondée par Guillaume Forcade & Jean-Baptiste Pautrizel.

Elle édite notamment Globalwinescore, un outil d’agrégation de toutes les critiques de vins, et WineRec, destiné au site de e-commerce pour de la recommandation personnalisée (toujours dans le vin). Scorelab fournit également des prestations pour la mise en oeuvre de tels systèmes.

En parallèle de ces activités, d’autres projets sont développés comme Noodle (une sorte de Doodle avec possibilité de noter), et ML4U que Adrien nous présente par la suite.

ML4U est une application de recommandation pour les conférences de Machine Learning. Le projet est né de l’engouement de plus en plus important pour le Machine Learning, se traduisant notamment par des conférences ML de plus en plus nombreuses, attirant toujours plus de personnes et proposant un catalogue de talks de plus en plus fourni.

Ainsi les conférences ICML et NIPS ont accueilli 3000 et 6000 participants l’année dernière. Certains prétendent qu’à ce rythme-là, il y aura plus d’inscrits au NIPS que d’habitants sur Terre :

D’où l’intérêt de cibler les talks intéressants en fonction de ses goûts et des recommandations des autres participants. ML4U a été développé en partenariat avec plusieurs équipes situées à Oxford, Warwick, Montréal et bien évidemment Bordeaux.
Sous le capot, le moteur de recommandation mis en œuvre est inspiré du Collaborative Topic Regression (qui est un mix de topic modeling et filtrage collaboratif). Le New York Times utilise une technique similaire pour son propre moteur.

Dans un premier temps, l’outil procède à une extraction de topic par LDA, sur les titres et résumés des présentations, après les avoir transformés en Bag Of Word et après application classique des filtres unigrame, bigrammes et stopwords. Il en ressort un certain nombre de sujets caractérisés par un top 5 des mots les plus présents dans ce sujet (par exemple, on obtiendra un sujet Deep Learning caractérisé par les termes Deep, Network, Neural, Layer et Weight).

Ensuite on passe à la recommandation à proprement dit, avec l’utilisation d’une probabilistic matrix factorization, où les likes des autres utilisateurs sont pris en compte pour le calcul d’un score d’intérêt de l’utilisateur pour un topic donné.

Cette matrice est recalculée à intervalles réguliers pour prendre en compte les derniers votes des utilisateurs.

Adrien évoque le problème du cold start : au lancement de l’application, il n’y a pas encore de likes, donc comment faire des recommandations personnalisées à l’utilisateur ? Dans ce cas, on se base sur les préférences saisies par l’utilisateur à la première connexion à l’application, où il doit d’abord préciser ses sujets d’intérêt.

Autre problème des systèmes de recommandation : le Bubble Effect, qui revient à ne proposer à l’utilisateur que ce dont il a l’habitude. Pour pallier ce problème, il faut arriver à mélanger les données du moteur de recommandation avec de nouvelles données pour arriver à introduire de la nouveauté (on peut par exemple utiliser le système de bandit).

Catie — Boris Albar — Apprentissage de stratégies

L’organisme Catie est un centre de transfert technologique qui accompagne les entreprises dans l’usage des nouvelles technologies (Objets numériques, facteurs humains, simulations/big data/blockchain). Elle compte actuellement 30 personnes.

Après un rappel sur ce qu’est le Machine Learning (apprendre par l’expérience), Boris nous expose les différences avec la Recherche Opérationnelle :

  • la RO consiste à modéliser le problème puis à le résoudre
  • le ML permet de créer un modèle à partir de données

Le Machine Learning demande alors moins d’effort sur la modélisation, mais donne des modèles qui peuvent être difficile à interpréter.

À travers l’exemple du Block Relocation Problem, qui consiste à trouver la séquence de mouvements optimale pour retirer tous les blocs dans le bon ordre, nous voyons comment ce problème de Recherche Opérationnelle peut être résolu avec des techniques de Machine Learning.

Le principe consiste à utiliser une recherche arborescente Monte-Carlo (Monte Carlo tree search, MTCS) permettant de parcourir l’ensemble des coups possibles. Pour guider la recherche du meilleur coup, on peut prédire une probabilité sur chacun des déplacements et calculer un score. On récompense les bonnes solutions (de la même manière que les algos de Reinforcement Learning) afin d’éliminer les déplacements les moins optimaux. Une technique similaire est utilisée pour AlphaGo.

La prédiction des déplacements est réalisée par un modèle de Deep Learning entrainé sur les données issues du MTCS. On a donc deux étapes qui se répètent :

  1. Génération des meilleures parties, guidée par des prédictions de coups et des scores
  2. Apprentissage d’un modèle à partir des meilleures parties

Les avantages sont multiples :

  • cette technique est générique : elle s’applique au problème de BLR, AlphaGo…
  • le temps d’exécution est asymétrique : entrainement long, mais exécution rapide

Mais cette méthode présente également des inconvénients :

  • interprétation,
  • biais en entrée,
  • une modification du format en entrée demande de réentrainer le modèle,
  • structure du réseau à définir

 

Fieldbox.ai — Pierre Six — Optimiser la capacité d’un système de tri bagage par la prédiction des flux et l’analyse des opérations de maintenance

Fieldbox.ai est spécialisé dans l’usage de l’IA dans l’optimisation des opérations industrielles. Elle part du constat que beaucoup de tâches d’optimisation sont manuelles (et donc sources d’erreur, chronophages, et souvent à l’appréciation de l’opérateur…)
L’objectif est donc d’appliquer de l’IA sur des tâches non définies à l’avance par le développement d’agents (entraînés par historique, déployés en usine et pouvant être réentrainés).

Pierre Six, Chef de projet Data, présente la mise en oeuvre pour Aéroports de Paris (ADP). Leur problématique est de réduire le nombre de bagages perdus, la première étape consistait à connaitre le flux de bagage qui arrive, sachant qu’à Roissy CDG transitent près de 100000 bagages par jour sur un circuit de 45 km (et environ 1 million de machines et pièces).

Un modèle a été entraîné sur un historique de données mesurées sur une centaine de points. Cela représente 300 Go. Les techniques de traitement de séries temporelles ont été appliquées :

  • autocorrelation : prédiction avec les dernières heures/jours
  • saisonnalité
  • facteurs externes prévus (vacances)

À terme d’autres critères vont rentrer en compte comme les facteurs externes dynamiques (météo, autres aéroports), la croissance trafic…

L’algorithme utilisé pour prédire le nombre de bagages à un instant donné est Random Forest, qui consiste à calculer un ensemble d’arbres de décisions, le modèle donne des prévisions avec 96% de précision. Des tests réalisés avec des réseaux de neurones n’ont pas donné de meilleurs résultats.

Le modèle est actuellement en production chez ADP.

 

UCL — Dr Louis Dorard — External Lecturer — From Data to AI with the Machine Learning Canvas

Louis Dorard est enseignant à l’UCL School of Management, organisateur de PAPIs.io et animateur du meetup Bordeaux Machine Learning. Il nous présente comment mener un projet de Machine Learning.

Le ML peut être appliqué dans des domaines variés, parmi les quelques cas d’usages cités : détection de trafic inhabituel, recommandation, prédiction des défauts de paiement pour les crédits…

On retrouve plusieurs niveaux d’avancement dans l’utilisation des prédictions. Par exemple, dans le contexte du partage de vélo (Vélib’, Vcub…), l’application VCub donne les prédictions de disponibilités de vélo pour une station donnée. L’application BikePredict va un peu plus loin en permettant de choisir un lieu de destination, et en proposant les stations qui ont le plus de chance d’être libres sur le lieu de destination. Pour l’application BikePredict, on voit qu’au-delà de la prédiction de disponibilité, une décision est proposée à l’utilisateur.

Il existe de nombreuses plates-formes d’API (comme DataRobot, BigML) et des outils (autosklearn) qui génèrent des modèles automatiquement à partir de jeu de données. Il devient donc simple de créer des modèles, et se pose alors la question « Que reste-t-il aux Machine Learners » ?

Louis distingue 3 profils de « Machine Learners », sur la métaphore de la voiture :

  1. le créateur de modèle : l’équivalent du mécanicien qui met les mains dans le moteur
  2. le kaggler qui pimpe son modèle
  3. l’utilisateur du modèle : comme Mickael Knight dans K2000

Même si cela paraît simple, il reste plein de métriques à analyser pour appréhender la pertinence du modèle. De plus, un modèle ne sert à rien si le problème n’est pas bien défini. Il y a donc besoin d’aide pour la définition du problème qui peut se découper selon les étapes suivantes :

  • Clarifier les objectifs
  • Formuler la question
  • Collecter les données
  • Que faire des prédictions ?

Prenons l’exemple du churn prediction, qui consiste à prédire la perte de client et doit permettre de mieux cibler les efforts de rétention.

  • objectifs : mieux cibler les efforts de rétention
  • question : est-ce que le client sera là dans 1 mois ?
  • collecte : données client du mois
  • que faire des prédictions ? cela dépend, faut-il faire un effort pour tous ? Il faudra sans doute prioriser les efforts selon l’incertitude de la prédiction, le CA du client, la fréquence du targeting… La phase ultime étant d’automatiser le lancement des relances.

On voit que ces étapes font intervenir différents profils et technologies :

  • Data Engineering : collecte des données, création des features
  • Machine Learning : modèle et prédiction
  • Recherche Opérationnelle : trouver la décision et l’appliquer

Pour aider à cadrer un projet de Machine Learning, Louis présente le ML Canvas :

Il s’agit d’un document permettant de décrire la partie apprentissage d’un projet. On y retrouve les différentes étapes (objectifs, collecte de données, entrainement du modèle, nature des prédictions, décisions à prendre…).

 

Recommerce Lab — Dr Antoine Jeanjean — Outils d’aide à la décision pour l’optimisation du reconditionnement de produits électroniques

La société Recommerce est spécialisée dans le reconditionnement de smartphone. Elle a été créée en 2009, et compte actuellement 70 personnes. Antoine dirige l’équipe R&D (Recommerce Lab).

La problématique du reconditionnement se déroule en 3 étapes :

  1. rachat (boutique, Internet)
  2. test-repair (centre de traitement)
  3. revente (produit reconditionné)

En termes de volumétries, cela représente 7000 points de vente, 2 millions de produits depuis 9 ans. Les smartphones sont testés dans 5 centres de test en Europe soit près de 50000 produits par mois. Recommerce échange avec 20 sites partenaires (les Marketplaces, les opérateurs…). Ce qui représente au final 40M de CA en 2017.

Plusieurs maillons de la chaîne font l’objet de Recherche Opérationnelle :

  • pricing
  • prévision des prix et des volumes de produits
  • amélioration des flux logistiques
  • optimisation du cash flow

Le principal défi est de trouver les prix d’achat et de revente permettant d’obtenir le meilleur chiffre d’affaires, sachant que les prix évoluent en fonction de l’offre et a demande, en fonction de l’obsolescence du produit. Si on attend trop pour le revendre, son coût diminuera et il faut donc essayer de réduire les délais (par des optimisations au quotidien).

Recommerce Lab a ainsi mis en place des outils d’optimisation et dispose même d’une plateforme de trading en mode SaaS. Avec sa connaissance du marché des smartphones, des dataviz sont régulièrement publiées et permettent d’avoir un aperçu du marché.

Conclusion

Cette journée aura permis de voir l’importance de l’activité des entreprises, des labos et des organisations autour des sujets de Recherche Opérationnelle et d’Intelligence Artificielle en région Aquitaine.

Vivement la prochaine édition !

Les slides et vidéos des présentations sont accessibles depuis le site de la conférence.

Partagez cet article.

A propos de l'auteur

Ajouter un commentaire