Bonjour Raphaël, est-ce que tu pourrais te présenter en quelques mots ?

Je suis Raphaël, data engineer chez Flowlity. Je suis responsable du pipeline data de notre solution SaaS. Je suis le garant de la qualité de la donnée sur les différentes couches du produit ainsi que de la robustesse des différents process de transformation de celle-ci : connexions aux ERP clients, intégration des données bruts, synchronisation et standardisation, analyse/BI, machine learning et modèle d’optimisation, application et données cached, export et intégration des résultats vers les ERP clients. J’aime designer, mettre en production et maintenir des architectures data pour des solutions innovantes. Je viens d’un double cursus Mathématiques master de statistique à la Sorbonne et informatique à l’école 42.

Je suis chez Flowlity depuis un an. Nous sommes un produit data et nous avons pour ambition de nous intégrer à tous les maillons de la supply chain. Il y un grand nombre de solutions, systèmes et outils dans l’écosystème et c’est véritable défi de venir les enrichir. C’est une équipe qui sera amenée à croître en raison de son enjeu stratégique.

J’ai commencé ma carrière en tant que Data scientist et recherche mais j’apprécie vraiment le côté tech et production du rôle de data engineer. Chez Flowlity, je continue d’accompagner l’équipe recherche, mais j’ai aussi la chance de travailler avec des devops, frontend developer, sales et customer success !

En plus de ces activités, j’ai le plaisir de donner des cours en master 2 de statistiques de la Sorbonne, sur un sujet de machine learning qui me plait : l’apprentissage par renforcement.

Si tu devais décrire ton métier en 3 mots :

  • Développement : je travaille sur les nouvelles features et sur le l’amélioration et l’orchestration du pipeline data: -backend -etl -model ML/optim -devops -monitoring. On s’organise en sprint de 2 semaines, avec des tickets sur les prios du moments à différents niveaux de notre stack (python, sql, airflow, k8s, azure). Avec des releases régulières sur nos différents environnements.
  • Analyse : j’ai beaucoup d’interactions avec le client. Avant intégration, il faut bien comprendre son IT et la modélisation de ses données, et bien s’accorder avec lui sur les étapes d’intégration (sécurité, connexion, protocoles et mapping). En collaboration avec l’équipe delivery, j’analyse (notebook, BI) ces données brutes pour valider le workflow client et les specs d’intégration (mapping, filtre, …).
  • Résilience : Même avec les meilleurs modèles de ML du monde, si les données ne sont pas bonnes, les résultats non plus. La data n’est jamais parfaite, et ce pour des raisons très variées: -techniques -humaines -internes/externes. Il faut maintenir une vigilance et être constamment sur le pont pour continuer d’améliorer la qualité et prévenir les possibilités d’erreurs.

À quoi ressemble ta journée type ?

Je commence ma journée à 9h. Je regarde les logs pour voir s’il y a des alertes ou des bugs. Quand il y a des erreurs, je vais commencer par les corriger. C’est toujours ma priorité.

Ensuite je me concentre sur les clients (données, requêtes etc…), puis je vais regarder les fonctionnalités à développer ou le code à refactoriser. Après je mange (rire). Je poursuis l’après- midi.

J’ai également de nombreux meetings avec les clients et/ou des points de synchronisation avec les autres équipes pour comprendre les besoins des uns et des autres. Ce qui compte c’est de comprendre quand un changement s’opère pour que l’on puisse le propager correctement.

Quelles sont tes interactions avec les clients ?

J’en ai à plusieurs niveaux:

  • Potentiels clients : avant même la signature je vais rencontrer le client pour évaluer la faisabilité côté donnée. Je vais interagir avec leur équipe IT et leur décrire notre infrastructure, la sécurité, la donnée etc…
  • Client en cours d’intégration : À cette étape nous allons écrire et valider les specs de l’intégration des données, et protocoles de connexion infrastructure avec leur équipe IT etc… 
  • Client en production : intégrer les nouvelles données et changements de modèles, corriger les bugs et développer de nouvelles features etc…

Je travaille vraiment en étroite collaboration avec les équipes delivery/customer success sur ces sujets.

Pourquoi Flowlity ?

Avant j’étais chez Eau de Paris. Une belle entreprise, avec des problématiques très intéressantes qui cherchait à se digitaliser. J’ai beaucoup apprécié cette expérience, mais j’avais envie de retourner dans un écosystème start-up, plus agile, plus international.

Je connaissais Arthur (lead research) et il m’a convaincu de venir.

Ce qui m’a convaincu, c’est la capacité à délivrer. La solution développée en à peine 2 ans est vraiment impressionnante. Et l’organisation qui va avec, en termes de méthode agile, je nous trouve vraiment pas mal. Je reste pour l’équipe, il y a des profils solides, tout le monde est à fond, il y a une vraie solidarité et une bonne communication.

On vit avec nos clients aussi. On suit le besoin en permanence, on s’adapte et ça me plaît beaucoup.

Je ne connaissais pas la supply chain, depuis Flowlity, je comprends qu’elle est partout ! Il y a plusieurs typologies de clients, mais avec des problématiques importantes connexes. Et je crois que Flowlity a les capacités et l’intelligence de développer une véritable solution pour améliorer grandement la qualité de vie de ces acteurs !