Vous justifiez d'une solide expérience dans l’industrialisation de projets Data Science, vous concevez des architectures pragmatiques et génériques, notamment en ce qui concerne les pipelines d’entrainement de modèles et d’inférence.
Une expérience en IA générative serait un plus.
Vous êtes autonome, organisé·e et avez la capacité de mener plusieurs sujets de front de les maitriser et les porter!
Vous êtes engagé·e, rigoureux·e et méthodique, et vous êtes à l’aise pour travailler en collectif au sein d’une squad, et dans un environnement collaboratif à l’échelle de l’entreprise.
De nature curieux·se, vous êtes synthétique et faites preuve de leadership dans le cadre de vos échanges avec les autres experts métiers et les interlocuteurs IT (architectes, devops, CAGIP …).
Une expérience agile serait un plus.
Les compétences techniques requises :
o Langages de programmation : Python, SQL, PySpark, POO
o Cloud privé : Open Stack
o Conception API REST: OpenAPI, Swagger
o Expérience en JAVA/SpringBoot - Maven
o Conception architectures logicielle
o DevOps : GitlabCI, Docker, Sonarqube, Ansible, Maven, Artifactory, Kubernetes
o MLOps (Déploiement et maintenance des modèles en production)
o OS Linux, Shell-Bash
o Elastic Search / Kibana / Logstash.
o Eco-système big-data : Hadoop, Spark, Hive, Teradata
o Un des 3 Cloud Provider: AWS, AZURE, GCP…
Les compétences techniques appréciées :
o Solutions de cryptographie
o Environnement réglementaire de gouvernance des données
o UML (Unified Modeling Language)
o Framework LLM : Langchain
o LLMOPS
o Framework Pydantic