Trouvez votre prochaine offre d’emploi ou de mission freelance Pytorch
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
ML Ops / DevOps Data Toulouse (3 jours sur site)
La prestation consiste à renforcer avec un MLOps engineer notre équipe Datalab, qui est une équipe transverse de 6 data scientists internes. Chaque data scientist peut travailler sur des sujets différents, sur des périodes de 3 mois à 1 an, pour différentes applications demandées par les différentes Business Units. Les activités des data scientists peuvent être de plusieurs natures (régression, classification, segmentation sémantique), sur différentes données (images satellites, données météo ou océanographiques, télémétrie, trajectoires) en utilisant la technologie la plus adapté au besoin (du simple processing simple à du Machine-Learning ou du Deep-Learning). Il y a 2 ans, une plateforme (KFPC, KubeFlow Processing Chain) a été développée basée sur Kubeflow. Cette solution n'est utilisée aujourd'hui que pour l'inférence, de chaîne ML ou non ML et nécessite beaucoup de temps pour la maintenir. Cette solution ne permet pas ou n'est pas utilisée pour gérer les activités de data collection, préparation, experiment tracking, training et model registry. Pour cette prestation, les objectifs sont de: - mettre en places les outils, process et bonnes pratiques pour la phase amont du process MLOps jusqu'au model registry au moins, - participer aux activités Data Science. Ses activités consisteront à : - comprendre et analyser le problème posé par les data scientists, - définir le besoin de fonctionnalités nécessaires, process, frameworks et outils, - proposer une roadmap d'implémentation, - développer la solution en collaboration avec l'équipe IT (plateforme, réseau, infra), - valider l'implémentation avec les data scientists pour s'asurer de l'impact positif. Expérience demandée de plus de 6 ans
Mission freelance
Consultant Senior en MLOps
Nous recherchons un expert senior en MLOps pour intégrer une équipe d’ingénierie en intelligence artificielle au sein de la division des Technologies Emergentes et Données. Vous jouerez un rôle stratégique dans la mise en place et l’optimisation des pipelines de machine learning, tout en assurant la scalabilité et la fiabilité des solutions IA déployées au sein du groupe. Responsabilité : Concevoir et améliorer les pipelines ML pour garantir un flux de développement fluide et efficace. Use Case : Automatisation des Pipelines de Développement Création d’un pipeline ML automatisé qui intègre la préparation des données, l’entraînement des modèles et leur déploiement. Réduction des erreurs humaines grâce à l’automatisation et au monitoring intégré. Responsabilité : Mettre en place des outils pour surveiller les performances des modèles et détecter les dérives. Use Case : Détection et Réentraînement Automatisé des Modèles Mise en place d’un système de détection des dérives (concept drift) qui déclenche automatiquement le réentraînement des modèles sur de nouvelles données. Surveillance des performances pour identifier les déclins de précision avant qu’ils n’affectent les cas d’usage. Responsabilité : Développer une infrastructure fiable et évolutive pour la gestion des modèles ML à grande échelle. Use Case : Gestion des Versions et CI/CD pour les Modèles Implémentation d’un système de gestion des versions des modèles pour suivre les itérations et garantir la reproductibilité. Déploiement continu grâce à des pipelines CI/CD dédiés, réduisant le temps de mise en production. Responsabilité : Transformer les notebooks existants en scripts de haute qualité, adaptés aux pipelines ML. Use Case : Refactorisation des Notebooks pour les Pipelines Conversion des notebooks ad hoc en scripts Python robustes intégrés directement dans les pipelines. Documentation des scripts pour assurer leur réutilisabilité et faciliter leur maintenance. Responsabilité : Encadrer les équipes de data science pour les aider à adopter les meilleures pratiques en MLOps. Use Case : Création d’un Cadre Collaboratif Développement d’une bibliothèque interne de bonnes pratiques en MLOps, accessible à toutes les entités du groupe. Animation d’ateliers techniques pour partager des outils et des techniques avancées avec les équipes. Responsabilité : Effectuer des tests rigoureux sur les données, les modèles et les pipelines. Use Case : Assurance Qualité des Pipelines ML Développement de suites de tests automatisés pour vérifier la cohérence des données et des modèles tout au long des pipelines. Détection proactive des anomalies avant leur propagation dans l’environnement de production.
Offre d'emploi
Data Scientist ( Secteur Retail)
Dans le cadre de la Direction des Données et de la Performance, et sous la responsabilité du Directeur Data & Performance, le/la Data Scientist occupera une position clé pour exploiter et maximiser la valeur des données, afin de soutenir et optimiser les opérations en magasin ainsi que de répondre aux exigences des équipes métiers. Ce poste requiert une expertise polyvalente dans l'utilisation des données pour des applications spécifiques au secteur du retail. Vous rejoindrez l'entreprise à un moment stratégique pour jouer un rôle actif dans la démocratisation de l’IA et des données, en contribuant à la mise en œuvre de solutions innovantes qui amélioreront à la fois l'efficacité opérationnelle et l'expérience client. Toutes les directions internes (à tous les niveaux) : Accompagnement et réponse aux besoins métiers. Direction des systèmes d’information (DSI) : Gestion de l’infrastructure des machines virtuelles, déploiement des outils et création des entrepôts/base de données. Fournisseurs et prestataires externes : Gestion de la maintenance des outils et coordination des projets nécessitant des interventions externes. Collecte et organisation des données : Identifier, extraire et structurer les données pertinentes provenant des activités retail, en vue de répondre aux besoins métiers, comme l'optimisation du merchandising ou l’analyse des comportements des clients. Préparation et purification des données : Élaborer des processus de nettoyage et de transformation des données pour garantir leur intégrité et leur qualité. Conception et analyse de modèles : Développer des modèles statistiques avancés et des algorithmes d’apprentissage automatique supervisés et non supervisés adaptés aux problématiques retail, telles que la segmentation des clients ou l’évaluation du potentiel de placement des produits. Industrialisation des solutions : Mettre en production les modèles et analyses afin de garantir leur robustesse et leur impact dans les magasins et au sein des équipes métiers. Introduction et diffusion des LLM et IA générative : Contribuer à l’introduction des LLM et à la vulgarisation de l’IA générative en interne. Vous serez amené(e) à identifier des cas d’application pertinents, développer des prototypes et sensibiliser les équipes métiers à ces nouvelles technologies pour les intégrer dans leurs pratiques quotidiennes. Transmission des savoir-faire : Assurer le transfert des compétences et des connaissances auprès des équipes métiers, en les impliquant activement dans l'utilisation des outils et des modèles développés.
Offre d'emploi
Data Scientist NLP/GenAI (H/F)
NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. LES PLUS DU POSTE Intégré.e dans notre équipe Data Science, votre principale mission sera de prototyper, itérer, et mettre en production des algorithmes en collaboration avec les équipes Produit, les Data Engineers et les équipes de développement. Vos projets seront centrés sur les enjeux du catalogue Marketplace, comprenant le NLP, la Computer Vision et l'utilisation de Generative AI (LLMs customs) à grande échelle. Les sujets que vous traiterez auront un impact significatif sur leurs clients : leur ambition est d'exploiter au mieux leurs données riches et variées pour augmenter leur chiffre d'affaires, optimiser la gestion de leur marketplace et garantir la sécurité des utilisateurs et des transactions. Implémenter des algorithmes qui auront un impact visible sur plus de 500 sites e-commerce/marketplaces dans 40 pays dont certains une volumétrie très importantes (millions de produits, de clients, de commandes par an) Des techniques de pointe variées (modèles multimodaux, fine-tuning de LLM, etc.). Notre client est aujourd'hui l'un des rares acteurs français à avoir des LLM finetunés en production à grande échelle. Une vraie autonomie et responsabilité dans les projets dont vous avez ownership STACK ET OUTILS Python, Tensorflow, Pytorch, Hugging Face, Databricks, Spark, AWS (Amazon Redshift, s3, etc.), SQL, Airflow, Delta Lake. Spécifiques LLM : Autotrain, Unsloth, Galileo, LangChain, Anyscale LES MISSIONS Analyser, préparer les données, prototyper des algorithmes Les mettre en production en collaboration avec les Data Engineers et les équipes de développement Faire des dashboards afin d’illustrer la pertinence des algorithmes et de monitorer la production Présenter les résultats au weekly data science et participer aux sessions de brainstorming de l’équipe Échanger avec les autres équipes pour affiner les cas d’utilisation, l’expérience utilisateur et les modes d’intégration
Mission freelance
Expert IA Générative
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Pour le compte d'un de nos clients dans le domaine des médias, nous recherchons un Expert IA Générative qui interviendra dans Ie cadre d'un POC dans le but d'optimiser les processus de notre client. Les cas d’usage pertinents, tu identifieras Les prototypes fonctionnels, tu réalisera Les itérations sur les prototypes avec les parties prenantes, tu feras Pour chaque prototype, un bilan clair tu fourniras A la fin des expérimentations, un bilan final tu écriras.
Offre d'emploi
MLOps engineer (H/F) Domaine spatial - Toulouse
📑 CDI (45-48K€) / Freelance / Portage Salarial – 🏠 2 jours de télétravail / semaine – 📍 Toulouse– 🛠 Expérience de 5 ans minimum📍 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous recherchons un(e) ingénieur MLOps (H/F) pour intervenir sur un projet innovant chez un de nos clients dans le domaine du spatial à Toulouse. Voici un aperçu de vos missions 🎯 : Au cœur de l’équipe Data (6 data scientists), vous contribuerez à : Mettre en place les outils, processus et bonnes pratiques pour structurer la phase amont du cycle MLOps jusqu’au model registry. Participer aux activités de Data Science en soutien aux data scientists. Comprendre et analyser les besoins spécifiques posés par les équipes data. Définir les fonctionnalités nécessaires, frameworks et outils adaptés. Élaborer une roadmap d’implémentation des solutions. Développer des solutions en collaboration avec les équipes IT (plateforme, réseau, infrastructure). Valider les implémentations avec les data scientists pour garantir leur impact. Compétences nécessaires : MLOps, Git/docker , Python (pandas, scikit learn, numpy, pytorch…, Data analysis, Kubeflow, Sagemaker Machine Learning, Deep Learning, 📍 Situation géographique : Toulouse 💰 Salaire : 44-48 K€ brut + package attractif ➕ Avantages à la clé : - 15 jours de RTT (100% "salarié" & Rachat à 125%) - Participation aux bénéfices - Indemnité de déplacement (6€ net / jour OU 50% du titre de transport) - Plan Epargne Entreprise - Prime de vacances - Avance sur salaire - Comité Social et Economique - Tickets restaurants Si vous êtes prêt(e) à relever ce défi et à contribuer à des projets stimulants, n'hésitez pas à postuler dès maintenant ! 🚀
Offre d'emploi
Ingénieur cyber IA/Blockchain
1. Infrastructure et Sécurité IA Maîtrise des systèmes de détection d’intrusions (IDS/IPS) appliqués à l'IA. Connaissance des attaques spécifiques aux systèmes d’apprentissage automatique (ex. : adversarial attacks , injections de données). Familiarité avec les frameworks IA (TensorFlow, PyTorch) et leur sécurisation. Expertise dans les outils de gestion et de monitoring des modèles IA (par exemple MLflow, Kubeflow). 2. Blockchain et Cryptographie Connaissance approfondie des protocoles blockchain : Consensus (Proof of Work, Proof of Stake, Proof of Authority, etc.). Fonctionnement des nœuds, pools de minage et mécanismes de propagation des blocs. Maîtrise des bases cryptographiques : Algorithmes de hachage (SHA-256, Keccak, etc.). Systèmes de clés publiques et privées (ECDSA). Connaissance des plateformes blockchain (Ethereum, Hyperledger, Solana) et des outils associés. Expérience en conception, audit et déploiement de smart contracts (Solidity, Rust). Expertise en gestion des vulnérabilités (analyse, mitigation, documentation). Maîtrise des standards de sécurité (ISO 27001, NIST Cybersecurity Framework). Connaissance des outils de surveillance réseau (SIEM, log monitoring). Expérience avec des outils de test de pénétration spécifiques (Burp Suite, Metasploit, etc.).
Offre d'emploi
Lead Data Scientist (H/F)
Permanent Contract - French Riviera - Lead Data Scientist spcecialized in Medical (M/F) - 60K The IT/Digital division of our Nice office is looking for a Lead Data Scientist (M/F) for its client, an innovative start-up in the medical field. Your missions: Managing a team of data scientist & machine learning engineer Developing machine learning models Collaborating with interdisciplinary teams Implementing suitable solutions and working on software development projects that support the 3D rendering of medical data Creating procedures/protocols for the implementation and testing of algorithms Regulatory monitoring. Technical environment: TensorFlow, PyTorch, Python, C++, Libraries: itk, vtk, vmtk... Adsearch vous propose des milliers d''opportunités de carrières dans toute la France pour les profils d''experts, cadres et managers. Que ce soit pour un emploi ou pour une mission, Adsearch c''est le cabinet de recrutement qu''il vous faut ! Retrouvez toutes nos offres d'emploi en CDI, CDD, Intérim et Freelance sur notre site internet !
Mission freelance
ML Engineer / ML Ops Senior (8/10 ans d'expé)
Mission longue Démarrage décembre Remote hybride Langue d'usage français et à l'écrit anglais Notre client a des modèles de ML et des pipelines trop lourds et cherche un ML Enginer ou Data Engineer avec background en data science pour les alléger et ajouter de l'automatisation. Equipe composée de 5 data scientists et 1 lead data science / data engineer qui travaille sur des sujets de R&D et de temps réel. Machine Learning Engineer Our R&D team, currently composed of 6 Data Scientists, has demonstrated that this system is capable of detecting objects and intruders This data throughput requires extremely efficient data processing pipelines and machine learning algorithms in on-prem servers. We are therefore looking for a Machine Learning Engineer to join our production team to build efficient, data-driven predictive systems. The candidate should be highly skilled in math/statistics and programming, with the ability to organize and analyze large amounts of data. The candidate should also be able to execute tests and optimize data pipelines and machine learning algorithms. Job responsibilities Transform data science prototypes into production-quality code and solutions Optimize data pipelines and machine learning algorithms across heterogeneous on-prem computing platforms (CPU, GPU) Perform benchmarking for solution selection based on constraints (performance, resources, real-time, latency, …) Develop and maintain CI/CD pipelines to automate testing, integration, and deployment of solutions for different use cases and across different sites Establish monitoring solutions to track the performance of deployed solutions and identify differences in data distribution that could affect performance in real-world situations Tech stack Python, NumPy, SciPy, CuPy, Pandas, scikit-learn, PyTorch MLflow, Docker, GitLab-CI, DevOps, MLOps, Linux
Offre d'emploi
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.