Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
DevOps - ML OPS //
Objectifs Le bénéficiaire souhaite une prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans l´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits Prestations demandées Les missions sont: - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc). Connaissances techniques essentielles: - Bon background dans les infrastructures legacy serveurs/storage; - Haut niveau d'expertise en DEVOPS (Gitlab /ArgoCD/ Terraform / Ansible /Vault); - Expertise en cloud native infrastructures: Kubernetes/ Openshift dans des environnements "statefull"; - Experience significative dans un cloud provider publique - Construction des SAAS data clé en main vu des utilisateurs BNP à partir de comptes cloud "natif"
Offre d'emploi
data engineer Forecasting Databricks / Mlops / Machine learning
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Engie est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Mission freelance
Machine Learning engineer
Vous intégrerez une équipe aux profils variés constitués de data scientists et d'ingénieurs en optimisation, aux parcours académiques et aux compétences complémentaires. Ils travaillent main dans la main à l'élaboration d'outils à la pointe de l'innovation. Vous évoluerez dans un environnement technique performant, et une équipe d'experts techniques sera là pour vous former et vous accompagner sur l'ensemble de vos projets. Télétravail possible (2 à 3 jours par semaine) Vous intégrerez le cursus NextGen, qui permet la découverte des différents services et métiers, des visites de sites, des échanges avec le personnel, et le networking avec d'autres jeunes salariés
Mission freelance
Développeur / Ingénieur IA ML NLP/fa
Développeur / Ingénieur IA ML NLP client Banque basé à Paris Gare de Lyon, un Développeur / Ingénieur IA - Expérimenté avec un minimum de 6 ans d’expériences. Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Améliorer les solutions existantes R&D sur les technologies actuelles Participer à l'animation des équipes Principaux livrables : Analyse Conception développement des sujets autour de l'IA (NLP/Data Science, LLM, etc.) Compétences requises : Intelligence artificielle, etre en veille sur les technologies ML : NLP/CV/NER NLP (transformers, libraries spacy, standford core, scikit-learn, nltk, fasttext, gensim, …) Développement Python (regex, programmation orienté objet, …) Base de données (mongoDB), Elasticsearch, GIT, Jenkins … Analyse des données (jupyter, excel, …) Force de proposition Travail en groupe Ouvert d'esprit Bonne communication
Mission freelance
ML Engineer / ML Ops Senior (8/10 ans d'expé)
Mission longue Démarrage décembre Remote hybride Langue d'usage français et à l'écrit anglais Notre client a des modèles de ML et des pipelines trop lourds et cherche un ML Enginer ou Data Engineer avec background en data science pour les alléger et ajouter de l'automatisation. Equipe composée de 5 data scientists et 1 lead data science / data engineer qui travaille sur des sujets de R&D et de temps réel. Machine Learning Engineer Our R&D team, currently composed of 6 Data Scientists, has demonstrated that this system is capable of detecting objects and intruders This data throughput requires extremely efficient data processing pipelines and machine learning algorithms in on-prem servers. We are therefore looking for a Machine Learning Engineer to join our production team to build efficient, data-driven predictive systems. The candidate should be highly skilled in math/statistics and programming, with the ability to organize and analyze large amounts of data. The candidate should also be able to execute tests and optimize data pipelines and machine learning algorithms. Job responsibilities Transform data science prototypes into production-quality code and solutions Optimize data pipelines and machine learning algorithms across heterogeneous on-prem computing platforms (CPU, GPU) Perform benchmarking for solution selection based on constraints (performance, resources, real-time, latency, …) Develop and maintain CI/CD pipelines to automate testing, integration, and deployment of solutions for different use cases and across different sites Establish monitoring solutions to track the performance of deployed solutions and identify differences in data distribution that could affect performance in real-world situations Tech stack Python, NumPy, SciPy, CuPy, Pandas, scikit-learn, PyTorch MLflow, Docker, GitLab-CI, DevOps, MLOps, Linux
Mission freelance
Lead Tech IA OU Machine Learning Engineer
Contexte : Mission pour l'accompagnement des équipes IT dans la validation et implémentation des uses cases IA. Être référent technique pour l'évaluation et la mise en œuvre des cas d'usage métier en IA, en lien avec les pratiques de notre client final. Pilotage du développement et l'intégration des solutions d'IA en garantissant leur alignement avec les objectifs stratégiques de l'entreprise et un retour sur investissement optimal MISSIONS : Être référent / expert en IA et exploitation Avoir des compétences sur le versionning et la dockerisation Guider les équipes sur la partie IA, orienter les choix de formation des développeurs Définir qui peut utiliser Mistral Expliquer comment l’équipe va pouvoir travailler et monter en compétence sur les plateformes choisies Mettre en place la stratégie IA en tenant compte de la gouvernance du groupe Avoir travaillé dans de grosses structures et/ou bonne compréhension de ce type d’organisation Être en capacité d’accompagner les développeurs techniquement
Mission freelance
data scientist IA LLM - 600€ max
Nous avons, au sein de la direction Financière, lancer une première étape nous ayant permis d’identifier une première liste de cas d’usage. Nous souhaitons à présent, pour engager la Finance dans ce projet de transformation, être accompagné pour : - Elaborer une stratégie d’implémentation (scoping, méthodologie de sélection, roadmap) et un set up de gouvernance (rôle et responsabilité, organisation, comitologie, processus et imbrications avec les différentes directions) - Identifier le plan d'actions nécessaire à l’implémentation des cas d’usage - Analyser les implications technologiques et opérationnelles de l’intégration de l’IA générative, notamment en termes d’évolutions fonctionnelles induites et d’infrastructure IT, - Proposer une méthodologie réaliste de déploiement, - Identifier les conséquences en termes de compétences requises et de soutien aux équipes (formation et accompagnement) - Proposer des actions de change management pour faciliter l’adoption de l’IA générative dans métiers Vous pourriez capitaliser sur les premiers travaux internes de recensement de cas d’usage Finance menées par les équipes Architecture et Reporting - Data SI Finances et Risques notamment pour : - Nous aider à sélectionner les cas d’usages les plus pertinents - Nous proposer un benchmark des initiatives envisagées eu égard aux pratiques existant actuellement
Offre d'emploi
PRODUCT OWNER GenAI (GPT)
Le Security Data Hub de l'entreprise vise à promouvoir l'innovation grâce aux données et à l'IA, tout en renforçant la sécurité du groupe. L’équipe Governance and Security Data Hub recherche un consultant externe expert en GenAI pour améliorer les opérations de sécurité et soutenir des initiatives stratégiques. En pratique, le consultant devra exploiter des solutions GenAI , notamment via GPT et des technologies API similaires, pour relever des défis de sécurité, améliorer l'efficacité et valoriser les données. Exemple : utiliser le GenAI pour vérifier les preuves de conformité des entités de l'entreprise à leurs contrôles de sécurité, renforçant ainsi les activités critiques du Group Security, telles que l'assurance de sécurité. 2/Missions : Identifier les besoins métiers et les opportunités pour améliorer l'efficacité opérationnelle et la sécurité. Concevoir des solutions à haut niveau et définir des feuilles de route stratégiques. Piloter l’équipe de data scientists pour livrer les cas d’usage liés aux données et à l’IA. 3/Expertises requises : Expertise en GenAI , en particulier sur GPT et des solutions API similaires (incluant l’ingénierie des prompts). Expérience en tant que Product Owner ou rôle équivalent, avec la capacité de définir une vision stratégique et de la mettre en œuvre. Capacité à collecter et traduire les besoins métier en solutions techniques. Connaissances approfondies des concepts de sécurité et des enjeux spécifiques à ce domaine. Maîtrise des outils et plateformes cloud, notamment Azure , pour intégrer des solutions GenAI. Expertise technique en Machine Learning , avec expérience en développement et déploiement de modèles ML. Anglais courant. Profil recherché : Product Owner avec une expertise sur le GenAI (GPT) . Maîtrise de Azure et des concepts de Machine Learning . Anglais courant obligatoire.
Mission freelance
data engineer python / spark MLOPS senior / databricks (forcasting)
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus.
Mission freelance
Data Scientist/ Scientifique des données
Développer et optimiser des modèles : créez des modèles d'apprentissage automatique en exploitant de solides connaissances théoriques pour sélectionner les algorithmes appropriés et optimiser les performances. Codage et évaluation de modèles : implémentez des modèles à l'aide de Python sur Databricks. Évaluez les algorithmes et les cadres pour des résultats commerciaux optimaux. Analyse et informations sur les données : utilisez Power BI pour visualiser les données et communiquer des informations exploitables aux parties prenantes. Cycle de vie ML de bout en bout : gérez le cycle de vie complet des projets d'apprentissage automatique, de la préparation des données au déploiement dans Azure Data Factory. Restez à jour : restez au courant des dernières tendances et innovations en matière de science des données et d'apprentissage automatique.
Offre d'emploi
DevOps Azure
Au sein d'une équipe de 10 développeurs qui sont répartis sur 6 projets indépendants, tous dans le périmètre d'activité de High Performance Solutions. En fonction de la phase du projet, chaque développeur travaille sur les éléments suivants : - Ingestion de données - construction de pipelines dans l'environnement Synapse pour se connecter à une source et obtenir des données dans leur datalake, SQL ou python dans le pool Apache Spark - Transformation des données - utilisation de no-code ou de SQL Azure Synapse pour transformer et nettoyer les données - Modélisation des données - développement de datamarts et d'entrepôts de données dans Synapse pour une utilisation future par les équipes de reporting DataViz ou de ML/AI. Une migration de Github est en cours. Certains projets seront centrés sur cette migration. Vous serez amené à utiliser des pipelines Azure en allant vers Microsoft azure fabrics synapse. La mission sera de longue durée (contrat de 1 an reconductible). La mission se déroulera dans les locaux du client à la défense et 2 à 3 jours de télétravail sont prévus. La mission débutera début février.
Offre d'emploi
Data Scientist AML
Nous cherchons pour une mission au sein d'un client bancaire afin d'intervenir sur un programme AML (Anti-Money Laundering) L'objectif de la mission est d’harmoniser les outils existants de lutte contre le blanchiment d’argent en déployant une solution uniforme à l’échelle internationale. Ce programme stratégique couvre plusieurs années et s'étend sur des zones géographiques variées (Europe, Asie, Amérique Latine), en intégrant des business lines comme Cash Management, Correspondent Banking, Global Market et Securities Services. Dans un contexte de renforcement des exigences réglementaires, l’évolution des modèles de détection AML, l’optimisation des investigations et l’industrialisation du fine-tuning sont essentielles pour garantir l’efficacité et la conformité des processus. Missions principales : Organisation et animation de workshops pour définir, valider et aligner les solutions avec les parties prenantes. Optimisation des processus AML : Soutenir les projets d’amélioration des investigations, notamment via des outils innovants (ex. : scoring prédictif, GenAI, machine learning, analytics). Contribuer à l’industrialisation et à l’efficacité du fine-tuning des modèles AML. Gouvernance et conformité : Développer et mettre en place une gouvernance robuste pour les modèles d’intelligence artificielle (IA). Assurer la conformité aux réglementations en vigueur et anticiper les évolutions légales. Analyses et reporting : Réaliser des analyses approfondies sur les processus de détection AML pour les périmètres Cash Management, Correspondent Banking, Global Market et Securities Services. Maintien et mise à jour de la documentation relative aux initiatives Anticipation des risques et préparation des plans de réduction de risques
Mission freelance
Consultant ELK
Consultant ELK Poste de responsable de la mise en place, de la configuration et de l'optimisation de la stack ELK pour monitorer les serveurs, applications et bases de données du client, avec une intégration fluide avec ServiceNow. Les tâches demandées sont : Déploiement de la Stack ELK** : Installer, configurer et maintenir Elasticsearch, Logstash et Kibana. - Architecture: Concevoir et mettre en place l’architecture de la stack ELK adaptée à nos besoins spécifiques en matière de gestion de systèmes. - Configuration et Optimisation : Configurer les pipelines de données, optimiser les performances et assurer la scalabilité de la solution. - Observabilité : Mettre en place des solutions d'observabilité pour surveiller les performances et la santé des systèmes. - Interopérabilité avec ServiceNow : Intégrer ELK avec ServiceNow pour améliorer le suivi des incidents et la gestion des tâches. - Automatisation : Développer et mettre en œuvre des scripts et des outils pour automatiser les tâches répétitives et les processus de surveillance. - Machine Learning : Utiliser les fonctionnalités de Machine Learning disponibles dans ELK pour détecter des anomalies et générer des alertes pertinentes. - Documentation : Rédiger et maintenir la documentation des configurations et des processus. - Support : Assurer le support technique et la résolution des problèmes liés à la stack ELK. Compétences Requises - Expérience : Minimum 3 ans d'expérience avec Elasticsearch, Logstash et Kibana. - Connaissances Techniques : Maîtrise des concepts d’ingestion, de transformation et de visualisation des données. Solides compétences en administration de systèmes Linux. - Machine Learning : Expérience dans l'utilisation des fonctionnalités de Machine Learning d'Elasticsearch. - Scripting: Compétence en scripting (Python, Bash, etc.) pour automatiser les tâches. - Automation : Expérience avec des outils d'automatisation (Ansible, Puppet, Chef, etc.) pour automatiser la gestion et la surveillance de l'infrastructure. - Monitoring et Observabilité : Expérience dans la surveillance et la gestion de l'infrastructure IT avec un accent sur l'observabilité. - Interopérabilité : Expérience dans l'intégration d'ELK avec ServiceNow ou des systèmes similaires. - Communication : Excellentes compétences en communication écrite et orale. Capacité à travailler en équipe et à partager ses connaissances. - Résolution de Problèmes : Capacité à diagnostiquer et résoudre des problèmes complexes de manière efficace et autonome. Qualification et expériences : - Connaissance d'autres outils de monitoring et de gestion des logs (Prometheus, Grafana, etc.) - Certification Elastic - Expérience avec des bases de données NoSQL et SQL - Connaissance des pratiques DevOps et des outils CI/CD - Expérience avec ServiceNow et son écosystème
Mission freelance
DevOps Azure
Au sein d'une entreprise dynamique et en constante évolution, votre rôle de DevOps sera central. Vous intégrerez une équipe de 3 personnes dans laquelle l'autonomie est un facteur clé. Environnement technique : Environnement 100% Azure PaaS : Container App Docker DAPR Redis Service Bus SQL Database App Config App Insights Log Analytics Outils : Terraform Powershell Azure DevOps (Yaml pipelines) Expérience sur cloud Cloud Azure et dans un environnement micro service nécessaire. Vos tâches seront : Aligner les pipelines de l'équipe QA avec l'équipe DevOps (YAML Azure DevOps) Implémentation d'un DAST Mise en place d'environnements de développement à la demande Assurer la supervision de la plateforme Garantir l'automatisation via le développement d'outils et le scripting Participer à l'évangélisation des bonnes pratiques DevSecOps
Offre d'emploi
Expert analyste fraude
I. Contexte : Nous sommes un réseau de paiements domestiques, qui reçoit 14 milliards de transactions. Equipe : 2 analystes fraude, 2 data scientists, 5 data scientists consultants (projet ML LCLF temps réel), 2 thésards (algorithme de ML temps réel pour bloquer la fraude en temps réel) Activités de l’équipe : data science et scoring, LCLF fraude. II. Missions : - Analyste de fraude aux cartes bancaires - Investigation des données - Projet 1 à 50% : Avec un data scientist o Wero / EPI (projet européen souverain : passer par un système européen pour les paiements) virement mais pas paiement carte o P to P (particulier) : envoyer l'argent à une autre personne (Mix de Paypal et Lydia) § Scoring - ne part pas de zéro, en phase qualité de données, phase préparatoire § Scoring à la carte pour évaluer le risque des transactions - Projet 2 à 50% : Avec un data scientist qui développe des algorithmes de Machine Learning o Payer chez commerçant avec le téléphone, un QR code o Instant payment : paiement instantané. § Analyse de fraude : trouver des scenarios de fraude § Créer des règles de fraude § Réunions et mail en anglais (France, Allemagne, Belgique, Pays-Bas, Danemark)
Mission freelance
DBA SYBASE SQL SERVER F/H
Pour l'un de nos clients grands comptes, nous recherchons un DBA Sybase/SQL Server afin d'assurer l'administration et le support d'un important parc de bases de données au sein d'une équipe de DBA. Dans ce contexte, le DBA assurera les missions suivantes : Prise en charge des sujets de refresh de plateforme OS Sybase ASE ; Prise en charge des sujets de migration de Sybase vers SQL Server ; Développement et maintenance de scripts powershell et ksh pour automatiser les tâches ; Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) ; Maintien en conditions opérationnelles des SGBD ; Supervision des SGBDs de Production ( SQL Server 2014 à SQL Server 2022, Sybase ASE 16 ) ; Prise en compte et traitement des incidents et des appels des utilisateurs ; Participation aux cellules de crise ; Contrôle et livraison des modifications de structure de base ; Prise en charge des demandes de Mise en Production ; Prise en compte des demandes d'interventions sur les différentes technologies SGBDs ; Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs ; Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées ; Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées ; Réalisation et maintenance de la documentation d’exploitation des bases de données ; Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL 2022, Interfaçage Polybase - Hadoop) ; Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP ; Application de la politique générale de sécurité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Machine Learning
Data scientist
Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offresDéveloppeur·euse IA/Machine Learning
Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse IA/Machine Learning .
Découvrir les offresIngénieur·e R&D
L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e R&D .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offres