Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Scientist expérimenté
Nous recherchons un(e) Data Scientist expérimenté(e) pour une mission stratégique au sein d’une entité spécialisée dans la mesure et le traitement de données industrielles. 🎯 Vos principales missions : Définition de l’architecture IA adaptée à l’environnement technique Développement et prototypage de modèles auto-apprenants Traitement de signaux techniques pour détection d’anomalies Intégration d’un pipeline de traitement automatisé (edge computing) Déploiement de la solution dans un environnement de production Documentation et suivi rigoureux du projet 🛠 Compétences requises : Excellente maîtrise en Python , C++ Solide expérience dans l’ IA appliquée à l’environnement industriel Connaissance des principes de cybersécurité et de sûreté de fonctionnement Rigueur, autonomie, capacités d’analyse et esprit d’équipe Maîtrise des méthodologies Agile Expérience en traitement de signal, edge computing ou IA embarquée
Data engineering senior

Contexte : Adossée à la plateforme data, la prestation se déroulera au sein de l’équipe Pilotage. L’équipe actuellement constituée d’un Product Owner et d’un Data ingénieur a la charge de la mise à disposition des données utiles à l’ensemble des dashboards via son produit “Data4All”, basé sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituée de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le déploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Ingénieur LM/LLM & Data Science (H/F)

Ingénieur LM/LLM & Data Science Contexte : La mission fera partie du projet d'ingénierie de l'intelligence artificielle, au sein de la division GDAI. Dans le cadre du projet d'ingénierie de l'intelligence artificielle, nous aidons les entités à passer à l'échelle et à définir et appliquer les meilleures pratiques en matière d'ingénierie ML / LLM. Nous proposons un parcours d'apprentissage en ingénierie ML/LLM à travers le groupe au niveau mondial et nous avons besoin d'une personne pour soutenir ce projet. La mission consistera à § Améliorer le référentiel existant de la formation en ingénierie ML/ML utilisé dans l'ensemble du groupe § Évolution vers la piste du pipeline ML sur AWS et Databricks (utilisant actuellement Azure) § Faciliter les ateliers que nous donnons aux entités sur la formation § Apporter une expertise autour des meilleures pratiques de l'ingénierie LLM § Soutenir la création de contenu pour les pratiques de l'ingénierie LLM (qui peuvent être complexes). Il y a un travail autour de la traduction des pratiques complexes en explications simples § Implémenter ces pratiques dans un environnement sandbox et un outil de benchmark § (Optionnel) Soutenir le projet dans l'optimisation du POC/MVP dans les entités autour des pratiques LLMOps
Architecte Fonctionnel Data

Au sein du Programme, vous interviendrez sur des projets stratégiques, de la phase de cadrage jusqu’au déploiement en production. En collaboration étroite avec les urbanistes fonctionnels, les chefs de projet, la MOA et les métiers, vous serez en charge de : Mettre à jour la cartographie applicative du SI Décisionnel. Définir la trajectoire urbanistique du SI à court et moyen terme. Assister la MOA et les métiers dans le cadrage des besoins . Identifier et instruire les demandes d’évolutions et nouveaux projets, en assurant leur faisabilité en coordination avec les chefs de projet, les éditeurs, les ingénieurs Data et les experts solutions. Concevoir et porter les solutions technico-fonctionnelles . Réaliser la modélisation des données et accompagner la stratégie de test. Co-construire les spécifications fonctionnelles avec les ingénieurs Data. Accompagner l’équipe projet sur les aspects fonctionnels et participer aux recettes avec la MOA. Assurer la liaison avec les urbanistes et autres parties prenantes. En complément, vous prendrez en charge un volet PMO transverse (30%) , en support au service.
Data Scientist en pré-embauche (H/F)

Nous recherchons un Data Scientist (H/F). Attention : pré-embauche client . Sous la responsabilité d'un Lead Data Science, vos principales tâches seront les suivantes : Mener des analyses exploratoires Piloter l’implémentation de cas d’usages Machine Learning et IA, depuis la phase d’idéation et de POC jusqu’au déploiement en production Restituer les analyses et modélisations (aux personnes techniques et métier) Collaborer avec les équipes métier pour identifier de nouveaux cas d’usage data-driven et pérenniser la qualité des cas d’usage existants Environnement technique : Python, VSCode, Git, Docker, Snowpark Cloud Azure Snowflake, DBT Microstrategy
Data scientist / Machine learning H/F

Contexte de la mission Dans le cadre d’une montée en puissance stratégique sur les activités Fixed Income (Bonds, UST, Repo), une grande banque d’investissement renforce son dispositif d’ E-Trading algorithmique . La mission s’inscrit au sein d’un environnement Front Office , en proximité directe avec une équipe spécialisée dans la conception d’algorithmes d’exécution pour les marchés obligataires. L’objectif est de participer à la mise en œuvre de solutions innovantes basées sur l’intelligence artificielle et le machine learning , dans un contexte à la fois technique et métier. Responsabilités clés Collecte, nettoyage et préparation de larges volumes de données issues des marchés. Développement de modèles de machine learning appliqués à des problématiques business concrètes (optimisation de pricing, exécution, prédiction de comportements…). Analyse statistique et exploratoire sur les datasets disponibles. Implémentation et mise en production d’ algorithmes prédictifs en lien avec les équipes IT et les traders.
DATA SCIENTIST SYSTEME DE SURVEILLANCE

CONTEXTE Missions de surveillance nécessitent un rapatriement et un traitement des mesures régulier pour traiter l’information au plus vite et pouvoir la mettre au service de la maintenance. MISSIONS Assister la section SYS dans l’architecture, le développement et le déploiement de l’Intelligence Artificielle pour automatiser les tâches de traitement à faible valeur ajoutée des mesures de surveillance. Les missions sont : 1. Apprendre automatiquement le début et la fin de shunt sur les différents signaux transmis en tenant compte des seuils de tension normativement définis (0,06V pour circuit UM71 et 5V pour circuit ITE) ou modéliser, le cas échéant, le principe de positionnement des marqueurs de début et de fin de shunt et les insérer automatiquement sur des courbes de tension 2. Caractériser, sur ces courbes, toute anomalie représentant une tension résiduelle (TR) et procéder au traitement adéquat en cas de détection automatique (invalidation, historisation, alerte…) 3. Analyser les occurrences des TR et les corréler avec des données internes et externes pour capter les signaux faibles liés à l’état des voies en prévision d’actions de maintenance. 4. Mettre en place un pipe de traitement automatique des données relatives aux TR intégrant les IA tout en veillant au respect des règles de cybersécurité et de sûreté de fonctionnement (protocoles de communication robustes, redondance des capteurs et des canaux de transmission, backup…) ainsi qu’à l’optimisation des ressources matérielles (edge computing / agentic AI) 5. Industrialiser la solution en définissant les règles de maintenance et en assurant une réduction des coûts de déploiement et d’exploitation (refonte technologique HW / SW). 6. S’insérer dans les dispositifs Big Data du groupe afin de croiser les informations fiables relatives aux TR avec des données hétérogènes pour enrichir les insights d’une maintenance prédictive. 7. Généraliser l’utilisation du dispositif et assurer son évolutivité avec un passage à l’échelle. LIVRABLES Définition des règles de positionnement de marqueurs Analyse des données et constitution des data-sets Développement dans un langage compatible SI Identification des KPI pertinents et évaluation des approches Prototypage rapide, Rendre cette architecture auto-apprenante pour traiter les cas futurs, Solution technique déployée et en production sur l’IHM actuelle, Documentation technique et détaillée de la solution, Suivi de projet avec les éléments clés : planning, comptes-rendus, sources, etc…
Techlead / Architecte Data

Type de prestation : Tech Lead DATA Lieu de la mission : Paris Gare de Lyon Durée de la prestation : 1 an renouvelable Séniorité : Au moins 10 ans TJM : En fonction du profil Date de démarrage : ASAP Télétravail : 2 jours par semaine Contexte : Notre client a lancé le projet Entrepôt de données Finance et risque. Ce projet couvre la chaîne complète de la donnée analytique dans le cadre du reporting et du pilotage des activités des départements Finance et Risques. Il s’étend de l’extraction des données jusqu’à la mise en place de Tableaux de bords (Informatica). Vous intégrerez une équipe de 20 personnes composée de MOA et MOE. Mission : Analyse des besoins et rédaction des spécifications Proposition des architectures Big Data Garant technique des développements Encadrement des développeurs Développement en Python / R Maîtrise d'Informatica Extraction et modélisation des données : PostgreSQL Revue de code Validation du code et recette Mise en place des chaînes CI/CD Bonnes pratiques de développement
SAP - Data Stream Leader (H/F) - 95

Je recherche un Data Stream Leader dans le cadre de la mise en place du nouvel ERP SAP S/4HANA. Le projet repose sur un Core Model basé sur les Best Practices SAP pour l’ensemble des entités du groupe. Vos principales missions • Construire, mettre à jour et documenter le Modèle Conceptuel de Données (MCD) • Définir les structures de données cibles pour l’ensemble des processus ERP • Suivre la cohérence, la complétude et le nettoyage des données avec la DSI, les BPOs et les Key Users • Coordonner avec l’intégrateur les actions de reprise et validation des données • Définir les processus de mise à jour des données post go-live • Mettre en place et suivre les KPI de qualité des données
chef de projet data - 600€ max

En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Mission : - Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes - Travailler sur les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services - Mettre en place un plan de communication autour des différents projets et instances - Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions - Coordonner les différents prestataires - Effectuer un reporting régulier et rigoureux vers son responsable
Expert Devops Data/Infra GCP

Insyco recherche actuellement pour l'un de ses clients basés à Paris : Expert Devops Data/Infra GCP Bonjour, Nous recherchons pour notre client grand compte un Expert Devops Data/Infra GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4757 en objet du messag
Expert Cloud GCP et Big Data
Genious Systèmes recherche pour son client un(e) Expert Cloud GCP et Big Data F/H Contexte de la prestation La prestation se déroulera au sein de de la Direction Technique du Numérique du client. Elle concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data du Numérique du client, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : BUILD des services l’analyse des besoins liés à l’hébergement des développements l’adaptation de l’industrialisation des infrastructures pour les changements la planification et exécution des changements, RUN des services et l’exploitation quotidienne la remontée d’alarmes diagnostic l’analyse des incidents interventionx sur incidents la documentation Le prestataire sera la référence technique auprès des acteurs projets : Ingénieurs d’exploitation Développeurs PO/PM Prestataires externes Maitrise de l’anglais technique (lu/écrit) Veille technologique
Chef(fe) de Projet Data

Au sein d’une entreprise leader dans son domaine, vous jouerez un rôle clé dans la gestion et la réussite de projets transverses. En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, vous serez responsable de : Piloter et assurer la mise en œuvre des évolutions/projets en garantissant qualité, coûts et délais. Optimiser les interactions entre services et travailler sur les templates projets et la roadmap fonctionnelle. Mettre en place une stratégie de communication autour des projets et instances. Organiser et piloter le planning des travaux de l’équipe et des contributions externes. Coordonner les différents prestataires impliqués dans les projets. Assurer un reporting rigoureux et régulier auprès de la direction.
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Architecte Solutions SI

En tant qu'Architecte Solutions SI, les prestations attendues seront : Construction et maintien des normes et principes d'architecture SI Anayse d'impacts des nouvelles solutions sur le SI Proposition d'évolutions pour différentes applications Métier Réalisation des documentations requises et mise à jour des référentiels de l'entreprise Anticipation des besoins d'évolutions du SI, force de proposition quant aux solutions requises Animation des présentations sur les choix d'architecture Instruire les évolutions du SI pour lever les obsolescences et garantir le MCO Outils : Office 365, Enterprise Architect, Redmine, GLPI, JIRA Une présence sur site de minimum 3 jours par semaine est attendue.
Data SysOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quel statue pour mes futures activités freelanceil y a 3 heures
- État du marché IT : quelles perspectives pour 2025 ?Quelle stratégie adopter en 2025 ? CDI, international ou IA ?il y a 4 heures
- Formation PMil y a 10 heures
- Avis compte professionnel "PROPULSE"il y a 14 heures
- 1 an sans mission, pluseurs dizaine d'entretiens client, le marché va si mal que ca ?il y a 14 heures
- Portage Commercialil y a 17 heures