Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data SysOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
SCRUM MASTER / BUSINESS ANALYST - Banque

Dans ce cadre la prestation consiste à contribuer à/au(x) : L'analyse Métier : - L'assistance à la gouvernance du Projet - Assistance à la définition de la roadmap et des chiffrages associes - Gestion du backlog, suivi et reporting régulier sur les jalons et livrables attendu - Documentation des spécifications fonctionnelles sur la base d'une expression de besoins validée et priorisée par le PO - L'évaluation des impacts et définition des moyens les plus pertinents, leurs coûts et les risques/contraintes associées - Spécifications en user stories détaillées intégrant des critères d'acceptance et des cas de tests - La qualification des données clé dans les systèmes sources, des règles métier et des contraintes techniques qui leurs sont propres - La documentation du dictionnaire des données. - La stratégie et la mise en place des fonctionnels - La consolidation et la centralisation des documentations techniques et fonctionnelles - La définition des scenarios BDD en assistance avec les développements et les différents Uitlisateurs et/ou Bénéficiaires - La conduite du changement (analyse d'impact, remontées et support conduite de changement des utilisations, démarrage, déploiement) - La remontée des alertes - L'analyse de l'impact des changements sur les niveaux de services (SLA/OLA) - L'intégration du produit dans l'architecture globale telle que définie par les architectes techniques et fonctionnelles
Architecte SI H/F

Nous recherchons pour l'un de nos client sur la région des Deux-Sèvres un/e architecte SI. Dans ce sens, vos tâches seront les suivantes : Construire et maintenir les normes et les principes d'architecture du SI ; Analyser les impacts des nouvelles solutions sur le SI ; Proposer des évolutions pour les différentes applications Métier ; Proposer des évolutions pour les composants technologiques de l'architecture du SI en tenant compte des différents modèles de services ; Fournir la documentation requise et mettre à jour les référentiels de l'entreprise ; Élaborer des recommandations pour pouvoir intégrer en toute sécurité de nouvelles solutions SI au sein de l'entreprise eten assurer la garantie de service (disponibilité, intégrité, continuité et preuve) ; Anticiper les besoins d'évolutions du SI et proposer/présenter les solutions ; Animer des présentations sur les choix d'architecture.
Process Manager Data - Banque

Contexte et Objectifs de la Prestation Dans un cadre Agile à l'échelle (SAFe) et dans un environnement anglophone, la prestation vise à apporter une contribution active à plusieurs volets stratégiques liés à la mise en place et à la gestion des offres internes Lakehouse. Missions et Responsabilités 1. Mise en place des offres internes Lakehouse L'accompagnement portera sur la structuration et l'optimisation des offres internes Lakehouse, avec un accent particulier sur les aspects suivants : Définition et formalisation des procédures de production : élaboration de recommandations visant à standardiser et améliorer les processus opérationnels. Élaboration d’une grille de mise en œuvre de la solution : définition d’un cadre méthodologique permettant un déploiement efficace et harmonisé des solutions Lakehouse. 2. Suivi et gestion des partenaires Un suivi rigoureux des partenaires impliqués sera assuré à travers plusieurs actions clés : Préparation et animation des comités de suivi mensuels : coordination des échanges avec les partenaires pour assurer une gouvernance efficace. Production des reportings : mise en place de tableaux de bord et d’indicateurs de suivi pour piloter l’activité et mesurer la performance des partenaires. 3. Assistance au Project Management Dans le cadre de la gestion de projets, la prestation inclut un accompagnement sur les phases suivantes : Études et cadrage : analyse des besoins, définition des objectifs et alignement des parties prenantes sur les périmètres des projets. Suivi de l’exécution : mise en place d’un pilotage opérationnel et suivi des livrables pour garantir le respect des délais et des engagements pris. Environnement de Travail Méthodologie : SAFe (Scaled Agile Framework) Langue de travail : anglais Collaboration : équipes internationales.
Admin Production (HDP CDP KUBERNETES)

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters
Développeur Big Data Senior

Le contexte : Au cœur de la transformation digitale de notre client qui révolutionne son approche en plaçant la data et le digital au centre de sa stratégie. Dans le cadre d'un projet majeur de transformation, nous recherchons un(e) Data Engineer Senior pour renforcer nos équipes pendant 12 mois minimum. Votre mission : Intégré(e) à nos équipes data, vous contribuerez à : Concevoir et développer des pipelines de données robustes pour nos projets de machine learning Optimiser nos architectures de traitement de données existantes Participer aux revues de code et au développement des bonnes pratiques Collaborer avec notre communauté d'experts (data scientists, engineers, devops) Assurer l'intégration de nouvelles sources de données Garantir la qualité technique des solutions déployées Les plus de cette mission : Projet stratégique à fort impact Environnement technique de pointe équipe data & tech expérimentée Exposition à des problématiques data complexes Opportunité de contribuer à la transformation digitale d'un leader de son marché
Architecte DATA

Missions : Evaluer les besoins et les usages des données au sein des différent projet. Décrire la manière dont les données sont gérées, de la collecte à la transformation à la distribution et à la consommation (High Level Design) Assurer que les solutions mises en place respectent la réglementation relative à la collecte et à l’exploitation des données RGPD et au exigence du Data Office du groupe. Mettre en place des outils pour faciliter l’usage des données Surveiller la structure des bases de données et proposer des solutions correctives ou évolutives adaptées. Collaborer avec les équipes IT de développement et les responsables métiers pour assurer une intégration harmonieuse des données. Concevoir l'architecture des données et structurer les modèles en fonction exigences métier. Vérifier les modèles logiques et physiques afin d'assurer l'efficacité des flux de données.
Product Owner – IA Générative (La Défense, 3j/semaine)

Nous recherchons un Product Owner IA Générative pour piloter la migration et le déploiement à grande échelle d’une solution d’IA générative. Ce rôle stratégique implique une forte collaboration avec les équipes Data Science, DevOps, infrastructure et métier pour assurer une transition fluide et efficace. Missions Définir la vision produit et construire la roadmap de migration et de déploiement. Gérer le backlog en priorisant les user stories selon les besoins business et techniques. Superviser la migration des systèmes existants vers des solutions d’IA générative modernes. Coordonner les parties prenantes (techniques et métiers) pour une adoption optimale. Mettre en place des KPIs pour suivre les performances (latence, coût, qualité des réponses, satisfaction utilisateur). Accompagner le changement et favoriser l’adoption de l’IA générative au sein des équipes.
Data engineer
📢 Offre d’Emploi – Data Engineer (Freelance) 🔎 Nous recherchons un Data Engineer expérimenté pour une mission passionnante au sein d’une équipe technique innovante dans un environnement Google Cloud Platform (GCP) . 🎯 Missions principales : ✔️ Développement et optimisation de pipelines de données (ETL/ELT) ✔️ Modélisation et industrialisation des données ✔️ Mise en place et évolution des indicateurs de performance ✔️ Optimisation des coûts et des performances sur BigQuery ✔️ Collaboration avec les équipes Data et Ops pour améliorer la plateforme 🛠 Stack technique : 🔹 Cloud : Google Cloud Platform (GCP) 🔹 Orchestration : Airflow 🔹 Modélisation : DBT (gestion de tables incrémentales) 🔹 CI/CD & Infra : GitLab CI/CD, Terraform, Terragrunt, Docker 🔹 Langages : SQL, Python 💡 Profil recherché : ✅ +5 ans d’expérience en Data Engineering ✅ Maîtrise des environnements GCP, BigQuery, Airflow et DBT ✅ Solides compétences en SQL et Python ✅ Expérience avec l’ industrialisation de pipelines et l’optimisation des performances ✅ Bonne connaissance des méthodes Agile (Scrum, Kanban) ✅ Esprit d’analyse, capacité à vulgariser et à collaborer avec les équipes métier 📍 Localisation : Paris (Présence sur site 50%) 📅 Démarrage : mi-avril
Architecte Data (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data (H/F) à Lille, France. Les missions attendues par le Architecte Data (H/F) : Le Data Architecte aura pour missions principales : 1. Travailler en collaboration transverse avec l’architecture d’entreprise, l’architecture technique et les experts métiers et les parties prenantes selon sujet. 2. Évaluer les besoins et usages en matière de données au sein des différents métiers de l’entreprise, afin d’identifier les opportunités d’amélioration et les lacunes existantes pour projeter sur une nouvelle architecture de données. 3. Recueillir les attentes utilisateurs et définir les briques techniques nécessaires pour répondre à ces besoins, en collaboration avec les équipes Data, IT et métiers. 4. Cartographier les données de l’entreprise et mettre en œuvre la construction d’une plateforme de données centralisée et performante. 5. Contribuer à la mise en place du dictionnaire des données d’entreprise. 6. Définir le cycle de vie des données et la nomenclature de donnée pour garantir une gestion cohérente et homogène. 7. Préconiser des solutions techniques adaptées pour la collecte, le stockage et la gestion des données, en tenant compte des contraintes de sécurité, performance et conformité (RGPD). 8. Analyser l’impact des solutions retenues selon les besoins métier et proposer des mesures correctives ou évolutives pour maximiser leur efficacité. 9. Faciliter l’usage des données dans l’entreprise via des outils génériques et homogènes pour tous les projets, tout en veillant à leur adoption par les utilisateurs finaux. 10. Industrialiser l’ensemble des activités pour optimiser les cycles de vie des données et en particulier le time to market. 11. Documenter les architectures de manière fonctionnelle et assurer la diffusion de la culture « data » dans l’entreprise, notamment via des formations et des sensibilisations aux bonnes pratiques.
DATA SCIENTIST langraph / Langchain

Bonjour Je recherche pour mon client basé à Lille un data scientist qui maîtrise Langraph et Langchain pour développer une IA conversationnelle en remplacement du chatbot du site internet de notre client. Catamania est une société de conseil et de services numériques. Depuis sa création en 1999, nous œuvrons pour réaliser la transformation digitale de nos clients, en mettant à leur disposition nos expertises techniques, métier et méthodologiques. Nous nous engageons à leurs côtés pour définir et participer à l’évolution de leur système d’information, de la banque à l’assurance, en passant par la grande distribution et l’industrie. Forts de plus de 25 ans d’expérience, nous offrons des solutions sur-mesure en Architecture, Conseil, Étude, Développement, Test, Paramétrage, Pilotage et Cybersécurité, toujours en phase avec les enjeux d’aujourd’hui et de demain.
Data Scientist expérimenté
Nous recherchons un(e) Data Scientist expérimenté(e) pour une mission stratégique au sein d’une entité spécialisée dans la mesure et le traitement de données industrielles. 🎯 Vos principales missions : Définition de l’architecture IA adaptée à l’environnement technique Développement et prototypage de modèles auto-apprenants Traitement de signaux techniques pour détection d’anomalies Intégration d’un pipeline de traitement automatisé (edge computing) Déploiement de la solution dans un environnement de production Documentation et suivi rigoureux du projet 🛠 Compétences requises : Excellente maîtrise en Python , C++ Solide expérience dans l’ IA appliquée à l’environnement industriel Connaissance des principes de cybersécurité et de sûreté de fonctionnement Rigueur, autonomie, capacités d’analyse et esprit d’équipe Maîtrise des méthodologies Agile Expérience en traitement de signal, edge computing ou IA embarquée
Consultant Data Scientist - Dataiku
Une entreprise du secteur bancaire recherche un Consultant Data Scientist expérimenté pour rejoindre son équipe dynamique à Paris. Avec 3 à 4 ans d'expérience, vous aurez l'opportunité de travailler sur des projets concrets et opérationnels en utilisant la plateforme Dataiku. Responsabilités : Développer et déployer des modèles de machine learning et d'intelligence artificielle pour répondre aux besoins métiers. Collaborer avec les équipes techniques et fonctionnelles pour comprendre les exigences et proposer des solutions innovantes. Assurer la maintenance et l'optimisation des modèles en production. Participer à la veille technologique et proposer des améliorations continues des processus et outils utilisés.
Data engineering senior

Contexte : Adossée à la plateforme data, la prestation se déroulera au sein de l’équipe Pilotage. L’équipe actuellement constituée d’un Product Owner et d’un Data ingénieur a la charge de la mise à disposition des données utiles à l’ensemble des dashboards via son produit “Data4All”, basé sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituée de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le déploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Data scientist / Machine learning H/F

Contexte de la mission Dans le cadre d’une montée en puissance stratégique sur les activités Fixed Income (Bonds, UST, Repo), une grande banque d’investissement renforce son dispositif d’ E-Trading algorithmique . La mission s’inscrit au sein d’un environnement Front Office , en proximité directe avec une équipe spécialisée dans la conception d’algorithmes d’exécution pour les marchés obligataires. L’objectif est de participer à la mise en œuvre de solutions innovantes basées sur l’intelligence artificielle et le machine learning , dans un contexte à la fois technique et métier. Responsabilités clés Collecte, nettoyage et préparation de larges volumes de données issues des marchés. Développement de modèles de machine learning appliqués à des problématiques business concrètes (optimisation de pricing, exécution, prédiction de comportements…). Analyse statistique et exploratoire sur les datasets disponibles. Implémentation et mise en production d’ algorithmes prédictifs en lien avec les équipes IT et les traders.
DATA SCIENTIST SYSTEME DE SURVEILLANCE

CONTEXTE Missions de surveillance nécessitent un rapatriement et un traitement des mesures régulier pour traiter l’information au plus vite et pouvoir la mettre au service de la maintenance. MISSIONS Assister la section SYS dans l’architecture, le développement et le déploiement de l’Intelligence Artificielle pour automatiser les tâches de traitement à faible valeur ajoutée des mesures de surveillance. Les missions sont : 1. Apprendre automatiquement le début et la fin de shunt sur les différents signaux transmis en tenant compte des seuils de tension normativement définis (0,06V pour circuit UM71 et 5V pour circuit ITE) ou modéliser, le cas échéant, le principe de positionnement des marqueurs de début et de fin de shunt et les insérer automatiquement sur des courbes de tension 2. Caractériser, sur ces courbes, toute anomalie représentant une tension résiduelle (TR) et procéder au traitement adéquat en cas de détection automatique (invalidation, historisation, alerte…) 3. Analyser les occurrences des TR et les corréler avec des données internes et externes pour capter les signaux faibles liés à l’état des voies en prévision d’actions de maintenance. 4. Mettre en place un pipe de traitement automatique des données relatives aux TR intégrant les IA tout en veillant au respect des règles de cybersécurité et de sûreté de fonctionnement (protocoles de communication robustes, redondance des capteurs et des canaux de transmission, backup…) ainsi qu’à l’optimisation des ressources matérielles (edge computing / agentic AI) 5. Industrialiser la solution en définissant les règles de maintenance et en assurant une réduction des coûts de déploiement et d’exploitation (refonte technologique HW / SW). 6. S’insérer dans les dispositifs Big Data du groupe afin de croiser les informations fiables relatives aux TR avec des données hétérogènes pour enrichir les insights d’une maintenance prédictive. 7. Généraliser l’utilisation du dispositif et assurer son évolutivité avec un passage à l’échelle. LIVRABLES Définition des règles de positionnement de marqueurs Analyse des données et constitution des data-sets Développement dans un langage compatible SI Identification des KPI pertinents et évaluation des approches Prototypage rapide, Rendre cette architecture auto-apprenante pour traiter les cas futurs, Solution technique déployée et en production sur l’IHM actuelle, Documentation technique et détaillée de la solution, Suivi de projet avec les éléments clés : planning, comptes-rendus, sources, etc…
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- État du marché IT : quelles perspectives pour 2025 ?Quelle stratégie adopter en 2025 ? CDI, international ou IA ?il y a 3 heures
- Estimation immobilière gratuite dans les Ardennes : des conseils ?il y a 4 heures
- Calcul des cotisations sociales (EI à l'IS)il y a 7 heures
- Déclaration d'impots et boni de liquidation au PFUil y a 8 heures
- Passage automatique en EI : rebascule en micro-BNC possible ?il y a 8 heures
- Quel statue pour mes futures activités freelanceil y a 9 heures