Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Business analyst

Vous rejoignez la direction Data & Innovation d’une grande banque d’investissement, au cœur des enjeux de transformation data-driven des métiers bancaires de la CIB (Corporate & Investment Banking) . Cette équipe mène des projets à fort impact autour de la data governance, du data analytics et de l’ intelligence artificielle , en lien direct avec les entités métiers. Dans le cadre du projet stratégique de mise en place d’un nouveau référentiel de titres , vous interviendrez sur un chantier structurant au service de la croissance des activités de trading, Global Securities Financing et Fixed Income . 🔹 Business Analysis Recueillir et formaliser les besoins métiers liés aux référentiels titres Travailler en étroite collaboration avec les équipes de trading , risques, opérations, IT, architectes, etc. Suivre la roadmap de déploiement des titres FI (bonds, CDS, CDX, ABS…) Piloter l’exécution des spécifications fonctionnelles en lien avec le chef de projet IT 🔹 Data Gouvernance & Qualité Participer à la mise en œuvre des process de gouvernance de données au sein du nouveau référentiel Accompagner la conduite du changement auprès des métiers Proposer et développer des dashboards Power BI pour le suivi de la qualité des données : Analyse du besoin Modélisation et création de la base de travail Développement de rapports interactifs
DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
Architect Data ( H/F)

🔎 Opportunité Freelance – Architecte Data (Snowflake / AWS / Airflow / Hadoop) 🔎 Missions: 🔹 Architecturer la migration Hadoop → Snowflake , en garantissant l'intégrité des données et en minimisant les interruptions 🔹 Concevoir un nouveau modèle de données optimisé pour Snowflake (passage de la 3NF à un modèle dimensionnel) 🔹 Mettre en œuvre et optimiser les processus de transformation des données avec DBT 🔹 Orchestrer les flux de données à l'aide d' Apache Airflow 🔹 Collaborer avec les équipes métiers et techniques pour s’assurer que la nouvelle architecture répond aux besoins de l’entreprise 🔹 Documenter l’ architecture des données, les processus de migration et les modèles de données 🔹 Assurer la gouvernance, la sécurité et la conformité des données
Administrateur plateforme Big Data (Cloudera Data Platform)
Les rôles de la DSI sur cette plateforme nommée GAIA sont multiples : • Développer les pipelines d’ingestion de nouvelles données • Industrialiser les développements (ingestions, data preps, algorithmes) • Assurer le bon fonctionnement technique de la plateforme • Assurer le support aux utilisateurs en cas d’anomalie et de questions sur l’utilisation de la plateforme La DSI souhaite renforcer son équipe d’administrateurs BigData grâce à une prestation d’assistance. Expertises / compétences Compétences techniques nécessaires • Linux (RedHat 8), Shell scripting • Security (LDAP, Kerberos, SSL, IDM) • Cloudera, HDFS, YARN, Hive, Oozie, Spark, Knox, Zeppelin, Nifi • Centreon, Ansible • Python et Scala sur environnement distribué. • SQL • Maitrise des systèmes d'informations et logiciels (outils bureautiques courants, SharePoint, Power BI, etc.) Soft skills : • Communiquer efficacement (ex : présentation des incidents en Comité de Pilotage Big Data). La mission se fait en relation avec les utilisateurs métiers et en interaction avec l’équipe des administrateurs et des data Engineers de la plateforme. Il est donc essentiel que les communications soient les plus fluides possibles, • Aimer travailler en équipe, • Être réactif et autonome, • Dialoguer avec aisance pour coordonner les intervenants sur des domaines techniques différents, • Esprit de synthèse pour rédiger des documentations utilisateur facilement utilisables et en minimisant les erreurs sur le contenu. Activités La prestation consiste à assurer l’administration des plateformes BigData ainsi que le support aux utilisateurs tant sur les anomalies que sur les demandes de support à l’utilisation de la plateforme GAIA. En détail, l'ensemble des tâches des administrateurs sont les suivantes : Exploitation de la plateforme : • Configurer, surveiller et optimiser les systèmes de stockage et de traitement des données, tels que les clusters de serveurs et les bases de données distribuées. (Cloudera) • Effectuer les taches de MCO quotidiennes (vérification de l’état des jobs et de la plateforme) • Assurer la sécurité des données en mettant en place des mesures de protection, des politiques de contrôle d’accès et des stratégies de sauvegarde/récupération. • Assurer l’ordonnancement des chaines d’ingestion et des analytiques tournant sur les plateformes • Participer aux projets d’évolution des plateformes BigData • Gérer la performance des plateformes Big Data. • Participer à la maintenance des environnements en appliquant des mises à jour. • Automatiser les tâches récurrentes à l’aide de scripts pour optimiser la gestion des systèmes. • Produire et maintenir la documentation d’exploitation de la plateforme • Contribuer à l’amélioration continue de l’exploitabilité et de la qualité de service de la plateforme • Maintenir et améliorer les KPI de suivi du fonctionnement de la plateforme Le livrable associé est la documentation à jour des dernières modifications de paramétrage de la plateforme.
Data Engineer Senior IA Générative & LLM – Python | Banque | Direction Financière

Nous recherchons un Data Engineer confirmé (8–10 ans d’expérience), doté d’une forte appétence pour la Data Science et l’ IA Générative , pour intervenir dans une équipe transverse dédiée à l’innovation et au prototypage rapide de solutions data. Vous interviendrez sur un programme stratégique en lien avec les équipes de la Direction Financière afin de concevoir et implémenter des solutions d'automatisation et d'analyse avancée autour de cas d’usage métiers. Vous serez amené à travailler au plus proche du métier (interlocuteurs financiers), de l’équipe innovation, ainsi que des Data Scientists. LES MISSIONS : Traitement de données non structurées (PDF, Word, PowerPoint, etc.) Développement Python pour l’ extraction, transformation et génération de documents Implémentation de modèles d’ IA Générative (LLM, prompt engineering, RAG) Collaboration avec les équipes Data Science sur les modèles et les outils à déployer Participation à la mise en place de solutions industrialisables (CI/CD)
Dataops/MLops H/F

MISSION Nous recherchons des personnes avec un recul : - sur les plateformes modernes de Data Science (Cloud-Native, sur Kubernetes); - sur le MLOps et AIOps en général; - et idéalement avec des idées / un background sur les LLMs et l’Intelligence Artificielle dans son ensemble Pour travailler avec les Data Fullstack pour : - Définir l’architecture fonctionnelle de nos offres Data citées plus haut en suivant l’état de l’art et/ou les consignes d’architecture/sécurité du Groupe (pas forcément adaptées au cloud native) - Traduire en développements ad hoc sur la base des briques techniques disponibles, en intégration de produits du marché - Contribuer à la construction des Envs Python nécessaires à la Data Science au format docker (eg. OS, conda, pip, etc.) - Contribuer au développement des chaines de CI/CD permettant le cycle de vie des plateformes (déploiement, MAJ, environnements utilisateur, etc.) - Pour nos offres déjà qualifiées pour de la Prod (Domino Datalab pour le moment): - Assurer le déploiement “as code” - Assurer la supervision d’instances dédiées par client - Améliorer la sûreté de fonctionnement des plateformes (appliquer les méthodes SRE pour Cloud + K8s, rédiger des RFE auprès de l’éditeur, etc.)
Data engineer Data science Intelligence Artificielle // senior 550 e

Data engineer Data science Intelligence Artificielle // senior 550 e Traitement de données non structurées ainsi que la maitrise de traitement de fichiers de différents types tels que Word, PDF, PowerPoint, CSV - Avoir des connaissances approfondies en Intelligence Artificielle générative et en Large Language Model (LLM) sont requises. - Une maîtrise avancée du langage de programmation Python est indispensable - Avoir des connaissances dans la mise en place de prompts et d’outils de RAG - Maitrise de la génération de documents vià Python - Avoir travaillé en Banque et être intervenu en direction Financière serait un atout pour la candidature - 8 - 10 ans d’expériences La mission principale sera de concevoir et développer des solutions de traitement de données complexes, d'implémenter des modèles d'IA générative et de participer à la mise en place de prompts et de RAG. Une collaboration étroite avec les équipes de Data Science et d'IA pour garantir l'efficacité et la fiabilité des solutions mises en œuvre 550 e
Product Owner on Cloud Azure : Monitoring, Observabilité & Data - 92 - English mandatory

📢 𝐏𝐫𝐨𝐝𝐮𝐜𝐭 𝐎𝐰𝐧𝐞𝐫 𝐨𝐧 𝐂𝐥𝐨𝐮𝐝 𝐀𝐳𝐮𝐫𝐞 – 𝐌𝐨𝐧𝐢𝐭𝐨𝐫𝐢𝐧𝐠, 𝐎𝐛𝐬𝐞𝐫𝐯𝐚𝐛𝐢𝐥𝐢𝐭𝐞́ & 𝐃𝐚𝐭𝐚 📍 𝟗𝟐 – 𝐏𝐫𝐞́𝐬𝐞𝐧𝐭𝐢𝐞𝐥 𝐡𝐲𝐛𝐫𝐢𝐝𝐞 🗓 𝐀𝐒𝐀𝐏 🎙️ 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐟𝐥𝐮𝐢𝐝𝐞 𝐨𝐛𝐥𝐢𝐠𝐚𝐭𝐨𝐢𝐫𝐞 ✒️ 𝐅𝐫𝐞𝐞𝐥𝐚𝐧𝐜𝐞 𝐨𝐧𝐥𝐲 - 𝐏𝐚𝐬 𝐝𝐞 𝐒𝐓𝐓 🎯 𝐕𝐨𝐭𝐫𝐞 𝐦𝐢𝐬𝐬𝐢𝐨𝐧 Dans un environnement cloud et data-driven, vous piloterez la roadmap produit d'une équipe dédiée à l'Observabilité et à la Data, en assurant la bonne traduction des besoins métier en solutions techniques performantes. 🔍 𝐕𝐨𝐬 𝐨𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 ✅ Recueillir, formaliser et prioriser les besoins métiers et techniques ✅ Définir et maintenir le backlog produit ✅ Assurer la qualité et la pertinence des solutions livrées ✅ Collaborer avec les équipes de développement et animer les cérémonies Agile/Scrum ✅ Suivre et analyser les KPIs de performance pour l’amélioration continue ✅ Assurer une veille technologique sur les outils de monitoring et data 🛠 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 Cloud & Conteneurs = > Azure Kubernetes Service (AKS), Azure Functions Stockage & Bases de données => Azure Blob Storage, ADLS Gen2, PostgreSQL, ElasticSearch, Delta Lake Streaming & Messagerie => Event Hub, RabbitMQ Data Engineering & Logging => Apache Airflow, Apache Spark, Logstash, Azure Log Analytics Visualisation => Grafana CI/CD & Collaboration => GitHub #ProductOwner #Data #Monitoring #Observabilité #Cloud #Azure
Expert Infra Cloud et Big Data
Au sein d'une organisation dynamique dans le domaine du numérique, vous interviendrez sur la gestion et l’optimisation d’infrastructures cloud, ainsi que sur la gestion de plateformes de données à grande échelle. Vous serez responsable de l’industrialisation et de l’automatisation des services cloud pour garantir leur performance et leur évolutivité. Compétences techniques requises : Expertise dans les environnements cloud public (AWS, GCP, OVH) avec une préférence pour GCP . Maîtrise des outils d’automatisation et d'industrialisation des infrastructures ( Puppet , Ansible , Terraform ). Solides compétences en Big Data et technologies associées (notamment Spark , Python , Hadoop , SQL ). Expérience avec des solutions de déploiement et d’orchestration ( Jenkins , GitLab , Airflow ). Bonne culture des systèmes Unix/Linux et des environnements virtualisés. Compétences complémentaires appréciées : Expérience avec des architectures Data telles que Lakehouse et Datalake . Connaissance des solutions de stockage et traitement des données (ex : Delta , Parquet , DBT , BigQuery ). Bonne maîtrise des concepts systèmes , réseaux et virtualisation . Expérience sur des sites web à fort trafic .
Architecte Cloud & Data

📍 Contexte de la mission Au sein de l’équipe Data Capture , nous recherchons un Architecte Cloud & Data expérimenté pour concevoir, développer et optimiser les solutions de gestion de données basées sur Azure Cloud et Snowflake . Ce rôle nécessite une solide expertise en architecture IT , en développement de microservices , ainsi qu’en Event-Driven Architecture (EDA) . Le candidat devra collaborer étroitement avec les équipes IT Groupe/Zone, les partenaires métiers, les prestataires externes et les membres de l’équipe Data & Analytics . Ce poste exige également un leadership fort, une autonomie avérée , ainsi qu’une capacité à documenter rigoureusement les solutions mises en place dans le cadre d’audits, de Proof of Concept (PoC) ou d’alignements architecturaux.
Adminsitrateur plateforme Big Data (Cloudera Data Platform)

Dans le cadre du renforcement de l’administration de sa plateforme Big Data, un client basé en Seine-et-Marne recherche un Administrateur Big Data senior pour intervenir sur son environnement on-premise, bâti autour de la suite Cloudera Data Platform. Cette plateforme, au cœur de ses activités de Service Après-Vente, requiert une expertise pointue sur les outils d’administration, la sécurité, le monitoring, ainsi que sur les technologies de traitement distribué et de scripting. Le consultant interviendra sur l’exploitation, l’optimisation et le support technique de la plateforme GAIA, tout en participant à son amélioration continue, à la documentation et au support aux utilisateurs.
Ingénieur infrastructure et d’exploitation de la plateforme Data

Contexte : La mission concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. MISSIONS Le candidat participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - interventions sur incidents - la documentation Le prestataire sera la référence technique auprès des acteurs projets : - Ingénieurs d’exploitation - Développeurs - PO/PM - Prestataires externes - Maitrise de l’anglais technique (lu/écrit) - Veille technologique
Expert Devops Data/Infra GCP

Insyco recherche actuellement pour l'un de ses clients basés à Paris : Expert Devops Data/Infra GCP Bonjour, Nous recherchons pour notre client grand compte un Expert Devops Data/Infra GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4757 en objet du messag
Expert Cloud GCP et Big Data
Genious Systèmes recherche pour son client un(e) Expert Cloud GCP et Big Data F/H Contexte de la prestation La prestation se déroulera au sein de de la Direction Technique du Numérique du client. Elle concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data du Numérique du client, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : BUILD des services l’analyse des besoins liés à l’hébergement des développements l’adaptation de l’industrialisation des infrastructures pour les changements la planification et exécution des changements, RUN des services et l’exploitation quotidienne la remontée d’alarmes diagnostic l’analyse des incidents interventionx sur incidents la documentation Le prestataire sera la référence technique auprès des acteurs projets : Ingénieurs d’exploitation Développeurs PO/PM Prestataires externes Maitrise de l’anglais technique (lu/écrit) Veille technologique
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
ADMINISTRADOR DE BIG DATA

L’un de mes meilleurs clients mondiaux en France recrute un Big Data Manager pour rejoindre leur projet à long terme ! Le service consiste à garantir l’administration des plateformes BigData, ainsi que le support aux utilisateurs tant en cas d’anomalies qu’en cas de demande de support de plateforme. Responsabilités: Configurez, surveillez et optimisez les systèmes de stockage et de traitement des données, tels que les clusters de serveurs et les bases de données distribuées Effectuer des tâches MCO quotidiennes (vérifier l’état des travaux et de la plateforme) Assurez la sécurité des données en mettant en œuvre des mesures de protection, des politiques de contrôle d’accès et des stratégies de sauvegarde/récupération Assurer la programmation des chaînes d’ingestion et d’analyse qui s’exécutent sur les plateformes• Participer aux projets d’évolution des plateformes Big Data Piloter les performances des plateformes Big Data. Participer à la maintenance des environnements en appliquant les mises à jour. Automatisez les tâches récurrentes à l’aide de scripts pour rationaliser la gestion du système. Vous devez avoir de l’expérience avec : Expérience pratique et approfondie de la gestion de plateformes Big Data Vaste expérience de travail avec le support de données/plateformes Expérience avec Cloudera (Cloud Aero Suite) Expérience avec Linux, Hadoop, Ansible et Python Parle français/anglais
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quel TJM pour une mission longue ?il y a 26 minutes
- Etat du marché - Avril 2025il y a 3 heures
- Correction d'erreurs exercice précédentil y a 5 heures
- Impossible de liquider mon EURL !il y a 9 heures
- Passage automatique en EI : rebascule en micro-BNC possible ?il y a 11 heures
- Dépassement plafond AE deux années consécutives ?il y a 11 heures