Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data scientist à pourvoir en CDI chez le client

Poste à pourvoir en région Loire Atlantique Il s'agit d'un poste à pourvoir en CDI chez le client final. Télétravail : 1 jour/semaine. Votre mission Au sein de la Direction , vous intervenez en tant que Data Scientist pour accompagner les pôles d’activités du Groupe dans leur transformation data. Vous serez en charge de concevoir, développer et déployer des modèles prédictifs et des algorithmes avancés , afin de répondre à des problématiques métier complexes dans le domaine de l’ assurance IARD . Vous exploitez l’environnement Microsoft Data Fabric , avec un focus sur le langage DAX et la solution Power BI , pour créer des modèles de données performants et des rapports décisionnels à forte valeur ajoutée. Responsabilités principales 🔧 Développement & Modélisation Concevoir des modèles de données robustes (modélisation en étoile) pour le reporting opérationnel et stratégique. Développer des rapports interactifs et dynamiques sous Power BI, en optimisant les performances via DAX. Appliquer des techniques de data science pour produire des analyses prédictives à fort impact métier. Collaboration & Intégration Travailler étroitement avec les équipes Data Analyst, Statisticien, Chef de Projet Data, Architecte Data et les équipes DSI pour garantir l’intégration fluide des solutions dans les systèmes existants. Interagir régulièrement avec les équipes métier pour comprendre leurs besoins et co-construire des solutions adaptées. Documentation & Transfert de connaissances Produire une documentation claire, structurée et maintenue à jour (technique & fonctionnelle). Tenir à jour un registre de version des solutions développées (pour les audits et évolutions futures). Préparer et animer des ateliers de formation internes pour faciliter l’adoption des outils et bonnes pratiques Power BI.
Consultant BI
Nous cherchons un Consultant BI pour un de nos client à Lyon Rôle: Le consultant décisionnel BI intervient autour de 3 axes : o Analyser les besoins fonctionnels et techniques pour mettre en place une architecture de données pertinente et performante o Modéliser et enrichir datawarehouses et datamarts o Produire des rapports à destination des métiers et les accompagner ou former dans leur exploitation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent d’un cadre BI classique (cluster Big data noSQL, absence d’ETL pour l’intégration de données...). Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Adaptation, esprit d'équipe o Capacités d'analyse et de synthèse Au moins 7 ans d'expérience sur le rôle sont attendus par le projet. Compétences attendues sur le profil : o Connaissance d’outils non BI utilisés par le projet (Technologie Big Data / no SQL, Autres...) o Aide à la définition des solutions et architectures techniques décisionnelles o Accompagner le métier tout au long de la réalisation du projet o Optimiser la performance de ses livrables o Animer des ateliers de recueil et analyse des besoins o Si nécessaire, accompagner les intervenants projet impliqués dans la mise en œuvre du besoin (développement de sources de données Big Data, devops, etc.) o Accompagner et former le métier tout au long de la réalisation du projet o Optimiser la performance de ses livrables o Maitrise des fondamentaux de l’agilité o Maîtrise avancée des outils de base BI utilisés par le projet (Base de donnée relationnelle, ETL, Outil de reporting) o Maitrise forte des technologies employées sur le projet concerné (par défaut) ou décrit dans la mission.
Senior Data Engineer Hadoop / AWS - H/F

Dans le cadre du renforcement de l’activité Data & IA, nous recherchons un(e) Data Engineer confirmé(e) pour intégrer une squad dédiée aux usages avancés de la donnée et à l’intelligence artificielle . Vous contribuerez à la conception, au développement et à l’optimisation de solutions data au service de nouveaux cas d’usage, en lien étroit avec les équipes métiers et techniques. Vos principales missions : Participer au cadrage technique et à la définition des solutions applicatives Développer, intégrer et tester les pipelines et composants techniques Contribuer à la maintenance applicative et à l’ amélioration continue des produits existants Traiter les incidents, accompagner les utilisateurs et assurer un support technique Participer aux revues de code et veiller au respect des bonnes pratiques de développement Travailler en étroite collaboration avec les membres de la squad pour garantir l’alignement technique et fonctionnel des solutions avec les besoins métier
DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
Architecte solutions data (H/F)

Teksystems recherche pour l'un de ses clients un(e) Architecte solutions data (H/F) Vous intégrerez la guilde Architecture Solutions au sein la Direction Technologie dont les missions sont principalement : - Être force de proposition en concevant l’architecture des solutions sur différents scénarios - Participer à l’élaboration d’une cible d’architecture en collaborant avec les architectes d’entreprise. - Concevoir l'architecture logicielle en partenariat avec les équipes de développement - Cartographier les flux des solutions - Garantir la qualité de la réalisation - Sécuriser la qualité de service en s’appuyant sur la matrice de performance du système applicatif concerné - S'assurer du respect des standards - Apporter votre compétence technique - Faire respecter les patterns d’architecture inscrits au référentiel
Administrateur plateforme Big Data (Cloudera Data Platform)
Les rôles de la DSI sur cette plateforme nommée GAIA sont multiples : • Développer les pipelines d’ingestion de nouvelles données • Industrialiser les développements (ingestions, data preps, algorithmes) • Assurer le bon fonctionnement technique de la plateforme • Assurer le support aux utilisateurs en cas d’anomalie et de questions sur l’utilisation de la plateforme La DSI souhaite renforcer son équipe d’administrateurs BigData grâce à une prestation d’assistance. Expertises / compétences Compétences techniques nécessaires • Linux (RedHat 8), Shell scripting • Security (LDAP, Kerberos, SSL, IDM) • Cloudera, HDFS, YARN, Hive, Oozie, Spark, Knox, Zeppelin, Nifi • Centreon, Ansible • Python et Scala sur environnement distribué. • SQL • Maitrise des systèmes d'informations et logiciels (outils bureautiques courants, SharePoint, Power BI, etc.) Soft skills : • Communiquer efficacement (ex : présentation des incidents en Comité de Pilotage Big Data). La mission se fait en relation avec les utilisateurs métiers et en interaction avec l’équipe des administrateurs et des data Engineers de la plateforme. Il est donc essentiel que les communications soient les plus fluides possibles, • Aimer travailler en équipe, • Être réactif et autonome, • Dialoguer avec aisance pour coordonner les intervenants sur des domaines techniques différents, • Esprit de synthèse pour rédiger des documentations utilisateur facilement utilisables et en minimisant les erreurs sur le contenu. Activités La prestation consiste à assurer l’administration des plateformes BigData ainsi que le support aux utilisateurs tant sur les anomalies que sur les demandes de support à l’utilisation de la plateforme GAIA. En détail, l'ensemble des tâches des administrateurs sont les suivantes : Exploitation de la plateforme : • Configurer, surveiller et optimiser les systèmes de stockage et de traitement des données, tels que les clusters de serveurs et les bases de données distribuées. (Cloudera) • Effectuer les taches de MCO quotidiennes (vérification de l’état des jobs et de la plateforme) • Assurer la sécurité des données en mettant en place des mesures de protection, des politiques de contrôle d’accès et des stratégies de sauvegarde/récupération. • Assurer l’ordonnancement des chaines d’ingestion et des analytiques tournant sur les plateformes • Participer aux projets d’évolution des plateformes BigData • Gérer la performance des plateformes Big Data. • Participer à la maintenance des environnements en appliquant des mises à jour. • Automatiser les tâches récurrentes à l’aide de scripts pour optimiser la gestion des systèmes. • Produire et maintenir la documentation d’exploitation de la plateforme • Contribuer à l’amélioration continue de l’exploitabilité et de la qualité de service de la plateforme • Maintenir et améliorer les KPI de suivi du fonctionnement de la plateforme Le livrable associé est la documentation à jour des dernières modifications de paramétrage de la plateforme.
Consultant Data Expert Kubernetes et Flink
Profil recherché: Consultant Data Expert Kubernetes et Flink Nous recherchons un consultant spécialisé en Data pour renforcer l’équipe Production/Data Collecte. Vous interviendrez sur des sujets critiques liés au RUN (Maintien en Conditions Opérationnelles) et au BUILD (projets de développement et d’optimisation) des plateformes de données. Missions principales : •RUN (MCO des plateformes) •Assurer la stabilité et la disponibilité des plateformes •Surveiller les systèmes, diagnostiquer et résoudre les incidents critiques. •Gérer les montées de versions et garantir une intégration continue efficace. •Participer au développement et à l’optimisation des plateformes de collecte et de gestion des données. •Collaborer avec les équipes pour améliorer les workflows et l’architecture existante. •Concevoir et implémenter de nouveaux modules ou fonctionnalités. •Manipuler efficacement les cubes de données. •Contribuer à l’intégration et à l’utilisation de technologies comme Kubernetes et Flink dans les projets de l'équipe. Localisation/En télétravail: 3 jours sur site (Paris/IDF) et 2 jours en télétravail
Data Business analyst

Vous rejoignez la direction Data & Innovation d’une grande banque d’investissement, au cœur des enjeux de transformation data-driven des métiers bancaires de la CIB (Corporate & Investment Banking) . Cette équipe mène des projets à fort impact autour de la data governance, du data analytics et de l’ intelligence artificielle , en lien direct avec les entités métiers. Dans le cadre du projet stratégique de mise en place d’un nouveau référentiel de titres , vous interviendrez sur un chantier structurant au service de la croissance des activités de trading, Global Securities Financing et Fixed Income . 🔹 Business Analysis Recueillir et formaliser les besoins métiers liés aux référentiels titres Travailler en étroite collaboration avec les équipes de trading , risques, opérations, IT, architectes, etc. Suivre la roadmap de déploiement des titres FI (bonds, CDS, CDX, ABS…) Piloter l’exécution des spécifications fonctionnelles en lien avec le chef de projet IT 🔹 Data Gouvernance & Qualité Participer à la mise en œuvre des process de gouvernance de données au sein du nouveau référentiel Accompagner la conduite du changement auprès des métiers Proposer et développer des dashboards Power BI pour le suivi de la qualité des données : Analyse du besoin Modélisation et création de la base de travail Développement de rapports interactifs
Adminsitrateur plateforme Big Data (Cloudera Data Platform)

Dans le cadre du renforcement de l’administration de sa plateforme Big Data, un client basé en Seine-et-Marne recherche un Administrateur Big Data senior pour intervenir sur son environnement on-premise, bâti autour de la suite Cloudera Data Platform. Cette plateforme, au cœur de ses activités de Service Après-Vente, requiert une expertise pointue sur les outils d’administration, la sécurité, le monitoring, ainsi que sur les technologies de traitement distribué et de scripting. Le consultant interviendra sur l’exploitation, l’optimisation et le support technique de la plateforme GAIA, tout en participant à son amélioration continue, à la documentation et au support aux utilisateurs.
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Développeur Concepteur Big data Talend

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP
Expert Infra Cloud et Big Data
Au sein d'une organisation dynamique dans le domaine du numérique, vous interviendrez sur la gestion et l’optimisation d’infrastructures cloud, ainsi que sur la gestion de plateformes de données à grande échelle. Vous serez responsable de l’industrialisation et de l’automatisation des services cloud pour garantir leur performance et leur évolutivité. Compétences techniques requises : Expertise dans les environnements cloud public (AWS, GCP, OVH) avec une préférence pour GCP . Maîtrise des outils d’automatisation et d'industrialisation des infrastructures ( Puppet , Ansible , Terraform ). Solides compétences en Big Data et technologies associées (notamment Spark , Python , Hadoop , SQL ). Expérience avec des solutions de déploiement et d’orchestration ( Jenkins , GitLab , Airflow ). Bonne culture des systèmes Unix/Linux et des environnements virtualisés. Compétences complémentaires appréciées : Expérience avec des architectures Data telles que Lakehouse et Datalake . Connaissance des solutions de stockage et traitement des données (ex : Delta , Parquet , DBT , BigQuery ). Bonne maîtrise des concepts systèmes , réseaux et virtualisation . Expérience sur des sites web à fort trafic .
Ingénieur infrastructure et d’exploitation de la plateforme Data

Contexte : La mission concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. MISSIONS Le candidat participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - interventions sur incidents - la documentation Le prestataire sera la référence technique auprès des acteurs projets : - Ingénieurs d’exploitation - Développeurs - PO/PM - Prestataires externes - Maitrise de l’anglais technique (lu/écrit) - Veille technologique
Expert Devops Data/Infra GCP

Insyco recherche actuellement pour l'un de ses clients basés à Paris : Expert Devops Data/Infra GCP Bonjour, Nous recherchons pour notre client grand compte un Expert Devops Data/Infra GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4757 en objet du messag
Expert Cloud GCP et Big Data
Genious Systèmes recherche pour son client un(e) Expert Cloud GCP et Big Data F/H Contexte de la prestation La prestation se déroulera au sein de de la Direction Technique du Numérique du client. Elle concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data du Numérique du client, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : BUILD des services l’analyse des besoins liés à l’hébergement des développements l’adaptation de l’industrialisation des infrastructures pour les changements la planification et exécution des changements, RUN des services et l’exploitation quotidienne la remontée d’alarmes diagnostic l’analyse des incidents interventionx sur incidents la documentation Le prestataire sera la référence technique auprès des acteurs projets : Ingénieurs d’exploitation Développeurs PO/PM Prestataires externes Maitrise de l’anglais technique (lu/écrit) Veille technologique
Product Owner on Cloud Azure : Monitoring, Observabilité & Data - 92 - English mandatory

📢 𝐏𝐫𝐨𝐝𝐮𝐜𝐭 𝐎𝐰𝐧𝐞𝐫 𝐨𝐧 𝐂𝐥𝐨𝐮𝐝 𝐀𝐳𝐮𝐫𝐞 – 𝐌𝐨𝐧𝐢𝐭𝐨𝐫𝐢𝐧𝐠, 𝐎𝐛𝐬𝐞𝐫𝐯𝐚𝐛𝐢𝐥𝐢𝐭𝐞́ & 𝐃𝐚𝐭𝐚 📍 𝟗𝟐 – 𝐏𝐫𝐞́𝐬𝐞𝐧𝐭𝐢𝐞𝐥 𝐡𝐲𝐛𝐫𝐢𝐝𝐞 🗓 𝐀𝐒𝐀𝐏 🎙️ 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐟𝐥𝐮𝐢𝐝𝐞 𝐨𝐛𝐥𝐢𝐠𝐚𝐭𝐨𝐢𝐫𝐞 ✒️ 𝐅𝐫𝐞𝐞𝐥𝐚𝐧𝐜𝐞 𝐨𝐧𝐥𝐲 - 𝐏𝐚𝐬 𝐝𝐞 𝐒𝐓𝐓 🎯 𝐕𝐨𝐭𝐫𝐞 𝐦𝐢𝐬𝐬𝐢𝐨𝐧 Dans un environnement cloud et data-driven, vous piloterez la roadmap produit d'une équipe dédiée à l'Observabilité et à la Data, en assurant la bonne traduction des besoins métier en solutions techniques performantes. 🔍 𝐕𝐨𝐬 𝐨𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 ✅ Recueillir, formaliser et prioriser les besoins métiers et techniques ✅ Définir et maintenir le backlog produit ✅ Assurer la qualité et la pertinence des solutions livrées ✅ Collaborer avec les équipes de développement et animer les cérémonies Agile/Scrum ✅ Suivre et analyser les KPIs de performance pour l’amélioration continue ✅ Assurer une veille technologique sur les outils de monitoring et data 🛠 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 Cloud & Conteneurs = > Azure Kubernetes Service (AKS), Azure Functions Stockage & Bases de données => Azure Blob Storage, ADLS Gen2, PostgreSQL, ElasticSearch, Delta Lake Streaming & Messagerie => Event Hub, RabbitMQ Data Engineering & Logging => Apache Airflow, Apache Spark, Logstash, Azure Log Analytics Visualisation => Grafana CI/CD & Collaboration => GitHub #ProductOwner #Data #Monitoring #Observabilité #Cloud #Azure
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- État du marché IT : quelles perspectives pour 2025 ?Quelle stratégie adopter en 2025 ? CDI, international ou IA ?il y a 2 heures
- Estimation immobilière gratuite dans les Ardennes : des conseils ?il y a 3 heures
- Calcul des cotisations sociales (EI à l'IS)il y a 7 heures
- Déclaration d'impots et boni de liquidation au PFUil y a 7 heures
- Passage automatique en EI : rebascule en micro-BNC possible ?il y a 7 heures
- Quel statue pour mes futures activités freelanceil y a 8 heures