Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
DATA INGENIEUR EXPERT BIGQUERY

Nous recherchons un expert BIG QUERY pour mettre en place une gouvernance Big Query et des bonnes pratiques d'usage et optimiser les projets existants avec les équipes de dev. Pour cela le candidat doit : - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.
Product Owner DATA - CRM - RGPD - GCP - POWER BI

Maintien et l’amélioration de la plateforme : · Définir et veiller à l’implémentation du plan de marquage de la CDP · Définir et veiller à la collecte de la donnée froide · Rédiger les cahiers de recette et les réaliser · Veiller à la qualité de la donnée de la plateforme et la monitorer · Identifier les opportunités d’évolutions liées à la roadmap Mediarithmics · Identifier les opportunités d’évolutions liées aux UC La gestion du delivery et de la roadmap : · Identification et gestion des priorités · Suivi et gestion du backlog JIRA · Coordination avec toutes les parties prenantes liées au projet La collaboration et la coordination des équipes pluridisciplinaires en adhérence sur les projets (cadrage, communication, comité de pilotage, …) : · Equipe Data Expérience : Chefs de projet CDP, Chef de projet technique Data, PO Privacy · Equipe Data : PO UC Perso, PO Big Data, PO équipe proxy … · Equipe Produit : PO et Développeurs des Offres France Télévisions · Equipes transverses : Interlocuteurs techniques des équipes CRM, acquisition, Pub, SRC, … · Partenaires : Interlocuteurs Mediarithmics Documentation et communication · Création et mise à jour de la documentation (Confluence) sur l’outil CDP, son implémentation et son paramétrage · Participer à la communication des avancées des chantiers de la roadmap auprès de la Direction Data
Data Engineer GCP Power BI
Contexte : Nous recherchons un Data Engineer pour une mission freelance à Paris. Vous intégrerez une équipe dynamique, où vos compétences en gestion de données et en outils BI seront essentielles pour optimiser les processus métiers. Responsabilités : Concevoir et implémenter des solutions de gestion de données avec Power BI. Automatiser les flux de données (Data Flow) et les processus avec Power Automate. Collaborer avec les équipes métiers pour comprendre et répondre à leurs besoins. Adopter une posture de consulting pour conseiller et optimiser les solutions de données.
Data Engineer - GCP
📢 [OFFRE D’EMPLOI] Data Engineer – GCP | PySpark | BigQuery | Airflow 📍 Lieu : Paris 🕒 Expérience requise : 4 ans minimum 📅 Disponibilité : ASAP / à convenir Nous recherchons un Data Engineer expérimenté pour renforcer une équipe data dynamique intervenant sur des projets à fort volume. 🎯 Vos missions principales : Conception et développement de pipelines data scalables Traitement et transformation de données avec PySpark Exploitation de l’écosystème GCP : BigQuery, DataProc, Cloud Storage Orchestration avec Airflow / Cloud Composer Participation à l’industrialisation des workflows et à la mise en place des bonnes pratiques DevOps/DataOps
PMO MSBI

Contexte de la mission Dans un environnement décisionnel en forte croissance, vous intégrerez une équipe experte dans les domaines de la Data, de l’automatisation et de l’analyse. L'objectif est de piloter des projets décisionnels stratégiques en environnement BI Microsoft, avec une approche structurée et agile, de l’avant-vente jusqu’à la réversibilité vers la maintenance. Pourquoi cette mission ? Vision stratégique et long-terme Intégration dans une équipe experte et bienveillante Contexte stimulant avec des projets data à fort impact métier
Ingénieur/Consultant en Digitalisation Industrielle & Développement React H/F

Nous recherchons un Ingénieur/Consultant spécialisé en digitalisation industrielle et développement pour accompagner l’implémentation d’une solution cloud intégrant la gestion et l’interopérabilité des actifs industriels. Le projet s’inscrit dans une démarche Industrie 4.0 , avec une forte composante cloud et web. Nous avons une équipe sur le sujet que nous cherchons à renforcer; il s'agit d'un projet au forfait et non d'une régie traditionnelle. Missions Développer et intégrer des interfaces web en React pour la gestion et la visualisation des actifs industriels. Déployer et configurer des clients et serveurs interopérables dans un environnement cloud (Azure DevOps, GitHub). Intégrer des composants digitaux existants au sein du système pour une utilisation optimisée. Assurer la conformité aux normes de l’ Industrie 4.0 . Travailler en collaboration avec l’équipe sur la structuration et l’évolution du projet. Garantir la documentation technique et le suivi des développements (Git, SharePoint). Participer aux standups et aux workshops pour assurer la bonne coordination des équipes. Veiller à la sécurisation et au contrôle des accès utilisateurs selon les standards.
POT8376-Un DBA Oracle / Postgres confirmé sur Tours / Nancy

Almatek recherche pour l'un de ses clients, Un DBA Oracle / Postgres confirmé sur Tours/Nancy Activités : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus Technologies on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte Compétences requises : Oracle - Confirmé – Impératif Postgres - Confirmé – Impératif GCP - Confirmé – Impératif Couchbase - Confirmé - Impératif
Expert Sécurité Cloud GCP – IAM / Réseau / Terraform 9ans+

Le consultant interviendra dans le cadre d’une mission d’expertise en sécurité opérationnelle sur un environnement Cloud GCP , avec une forte dimension réseaux et IAM , pour accompagner la mise en œuvre, l’analyse de risques, et les recommandations de sécurité sur des services avancés (PaaS, Data, CI/CD). L’objectif est d’assurer la conformité à la politique de sécurité du groupe et de garantir un haut niveau de sécurité sur les projets Cloud, notamment data et IA. Missions principales Évaluer l’ architecture de sécurité actuelle GCP , notamment sur les projets Data (Vertex AI, Composer, Apigee…) Étudier et proposer des évolutions autour de Private Service Connect Identifier vulnérabilités et risques liés à l’usage des services PaaS Proposer et accompagner la mise en œuvre des recommandations de sécurité Mettre en place des contrôles dans des outils de type CSMP Participer à la rédaction des standards de sécurité et guides d’usage GCP Participer aux audits internes / externes Participer à la veille technologique et normative Interagir avec les équipes projets et transverses en tant qu’expert référent sécurité
PMO MSBI

Contexte de la mission Dans un environnement décisionnel en forte croissance, vous intégrerez une équipe experte dans les domaines de la Data, de l’automatisation et de l’analyse. L'objectif est de piloter des projets décisionnels stratégiques en environnement BI Microsoft, avec une approche structurée et agile, de l’avant-vente jusqu’à la réversibilité vers la maintenance. Pourquoi cette mission ? Vision stratégique et long-terme Intégration dans une équipe experte et bienveillante Contexte stimulant avec des projets data à fort impact métier
CONSULTANT DEVOPS DATA

Nous recherchons pour notre client final (un grand compte) un consultant DevOps qui jouera un rôle clé dans la mise en place des fondations de la plateforme Data du groupe. Ce consultant aura pour mission de mettre en œuvre les infrastructures nécessaires, ainsi que les chaînes d'intégration, pour répondre aux nouveaux besoins métiers. Activités principales : Participer aux différentes phases du projet, notamment le framing, le MVP (Minimum Viable Product) et les releases des produits, services et APIs orientés Data. Défendre et argumenter les choix d’architecture, en particulier pour la plateforme Data basée sur Google Cloud Platform (GCP). Garantir le bon fonctionnement des chaînes d’intégration et de déploiement continu (CI/CD), assurer un suivi du monitoring, ainsi qu’optimiser l’utilisation des ressources Cloud. Proposer et définir des standards d’architecture et de développement pour les projets liés à la Data. Livrables attendus : Produits, services et APIs orientés Data déployés sur le Cloud public GCP. Documentation technique détaillant l’architecture et les processus mis en place. Dashboards de monitoring des produits et services livrés, permettant un suivi en temps réel de leur performance.
Expert Devops Data/Infra GCP

Insyco recherche actuellement pour l'un de ses clients basés à Paris : Expert Devops Data/Infra GCP Bonjour, Nous recherchons pour notre client grand compte un Expert Devops Data/Infra GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4757 en objet du messag
Expert Cloud GCP et Big Data
Genious Systèmes recherche pour son client un(e) Expert Cloud GCP et Big Data F/H Contexte de la prestation La prestation se déroulera au sein de de la Direction Technique du Numérique du client. Elle concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data du Numérique du client, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : BUILD des services l’analyse des besoins liés à l’hébergement des développements l’adaptation de l’industrialisation des infrastructures pour les changements la planification et exécution des changements, RUN des services et l’exploitation quotidienne la remontée d’alarmes diagnostic l’analyse des incidents interventionx sur incidents la documentation Le prestataire sera la référence technique auprès des acteurs projets : Ingénieurs d’exploitation Développeurs PO/PM Prestataires externes Maitrise de l’anglais technique (lu/écrit) Veille technologique
Ingenieur Cloud

Pour le compte de l' un de nos clients, nous recherchons un Ingénieur Cloud expérimenté qui sera le réfèrent sur la partie infrastructures GCP (Kubernetes) DÉPLOIEMENT Configure et dimensionne les plateformes en fonction des performances requises Met en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participe aux phases de validation technique lors des mises en production ou des évolutions Travaille en coordination avec les équipes OPS, QA, DEV, Delivery Manager MAINTENANCE Maintient en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements Industrialise les architectures cibles et configurer les équipements (CI / CD) Veille à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Participe à l'amélioration de la CI/CD*
Data Engineer GCP (H/F)

Contexte de la mission : Nous recherchons un(e) Data Engineer confirmé(e) pour intégrer une équipe agile dédiée à la mise en place et à l’industrialisation de pipelines de données sur la plateforme GCP. Vous interviendrez sur des projets stratégiques autour de la valorisation des données métiers (finance, risque, conformité, etc.). Vos missions : Conception, développement et optimisation de pipelines de données scalables sur Google Cloud Platform (GCP) Intégration et transformation des données issues de diverses sources (BigQuery, Pub/Sub, Cloud Storage, etc.) Utilisation de Apache Spark pour le traitement de gros volumes de données Orchestration des workflows avec Apache Airflow (Cloud Composer) Collaboration avec les Data Analysts, Data Scientists et les équipes métiers pour répondre aux besoins data Mise en place de bonnes pratiques de développement (CI/CD, tests, monitoring, documentation) Participation à l’évolution de la plateforme data et contribution à l’amélioration continue des process Compétences techniques attendues : Langage : Python (maîtrise indispensable) Traitement de données : Apache Spark (PySpark) Orchestration : Airflow (Cloud Composer) Cloud : GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub...) Outils : Git, Docker, Terraform (atout), CI/CD (GitLab CI, Jenkins...) Méthodologie : Agile/Scrum, DevOps
Head of Data

Analyser des ensembles de données volumineux et complexes pour relever les défis stratégiques et opérationnels. Donner aux équipes produit les moyens de naviguer dans les tableaux de bord Amplitude et de prendre des décisions éclairées par les données. Fournir des insights exploitables issus des tests A/B pour influencer la feuille de route produit. Créer et faire évoluer une infrastructure de données robuste répondant aux besoins en business intelligence et en data science. Encadrer et encadrer une équipe d'analystes, d'ingénieurs et de data scientists.
Consultant(e) Data Scientist / Data Analyst
Nous recherchons un(e) consultant(e) spécialisé(e) en Data Science et Data Analyse pour accompagner notre équipe dans l’exploitation des données et l’optimisation des processus de pilotage liés à l’activité des paiements. Nous recherchons un(e) consultant(e) spécialisé(e) en Data Science et Data Analyse pour accompagner notre équipe dans l’exploitation des données et l’optimisation des processus de pilotage liés à l’activité des paiements. Nous recherchons un(e) consultant(e) spécialisé(e) en Data Science et Data Analyse pour accompagner notre équipe dans l’exploitation des données et l’optimisation des processus de pilotage liés à l’activité des paiements.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul des cotisations sociales (EI à l'IS)il y a 5 minutes
- Quel TJM pour une mission longue ?il y a 40 minutes
- Revente de matériel d'occasion : bonnes pratiques ?il y a une heure
- Travail ancien employeuril y a une heure
- Impossible de liquider mon EURL !il y a 18 heures
- Etat du marché - Avril 2025il y a un jour