Trouvez votre prochaine offre d’emploi ou de mission freelance Google Analytics à Paris

Votre recherche renvoie 64 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Architecte Solution Groupe – Gouvernance IT, Cloud & Référentiels

Ethic Technology

Nous cherchons un architecte solution de haut niveau, capable de combiner une vision stratégique d’entreprise avec une expertise technique approfondie sur les sujets de gouvernance IT, cloud et référentiels d’architecture . Le candidat recherché doit avoir piloté des programmes de transformation complexes , défini des feuilles de route de migration vers le cloud (Move2Cloud), établi des référentiels techniques et documentations normées , participé à la rédaction de business cases orientés ROI/TCO, et contribué activement à la mise en œuvre de standards d’architecture à l’échelle d’un SI global. Il est également attendu qu’il ait une capacité à animer des comités d’architecture , à accompagner les équipes projets , et à assurer la cohérence des solutions dans un environnement multi-produits, sécurisé et conforme aux exigences du groupe.

Démarrage Dès que possible
Durée 6 mois
TJM 700-710 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data Quality Project Management SENIOR (9 ans et plus)

Digistrat consulting

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un PMO Data Quality. Cadrer la qualité des données pour l'IT AM du point de vue de l'ITO : -la gouvernance de couverture, -conception de lignage de données , -Mise en place d'indicateurs de qualité des données et industrialisation de l'informatique. De formation école d'ingénieur ou ayant un niveau équivalent à un Master 2, nous recherchons quelqu'un de curieux, dynamique, et force de proposition.

Démarrage Dès que possible
Durée 3 ans
Salaire 50k-70k €⁄an
TJM 500-600 €⁄j
Lieu Paris, France
Freelance

Senior Data Engineer

Phaidon London- Glocomms

Nous recherchons des ingénieurs de données seniors pour travailler sur la modernisation de l'entrepôt de données de notre client. L'expérience dans le secteur du luxe est un atout majeur pour ce poste. Secteur: Luxe Rôle : Freelance Data Engineer Durée : 6 mois Lieu : Paris Hybride : 2j teletravaile Date de début : Avril/Mai Responsabilités : Diriger et contribuer à la modernisation des entrepôts de données existants, en assurant l'évolutivité, la performance et l'alignement avec les besoins de l'entreprise. Migrer les projets de données vers Google Cloud Platform (GCP). Concevoir et mettre en œuvre des pipelines de données ELT robustes en utilisant DBT pour la logique de transformation et la modélisation des données. Développer et gérer l'infrastructure en utilisant Terraform pour provisionner et maintenir les ressources du projet cloud. Automatiser les pipelines CI/CD pour les flux de données et les déploiements en utilisant Azure DevOps pour assurer des opérations efficaces, répétables et fiables.

Démarrage Dès que possible
Durée 6 mois
TJM 550-680 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Head of Data

Phaidon London- Glocomms

Analyser des ensembles de données volumineux et complexes pour relever les défis stratégiques et opérationnels. Donner aux équipes produit les moyens de naviguer dans les tableaux de bord Amplitude et de prendre des décisions éclairées par les données. Fournir des insights exploitables issus des tests A/B pour influencer la feuille de route produit. Créer et faire évoluer une infrastructure de données robuste répondant aux besoins en business intelligence et en data science. Encadrer et encadrer une équipe d'analystes, d'ingénieurs et de data scientists.

Démarrage
Salaire 150k-175k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Expert sécurité GCP

Ewolve

En tant qu'Architecte GCP Réseaux & Sécurité, vous serez en charge de la conception, de l’optimisation et de la sécurisation des architectures cloud de notre client bancaire. Vous travaillerez étroitement avec les équipes de développement et d’exploitation pour garantir que les solutions mises en place sont scalables, sécurisées et performantes. Votre rôle inclura également la gestion de projets d’infrastructure cloud, en intégrant des services PaaS et des solutions de sécurité adaptées aux besoins spécifiques du secteur bancaire. Missions principales : Concevoir des architectures réseaux complexes sur GCP pour répondre aux besoins spécifiques du client. Mettre en place des solutions sécurisées sur GCP en intégrant les meilleures pratiques de sécurité, notamment en matière de confidentialité des données et de conformité aux régulations bancaires. Assurer la gestion et l’optimisation des services managés cloud et des PaaS (par exemple, Google Kubernetes Engine, Cloud Pub/Sub, BigQuery, etc.). Collaborer avec les équipes de développement pour intégrer des applications dans l’environnement cloud, en veillant à la sécurité et à la performance des services déployés. Effectuer une veille technologique pour rester à jour sur les nouveautés GCP et les tendances en matière de réseaux et de sécurité dans le cloud. Assurer la documentation technique des architectures mises en place et des processus opérationnels associés.

Démarrage Dès que possible
Durée 2 ans
Salaire 45k-55k €⁄an
TJM 550-680 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Ingénieur/e Cloud GCP

METSYS

Nous recherchons pour le compte de notre client du secteur bancaire un/e ingénieur/e Cloud GCP. Vos principales missions seront : Prise en charge de l’intégration technique des solutions existantes et nouvelles. Exploitation des plates-formes techniques en assurant le maintien en conditions opérationnelles. Mise en œuvre des réponses aux audits externes et aux mises en conformités internes. Applications de la politique de sécurité des SI Création, administration des environnements, application des patchs, supervision, veille technologique Mise en place d’architectures techniques autour des composants applicatifs Participation aux réponses des audits pour le compte de la production applicative Réponse aux incidents critiques : communication, diagnostic, correction, coordination d’experts en cellule technique. Analyse, Gestion, Pilotage des changements. Coordination des intervenants. Interface entre les experts techniques et le support Editeur/MOE Rédaction des manuels d’exploitation : procédures, sauvegardes, supervision…

Démarrage Dès que possible
Durée 1 an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer GCP (H/F)

BK CONSULTING

Contexte de la mission : Nous recherchons un(e) Data Engineer confirmé(e) pour intégrer une équipe agile dédiée à la mise en place et à l’industrialisation de pipelines de données sur la plateforme GCP. Vous interviendrez sur des projets stratégiques autour de la valorisation des données métiers (finance, risque, conformité, etc.). Vos missions : Conception, développement et optimisation de pipelines de données scalables sur Google Cloud Platform (GCP) Intégration et transformation des données issues de diverses sources (BigQuery, Pub/Sub, Cloud Storage, etc.) Utilisation de Apache Spark pour le traitement de gros volumes de données Orchestration des workflows avec Apache Airflow (Cloud Composer) Collaboration avec les Data Analysts, Data Scientists et les équipes métiers pour répondre aux besoins data Mise en place de bonnes pratiques de développement (CI/CD, tests, monitoring, documentation) Participation à l’évolution de la plateforme data et contribution à l’amélioration continue des process Compétences techniques attendues : Langage : Python (maîtrise indispensable) Traitement de données : Apache Spark (PySpark) Orchestration : Airflow (Cloud Composer) Cloud : GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub...) Outils : Git, Docker, Terraform (atout), CI/CD (GitLab CI, Jenkins...) Méthodologie : Agile/Scrum, DevOps

Démarrage Dès que possible
Salaire 40k-54k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Expert Devops Data/Infra GCP

INSYCO

Insyco recherche actuellement pour l'un de ses clients basés à Paris : Expert Devops Data/Infra GCP Bonjour, Nous recherchons pour notre client grand compte un Expert Devops Data/Infra GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4757 en objet du messag

Démarrage Dès que possible
Durée 6 mois
TJM 550-750 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Expert Cloud GCP et Big Data

GENIOUS

Genious Systèmes recherche pour son client un(e) Expert Cloud GCP et Big Data F/H Contexte de la prestation La prestation se déroulera au sein de de la Direction Technique du Numérique du client. Elle concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data du Numérique du client, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : BUILD des services l’analyse des besoins liés à l’hébergement des développements l’adaptation de l’industrialisation des infrastructures pour les changements la planification et exécution des changements, RUN des services et l’exploitation quotidienne la remontée d’alarmes diagnostic l’analyse des incidents interventionx sur incidents la documentation Le prestataire sera la référence technique auprès des acteurs projets : Ingénieurs d’exploitation Développeurs PO/PM Prestataires externes Maitrise de l’anglais technique (lu/écrit) Veille technologique

Démarrage Dès que possible
Durée 3 ans
Salaire 61k-80k €⁄an
TJM 400-700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI
CDD

Data engineer Pipeline P&C / Palantir

Hexagone Digitale

Data engineer Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation afin d'en faciliter l'exploitation par les équipes. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, ... Il assure la supervision et l'intégration des données qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons,etc.). Niveau d'expérience : 3-6 ans Palantir Foundry - Confirmé - Impératif Python / Pyspark - Confirmé - Impératif Fançais Courant (Impératif) Anglais Courant (Impératif) We are looking for a Data Engineer to develop data pipelines for our P&C foundations in Palantir Foundry. The Data Engineer is expected to build, deliver, maintain and document data pipelines within the P&C foundations scope. Particularly, he is expected to deliver in a state-of-the-art approach reinsurance data in our P&C "Analytical Data Model" (medallion representation of our P&C data). Expected deliverables : - Data pipelines for reinsurance underwriting foundations, delivered in due time - Code documented and unit tested - Quality and health checks implemented Expected experience & skills : - +5 years as a data engineer - Proven experience on Palantir Foundry, mainly on data engineer oriented modules (code repository, ontology, ...) - Knowledgeable of good development practices (gitflow, unit testing, documentation) - Strong level in Python and Pyspark - Knowlegeable of data mesh architecture, and medallion architecture - Experience in decisional data modeling is a plus - Experience in Databricks is a plus - Team Player - Curiosity, interest to challenge - Communication and ability to speak with various stakeholders - Strong analytical thinking

Démarrage Dès que possible
Durée 6 mois
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data SysOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

YGL consulting

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
TJM 700-800 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Analyst - Cybersecurity (CDI ou Freelance)

REESK DIGITAL SOLUTION

Contexte : En tant qu’expert de la donnée, vous jouerez un rôle clé dans le suivi et la gestion des projets de déploiement de solutions de cybersécurité de la donnée. Vous serez responsable du suivi technique des règles de classification des données sensibles qui permettront la prévention de la perte de donnée (DLP), tout en veillant à ce que les solutions respectent les normes de sécurité et les délais convenus. Votre solide expertise technique vous permettra de comprendre les enjeux, d’accompagner la définition des règles et d’être un référent dans la mise en œuvre et l’analyse sécurité. Vos missions principales seront : – Piloter la mise en place des règles de classification de la donnée au travers de différents outils de sécurité (Varonis et IBM Guardium). – Concevoir et qualifier les règles techniques de découverte de la donnée – Analyse des données issues de Varonis et Guardium – Développement et scripting en Python (concevoir et développer des scripts pour automatiser les tâches de collecte et d’analyse de données). – Construire des dashboards pour visualiser les données et générer des rapports exploitables. – Assurer l’amélioration continue des processus et de la qualité de la découverte. – Présenter des analyses synthétiques et des recommandations aux équipes de sécurité – Accompagner la mise en œuvre des politiques de cybersécurité (campagne de remédiation) tout en conseillant les équipes métiers et informatiques. – Travailler en collaboration avec les équipes IT et Sécurité pour mettre en place des actions correctives. – Comprendre les besoins et exigences techniques afin d’assurer une mise en place fluide et sécurisée des solutions. – Gérer le suivi des plannings, des livrables, et assurer le respect des délais. – Effectuer un reporting régulier sur l’avancement des projets et proposer des plans d’actions correctifs si nécessaire. – Assurer une veille technologique sur les solutions de sécurité de la donnée et proposer des améliorations. – Aider à la formation des équipes de production niveau 2 en charge de l’exploitation des solutions Compétences techniques : Expertise en Python pour le scripting, l’analyse et l’automatisation des tâches. Compréhension et appétence des concepts liés à la protection des données (confidentialité, Cyberprogram NIST, etc.). Connaissance approfondie des pratiques cyber en matière de découverte de la donnée basée sur le contenu (REGEXP, données personnelles sensibles RGPD, PCI-DSS) Bonne compréhension des concepts de sécurité des données (DLP, audits, conformité). Compréhension des concepts sécurité liés au cloud (Microsoft Azure O365, IBM) Connaissance des bases de données (MS SQL, MongoDB, ..) Connaissance des solutions de sécurité Varonis et IBM Guardium Compétences en visualisation de données (Power BI, Tableau).

Démarrage Dès que possible
Durée 12 mois
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Change Manager BI - Consultant BI -

Cherry Pick

Contexte Au sein des équipes Data du client, l’écosystème applicatif est complexe et constitué de divers systèmes anciens, incluant des datalakes/data warehouses et des outils de BI. La plupart de ces systèmes dits "legacy" sont destinés à être replatformés ou décommissionnés au profit de la Data Platform (GCP), dans le cadre de la stratégie Data du client. Leur décommissionnement progressif a débuté en 2022 et vise à migrer les usages analytiques autour du CRM, Retail, Merchandising, Supply Chain et Finance. Ces outils sont utilisés quotidiennement par l’ensemble des Maisons du Groupe dans le monde et par les équipes Corporate. Au-delà de cette transition technologique, un des facteurs clés de succès est l’accompagnement des Maisons et des équipes Corporate dans la gestion du changement et l’adoption des nouveaux outils. Ce changement de paradigme implique : La mise en place de nouveaux outils, notamment de BI et d’analytics De nouveaux modes opératoires, de l’expression de besoin à la livraison et au support (via la méthode Agile et la logique de Data Product) Une nouvelle approche de l’accès, de l’usage et de la gouvernance de la donnée (orientée data mesh) Le maintien constant de la satisfaction des utilisateurs Pour cela, le client souhaite intégrer un Customer Success Manager pour accompagner un programme de décommissionnement d’un outil BI Client. Cette personne sera chargée de déployer le plan de Change Management et d’Adoption défini fin 2024. Le poste sera rattaché au domaine Customer Data, en étroite collaboration avec les Maisons du Groupe et les parties prenantes du client . Responsabilités Accompagner les utilisateurs métiers via des formations continues sur les activités de reporting client migrées vers Power BI, selon une approche « train-the-trainer » Animer les sessions de formation selon un planning, des audiences et des cas d’usage validés avec les leaders métiers S’appuyer sur le Product Owner du programme pour avoir une bonne visibilité sur la roadmap et les évolutions de reporting Maintenir un engagement utilisateur constant via du feedback régulier et des alertes Assurer un premier niveau de support fonctionnel aux key users Être garant des livrables de formation et de communication, et veiller à leur bonne exécution pour promouvoir la qualité de service, la gouvernance et la performance selon les méthodes et outils établis Assurer la continuité du service après l’adoption afin d’identifier des axes d’amélioration et des opportunités au bénéfice du métier Mesurer l’avancement global lié au plan de Change & Adoption via des KPI dédiés Développer d’excellentes relations avec les parties prenantes (équipes Digital & Tech) ainsi qu’avec les Maisons (équipes métiers et tech) pour maintenir un haut niveau de satisfaction Promouvoir une culture de transparence et un état d’esprit orienté Business

Démarrage
Durée 12 mois
TJM 700-750 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

Développeur Big Data Senior

FIRST CONSEIL

Le contexte : Au cœur de la transformation digitale de notre client qui révolutionne son approche en plaçant la data et le digital au centre de sa stratégie. Dans le cadre d'un projet majeur de transformation, nous recherchons un(e) Data Engineer Senior pour renforcer nos équipes pendant 12 mois minimum. Votre mission : Intégré(e) à nos équipes data, vous contribuerez à : Concevoir et développer des pipelines de données robustes pour nos projets de machine learning Optimiser nos architectures de traitement de données existantes Participer aux revues de code et au développement des bonnes pratiques Collaborer avec notre communauté d'experts (data scientists, engineers, devops) Assurer l'intégration de nouvelles sources de données Garantir la qualité technique des solutions déployées Les plus de cette mission : Projet stratégique à fort impact Environnement technique de pointe équipe data & tech expérimentée Exposition à des problématiques data complexes Opportunité de contribuer à la transformation digitale d'un leader de son marché

Démarrage Dès que possible
Durée 12 mois
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Développeur fullstack Symfony / Ux symfony

Pickmeup

Description du poste : Nous recherchons un(e) développeur(se) expérimenté(e) pour renforcer notre équipe tech. Vous travaillerez sur une stack moderne et participerez à des projets stratégiques pour notre marketplace. Environnement technique : Backend : PHP8 / Symfony 6 UX Symfony Cloud : AWS, GCP (BigQuery) Monitoring : Datadog CI/CD et tests : GitHub, Playwright Missions : 🚀 Accompagner une équipe de 4 développeurs et 2 Product Managers 📦 Refonte du catalogue produits 🧠 Mise en place de recommandations basées sur l’IA 🛠 Reconstruction des outils internes pour vendeurs et gestionnaires de comptes clients

Démarrage Dès que possible
Durée 3 mois
TJM 300-450 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data engineer

OMICRONE

📢 Offre d’Emploi – Data Engineer (Freelance) 🔎 Nous recherchons un Data Engineer expérimenté pour une mission passionnante au sein d’une équipe technique innovante dans un environnement Google Cloud Platform (GCP) . 🎯 Missions principales : ✔️ Développement et optimisation de pipelines de données (ETL/ELT) ✔️ Modélisation et industrialisation des données ✔️ Mise en place et évolution des indicateurs de performance ✔️ Optimisation des coûts et des performances sur BigQuery ✔️ Collaboration avec les équipes Data et Ops pour améliorer la plateforme 🛠 Stack technique : 🔹 Cloud : Google Cloud Platform (GCP) 🔹 Orchestration : Airflow 🔹 Modélisation : DBT (gestion de tables incrémentales) 🔹 CI/CD & Infra : GitLab CI/CD, Terraform, Terragrunt, Docker 🔹 Langages : SQL, Python 💡 Profil recherché : ✅ +5 ans d’expérience en Data Engineering ✅ Maîtrise des environnements GCP, BigQuery, Airflow et DBT ✅ Solides compétences en SQL et Python ✅ Expérience avec l’ industrialisation de pipelines et l’optimisation des performances ✅ Bonne connaissance des méthodes Agile (Scrum, Kanban) ✅ Esprit d’analyse, capacité à vulgariser et à collaborer avec les équipes métier 📍 Localisation : Paris (Présence sur site 50%) 📅 Démarrage : mi-avril

Démarrage Dès que possible
Durée 1 an
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France

Les métiers et les missions en freelance pour Google Analytics

Community manager / social media manager

Le/La Social Media Manager utilise Google Analytics pour suivre les performances des campagnes sur les réseaux sociaux et améliorer l'engagement des audiences.

Expert·e / Consultant·e SEO (référencement)

Le/La Consultant SEO utilise Google Analytics pour analyser les sources de trafic organique et optimiser le positionnement des sites web sur les moteurs de recherche.

Content manager

Le/La Content Manager utilise Google Analytics pour identifier les contenus les plus populaires et ajuster la stratégie éditoriale en fonction des données.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous