Trouvez votre prochaine offre d’emploi ou de mission freelance Google Analytics
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Développeur Full Stack (H/F)
Notre client, grand compte retail de la région, cherche un(e) développeur full stack pour compléter une feature team en charge de développer et maintenir des configurateurs produit notamment en 3D pour l'ensemble des enseignes du groupe SES COMPETENCES : - configurer l'infrastructure matérielle et le système d'exploitation ainsi que les dépendances entre les différents composants logiciels à utiliser ; - concevoir, manipuler et interroger des bases de données ; - concevoir le code de 'back-end' et les API d'accès à ces données sous forme de webservices, en utilisant des langages tels que Java, Python, Ruby, PHP ; - concevoir le code de 'front-end' qui est exécuté sur la plate-forme de l'utilisateur, le plus souvent un smartphone ou un navigateur Web, dans des langages tels que Javascript et ses bibliothèques, HTML, CSS ; - être capable de gérer et planifier un projet avec des méthodes de développement agiles telles que Scrum ou Kanban, pouvoir interagir avec le client et ses besoins, et documenter l'ensemble des parties du projet.

Offre d'emploi
Engineering Manager (H/F)
Nous recherchons pour notre client un Engineering Manager expérimenté pour l'équipe Connectivité, afin de concevoir, diriger et faire évoluer notre plateforme de connectivité et tous ses composants. Ce rôle clé consistera à bâtir une infrastructure robuste et évolutive permettant l'intégration de données et de services provenant de multiples partenaires. En tant qu'Engineering Manager, vous combinerez expertise en environnements distribués (traitement et stockage des données) et compétences en leadership pour développer une plateforme de référence. Responsabilités principales Conception et développement de la plateforme - Concevoir et mettre en oeuvre une architecture de plateforme distribuée et évolutive capable de gérer de grands volumes de données en temps réel. - Développer des connecteurs robustes pour intégrer des API et services tiers (Amadeus Hospitality, Sabre, etc.), facilitant la gestion des offres connectées avec les fournisseurs (tarification et stocks). - Optimiser les performances de traitement (latence, disponibilité, résilience) tout en garantissant la sécurité des flux de données. - Superviser le traitement et le stockage des données dans des environnements distribués. Leadership d'équipe - Diriger et encadrer une équipe d'ingénieurs logiciels en favorisant une culture d'innovation et d'excellence technique. - Collaborer avec des équipes interfonctionnelles pour aligner les solutions techniques aux objectifs commerciaux. - Gérer les priorités des projets, les ressources et les délais dans un environnement Agile. Planification stratégique - Contribuer à la stratégie technique à long terme de la plateforme de connectivité. - Se tenir informé des tendances du secteur et des nouvelles technologies en systèmes distribués et intégration de données.

Mission freelance
Développeur FullStack
Développeur FullStack C/Pro C/BASH/Shell Contexte Dans le cadre d’un projet stratégique, nous recherchons un Développeur FullStack expérimenté en C, Pro C et BASH/Shell pour assurer le développement et la maintenance d’applications critiques. Missions: Développement et maintenance en C, Pro C et BASH/Shell Analyse des besoins fonctionnels et techniques Développement des User Stories (JIRA) et correction des anomalies Relecture de code (Peer Review) et corrections Gestion des obsolescences techniques et recodage si nécessaire Mise à jour des versions système et logicielles Rédaction de documentation technique Réalisation de tests unitaires et d’intégration Participation aux réunions Agile (SCRUM) Support technique et gestion des incidents Astreinte d’une semaine par mois sur une application stratégique Livrables Attendues: Code source documenté sur GitLab Spécifications techniques et procédures User Stories et cahiers de tests unitaires

Mission freelance
Devops - Cloud engineer
En tant que Devops/cloud engineer, vous serez responsable de : La mise en place et l'optimisation de notre infrastructure as code avec Terraform sur GCP Le déploiement et la gestion de clusters Google Kubernetes Engine (GKE) L'automatisation des processus de déploiement et d'infrastructure La mise en place des bonnes pratiques DevOps et SRE L'amélioration continue de notre plateforme cloud Livrables Attendus Infrastructure as Code complète et documentée sur Terraform Clusters GKE optimisés et sécurisés Documentation technique détaillée Processus d'automatisation des déploiements Mise en place des bonnes pratiques et standards

Offre d'emploi
Data Engineer Finops
À propos de l’entreprise Spécialisée dans l’analyse et l’activation des données issues de la grande distribution, l'entreprise développe des solutions technologiques innovantes permettant aux industriels d’engager leurs consommateurs grâce à l’ultra personnalisation et au gaming. Grâce à des technologies avancées en intelligence artificielle et en data engineering, ils offrent des solutions performantes d’animation e-commerce adaptées aux enjeux du secteur. Descriptif du poste Face à une forte croissance et à des ambitions d’expansion à l’international, nous renforçons notre équipe data en recrutant un Data Ops spécialisé en finops (H/F) . 📌 Missions principales Sous la responsabilité du Lead Infra , vous aurez pour mission de : Assurer la scalabilité et la fiabilité des services utilisant la donnée face à une forte croissance des volumes. Gérer l’ensemble des pipelines de données, processus ETL et transformations, avec des tests automatisés et manuels. Optimiser les services existants pour améliorer les performances et réduire les coûts. Être force de proposition sur les choix d’architecture et les innovations technologiques. Collaborer avec les différentes équipes (marketing, R&D, produit, finance) pour garantir la cohérence des projets. Assurer un reporting rigoureux des activités et résultats. 📌 Compétences requises Maîtrise d’un ou plusieurs langages structurés (Python, JavaScript, Java, C/C++, Scala…). Expérience avec les bases de données SQL et NoSQL. Connaissance des technologies Big Data et de la Modern Data Stack (dbt, Airflow…). Expérience sur une plateforme Cloud (GCP, Azure, AWS). Sensibilité aux enjeux FinOps et optimisation des coûts. Capacité à collaborer avec différentes disciplines et équipes.

Mission freelance
Consultant DevOps Confirmé
Nous recherchons pour notre client un Consultant DevOps confirmé. L’objectif est de renforcer l’équipe DevOps en charge de la modernisation des infrastructures et des déploiements applicatifs. Le consultant interviendra sur l’automatisation des processus, l’optimisation des performances et la gestion des environnements Cloud et CI/CD. Compétences Recherchées : Infrastructure & Cloud : Kubernetes, Docker, Terraform, Ansible, CI/CD (Jenkins, GitLab CI) Langages : Python, Bash Supervision & Sécurité : Prometheus, ELK, Dynatrace Environnements : Linux, Cloud (GCP, Azure)

Mission freelance
Un Architecte Solution GCP et GKE (Google Kubernetes Engine) sur Nantes
Smarteo recherche pour l'un de ses clients, Un Architecte Solution GCP et GKE sur Nantes Description: Expertise en conception et déploiement de solutions sur Google Kubernetes Engine (GKE). Connaissance approfondie des services Google Cloud Platform (GCP). Expérience en architecture de microservices et conteneurisation (Docker, Kubernetes). Compétences en sécurité des applications cloud et gestion des identités. Capacité à fournir des solutions évolutives et résilientes. Expérience souhaitée en migration progressive de systèmes existants avec la mise en œuvre de modèle tels que le Strangler Pattern ou l'utilisation du DDD (Domain Driven Design) Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Mission freelance
Big Data Developer - GCP
Mission Développeur Big Data GCP - Intégration Équipe Moove to Cloud Rejoignez notre équipe dynamique pour une mission passionnante de migration vers le Cloud GCP. En tant que Développeur Big Data, vous serez au cœur de l'intégration de l'équipe Moove to Cloud. Vous travaillerez sur des projets variés utilisant Java 8 et 11, en développant des modules Hadoop MapReduce et en exploitant Python pour des tâches spécifiques. Vous maîtriserez Spring Boot pour créer des applications robustes et utiliserez Adobe Spark pour des visualisations de données percutantes. Vous évoluerez dans un environnement GCP, exploitant BigQuery pour des analyses de données massives. Vous assurerez la gestion des versions avec Git et Bitbucket, tout en veillant à la sécurité des données grâce à des pratiques cybernétiques avancées. Vous adopterez une méthodologie Agile Scrum, favorisant la collaboration et l'efficacité au sein de l'équipe. Cette mission offre une opportunité unique de contribuer à des projets innovants tout en renforçant vos compétences en développement et en gestion de données.
Mission freelance
Product Owner Data/BI GCP
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique qui maitrise l’environnement GCP – BigQuery (obligatoire). Vous avez une bonne connaissance de PowerBI dans l’idéal. Vous êtes rompus aux techniques de l’agilité SAFe et Scrum. Démarrage : mi-mars Lieu : Paris intra-muros Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Scope de la mission : Gestion de la Backlog : Prendre en charge la backlog autour de notre Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins de nos métiers Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité Amélioration continue : Piloter le plan d’amélioration des performances de notre Dataplatform, de la qualité de nos programmes, de notre stratégie de test et de réduction des couts Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI

Mission freelance
Data Engineer
Cahiers de test Suivi d'avancement Dashbords / Explore Looker Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif SAP BI 4.2 (Univers et rapport ) - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Français Courant (Impératif) Description détaillée Le client a lancé un programme de migration de l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports SAP BO (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU.

Mission freelance
Data Engineer Big Query/GCP
Nous recherchons pour notre client un Data Engineer Big Query/GCP. Missions de l'équipe : - Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs - Accompagner les utilisateurs de Data4All dans leurs usages - Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes - Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consistera à participer à/au(x) : - La mise en place de pipelines de traitement de données - Développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - Différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP

Offre d'emploi
Data Engineer GCP, Scala/Java Confirmé | Casabalanca 100% Remote
Nous recherchons un Data Engineer Confirmé (h/f) pour rejoindre les équipes Data d’un grand acteur du retail . L’objectif ? Concevoir, développer et maintenir des solutions de traitement de données à grande échelle dans un environnement 100% Cloud (GCP) et Full Remote . Tu évolueras dans un cadre stimulant où la data est au cœur des décisions stratégiques et où l’innovation technologique est une priorité ! Concevoir et développer des pipelines de données en Scala/Java et Spark Exploiter des outils GCP (BigQuery, BigTable, Dataproc) pour le stockage et le traitement des données Mettre en place des solutions de streaming en temps réel avec Kafka Travailler sur une architecture Data Centric , cassant les silos d’information pour fluidifier la gestion des données Assurer la qualité, la performance et la scalabilité des solutions Collaborer avec des équipes internationales et multidisciplinaires 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, BigTable, Dataproc, Cloud Storage) Développement : Scala, Java, SQL Big Data & Streaming : Spark, Kafka CI/CD & DevOps : Git, Kubernetes, GitLab CI/CD Méthodologies : Agile, Microservices

Mission freelance
Data Engineer GCP SSIS (Google Cloud Platform)
Je recherche pour un de mes clients un Data Engineer GCP ayant des connaissances sur SSIS afin d' accompagner ce dernier dans le RUN SSIS et la migration sur GCP. Vous intégrer une équipe Hyper sympa. Vous participerez à l’analyse et planification de la migration SQL Serveur (on prem) vers GCP Experience avec Data Form Expérience dans la mise en place de pipeline ETL et ELT Maitrise des langages SQL et Python travailler en équipe et excellente compétence en communication Connaissance de SQL serveur serait un plus Certification GCP est un plus Capacité au former et faire monter une équipe en compétence sur GCP

Mission freelance
Architecte technique IT
Nous recherchons pour l'un de nos clients un Architecte technique IT. L’architecte technique est le garant du design détaillé de la solution d'infrastructure et il fait valider ses designs lors d’étapes de gouvernance auprès du management. Il est aussi amené à déployer lui-même des PoC dans le cadre d'étude de nouvelles solutions, notamment il étudie et propose des évolutions sur les designs des services d'infrastructure (landing zone cloud, clusters Kubernetes et ecosystème, redondance, disaster recovery plan, authentification, réseau et firewalling, stockage, … ). Expertise attendue : Azure (Services de base : EntraID, Network, Compute, Database, Storage, …) (Conception et déploiement) (Bon niveau) GCP (Services de base) (Niveau débutant ou plus) Kubernetes / AKS / GKE (Niveau débutant ou plus) Infra as code (Expérience concrète)

Mission freelance
Architecte Solution Big Data / RAG (H/F)
Notre client grand compte recherche un architecte Big Data. Notre client développe une plateforme basée sur des agents intelligents tel que les agents de type Retrieval-Augmented Generation (RAG), dans un environnement Google Cloud Platform (GCP). Cette plateforme doit permettre aux utilisateurs métiers de créer et de personnaliser des assistants et des workflows utilisant l'IA générative pour améliorer nos processus et systèmes d'information (SI) existants. Le Solution Architecte va s’intégrer dans une équipe de plusieurs personnes. Le développement est réalisé en Python et Java. Les composants techniques sont réalisés dans une architecture micro-services exposés en partie à l’ensemble de l’entreprise. L’objet de la prestation sera de renforcer l’équipe « plateforme self-service d’agents GenAI » Les activités concernent principalement : • l’évolution et la maintenance de l’architecture des briques de gestion d’assistants, de gestion de la sécurité et de routing vers les services d’IA du marché • l’intégration de nouveaux services d’agent dans l’architecture existante, • l’amélioration et l’optimisation des composants d’ingestion de données non structurées et des agents RAG

Mission freelance
Architecte DATA expert GCP (mission courte)
Dans le cadre de son plan de transformation notre client recherche un profil Architecte DATA/ Expert GCP ayant également une expertise en modélisation et des compétences Power BI pour accompagner l’équipe DSI et métier dans le démarrage de sa data plateforme. Missions : Expertise architecture Data / Modélisation Garantir la performance et la qualité des données mises à disposition pour la DataViz Assurer la gouvernance et la cohérence des données (gestion des accès, conformité, catalogage). Définir l’architecture cible assurant une haute disponibilité et une performance optimale. Veille technologique et recommandations sur les meilleures pratiques Cloud & BI adaptées aux besoins métier. Assurer un accompagnement technique pour le choix des solutions d’ingestion de donnés dans bigQuery Produire les documents d’architecture générale et technique Émettre des recommandations priorisées, chiffrées et argumentées en termes de ROI/Bénéfice. Documentation rigoureuse des étapes clés du projet (DAT, PTI, DEX…). Développement et optimisation Expert de l’environnement GCP (BigQuery, dataform, Terraform) Maitrise de Power BI et de l’optimisation des performances des modèles Power BI (DAX, VertiPaq, Power Query). Assurer un accompagnement technique Sécurité et conformité Implémenter les meilleures pratiques en matière de gestion des accès et autorisations. Sécuriser les flux de données et garantir la conformité aux réglementations en vigueur (RGPD, best practices cloud). Définir et mettre en place une stratégie de sauvegarde et récupération des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Google Analytics
Community manager / social media manager
Le/La Social Media Manager utilise Google Analytics pour suivre les performances des campagnes sur les réseaux sociaux et améliorer l'engagement des audiences.
Explorez les offres d'emploi ou de mission freelance pour Community manager / social media manager .
Découvrir les offresExpert·e / Consultant·e SEO (référencement)
Le/La Consultant SEO utilise Google Analytics pour analyser les sources de trafic organique et optimiser le positionnement des sites web sur les moteurs de recherche.
Explorez les offres d'emploi ou de mission freelance pour Expert·e / Consultant·e SEO (référencement) .
Découvrir les offresContent manager
Le/La Content Manager utilise Google Analytics pour identifier les contenus les plus populaires et ajuster la stratégie éditoriale en fonction des données.
Explorez les offres d'emploi ou de mission freelance pour Content manager .
Découvrir les offres