Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Ingénieur BigData GCP Hadoop Spark-KARMA MoveToCloud
En tant qu’Ingénieur(e) Move To Cloud, vous intégrerez l’équipe KARMA Move To Cloud pour piloter la migration du système de Revenue Management KARMA, vers Google Cloud Platform (GCP). Vos missions incluront : Migration des workloads Hadoop /Spark vers GCP ( Dataproc, BigQuery, GCS ). Développement et optimisation de pipelines de données. Mise en œuvre d’infrastructures avec Terraform et automatisation via Github Actions. Collaboration avec l’équipe pour assurer une transition fluide et performante..
Analytics Engineer / Data Engineer GCP | Télétravail Hybride

Nous recherchons un Data Engineer pour rejoindre une équipe technique travaillant sur un produit data clé permettant la mise à disposition des données pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientée DBT, Airflow, BigQuery et Terraform . Missions Concevoir, développer et maintenir les pipelines de données Développer des modèles de données optimisés pour l’analyse et le reporting Assurer la qualité et la fiabilité des indicateurs et métriques utilisés par les équipes métier Auditer, cartographier et optimiser les données existantes pour une meilleure performance et gouvernance Collaborer avec les équipes techniques et fonctionnelles pour améliorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique
Développeur full stack sénior Java / Vuejs
Nous sommes à la recherche d'un développeur expert Java (backend) / vueJS (frontend) pour notre client retail à Lille. Le consultant sera en charge de: Réaliser du Build et du Run sur des produits digitaux comprenant des API, du front-end et du back-end. Travailler en mode agile avec l'équipe de développement, le PO, les OPS et les équipes transverses. Livrer et commiter du code source tout en étant garant de sa qualité. Rédiger la documentation nécessaire pour faciliter la compréhension de son code. Effectuer des revues de code avec les autres développeurs. Suivre des formations pour améliorer ses compétences en sécurité au sein de son code. Réaliser, en collaboration avec l'équipe OPS, des tâches d'observabilité.
Product Owner / Product Manager - Lille
MISSION: - Au sein du domaine Service Provider, en tant que Product Manager (PM), tu rejoins l'équipe onboarding et configuration des providers. - Ton objectif est de réduire le lead time et les opérations manuelles, pour onboarder et configurer des providers. - Tes premiers chantiers seront : devenir le master data des providers, automatiser la validation des documents envoyés par les providers, créer le système d'alertes quand la validité des documents expire. - Tu auras dans ton périmètre les outils back et front à destination des providers et des opérateurs. - Tu as un profil analytique : tu connais parfaitement la data de ton produit, et tu cherches à améliorer en continue tes KPI. - Tu es orienté résultat : Tu organises tes sprints de manière à délivrer de la valeur à chaque sprint. - Pour cela tu t'appuieras sur des équipes d'experts technique (TechLead et dev), Data, et UX.
Business Analyst Technique DATA – Expertise SQL, Cloud & Agile

Dans le cadre de plusieurs projets liés à la gestion et à l’exploitation des données, nous recherchons un Business Analyst Technique spécialisé en DATA . Vous interviendrez sur des sujets variés nécessitant une bonne compréhension des environnements techniques et des besoins métier . Vos missions Analyser et formaliser les besoins en data en lien avec les équipes métier et techniques. Rédiger des user stories , définir les DoR / DoD et structurer le backlog produit . Coordonner avec les équipes de développement pour s’assurer de la pertinence des solutions mises en place. Effectuer des requêtes SQL sur Oracle et BigQuery pour extraire et manipuler les données. Contribuer aux tests et à la validation des solutions livrées. Travailler dans un cadre Agile en interaction avec les différentes parties prenantes.
Ingénieur DevOps

Dans le cadre d’un programme de modernisation technologique au sein d’un grand groupe du secteur de la grande distribution, Archytas Conseil recherche un(e) consultant(e) DevOps pour intervenir sur une plateforme de données de nouvelle génération, pensée autour d’une architecture data-centric . L’ambition du projet : décloisonner les flux d'information, fiabiliser les traitements temps réel, et accompagner la montée en puissance d'une plateforme cloud résiliente et scalable. Vous interviendrez au sein de l’équipe data/tech pour : concevoir, déployer et maintenir des solutions DevOps performantes, robustes et sécurisées industrialiser les processus de CI/CD (intégration et livraison continues) automatiser le déploiement d’infrastructures via Terraform et assurer leur maintenance piloter les environnements de conteneurisation avec Kubernetes gérer les flux temps réel à l’aide de Kafka déployer les solutions sur Google Cloud Platform (GCP) ou environnement équivalent mettre en place des outils de supervision (Prometheus, Grafana, ELK) participer activement à la démarche d’amélioration continue (performances, fiabilité, sécurité) collaborer étroitement avec les équipes développement et data engineering
Data Engineer GCP & JAVA

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Le candidat devra être autonome tout au long de la mission Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform Connaissance de Dataform ou DBT
Consultant Analytique

- Accompagner les équipes de la Communication et de la marque dans l'expression et la priorisation de leurs besoins en matière de suivi de performance. - Faire évoluer et mettre en œuvre les dashboards, rapports et analyses permettant aux métiers de soutenir les actions d'amélioration continue et le suivi de performance. - Vérifier et mettre à jour, si nécessaire, les spécifications requises pour la bonne implémentation du tracking analytics. - Contribuer à la roadmap d'amélioration continue grâce à des analyses pertinentes et actionnables. Accompagner les équipes de la Communication à l’utilisation de Piano via des sessions de prise en main et de Q&A. MISSION : 1/ Mise en place des outils d'analyse - Valider les indicateurs clés de performance (KPI) existants pour évaluer la pertinence des contenus éditoriaux. - Refondre les outils de suivi et de mesure d’audience pour les métiers (dashboards). - Vérifier le plan de marquage existant, le faire évoluer si besoin et assurer sa bonne implémentation technique. - Accompagner les métiers dans l’utilisation de Piano. 2/ Collecte et analyse des données - Accompagner l’industrialisation de l’analyse des statistiques de fréquentation des pages éditoriales. - Identifier les sources de trafic, le parcours utilisateur et les contenus les plus performants. - Étudier les interactions des visiteurs avec la descente produit du site et détecter les points de friction. 3/ Préconisations et optimisation - Accompagner les équipes éditoriales dans l’interprétation des résultats et l’application des améliorations. - Formuler des recommandations pour améliorer la partie éditoriale du site. - Conseiller sur les choix techniques afin d’optimiser la visibilité et l’engagement des visiteurs.
Développeur FullStack Node.JS/ DevOps GCP

Nous recherchons un Développeur FullstacK/DevOps GCP pour accompagner l'un de nos clients grands compte en métropole Lilloise dans le cadre de son plan de transformation. Vous justifiez d'une expérience de plus de 6 ans en tant que Développeur FullStack et avec une expérience significative sur des activités DevOps. En tant que Développeur FS / DevOps vous intervenez à la fois sur des tâches de Build et Run en ayant comme objectif de garantir le meilleur service aux métiers pour lesquels vous intervenez. Clean code, Sécurité et performance rythme votre quotidien.
Consultant Métier / Business Analyst

Missions principales Cadrage et analyse : Animation d’ateliers, collecte des besoins, rédaction des spécifications fonctionnelles et techniques. Gestion du backlog : Rédaction des User Stories, critères d'acceptation (DoR, DoD), suivi du développement et validation des livrables. Pilotage et suivi : Coordination entre les équipes métier et techniques, mise en place des plans de tests et validation des solutions. Expertise Data : Conception et optimisation des flux de données, requêtage SQL, gestion des bases de données relationnelles et non relationnelles. Amélioration continue : Proposition de solutions innovantes, amélioration des performances et garantie de la qualité des livrables.
IED Full stack NodeJS/ VueJS confirmé
Nous sommes actuellement à la recherche d’un ingénieur en études et développement full stack pour une mission de longue durée au sein de l’un de nos clients finaux basé à Lille. Le profil recherché devra avoir une maîtrise avancée de Node.js et Vue.js , avec une bonne maitrise de Google Cloud Platform (GCP) est également indispensable, notamment sur des services comme Cloud Functions et BigQuery . Le candidat doit être à l’aise avec les pratiques DevOps et SecOps , et savoir évoluer dans un écosystème orienté cloud et sécurité .
INGENIEUR DATA BI - GENIO

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
207342 : Consultant CI/CD Gitlab/Google Cloud (5XP ou plus) - 539
Contexte : Dans le cadre de l’amélioration de ses pratiques DevOps et DataOps sur Google Cloud Platform, le client recherche un(e) Consultant(e) Expert(e) CI/CD capable d’auditer l’existant et de concevoir une chaîne d’intégration et de déploiement continue unifiée pour les environnements Data et Applicatifs. Cette mission s’inscrit dans un contexte technique exigeant, mêlant infrastructure as code, déploiement multi-stack (Java, JS/React, BigQuery), conteneurisation, automatisation avancée avec GitLab CI, et supervision via Splunk. L’objectif est d’industrialiser et de fiabiliser les livraisons tout en accompagnant la montée en compétences des équipes internes. Missions : Auditer les pratiques actuelles et proposer une architecture cible détaillée pour la chaîne CI/CD Data & App sur GCP. Concevoir et implémenter les pipelines dans GitLab CI pour automatiser : Le build, le test et le déploiement de l'Infrastructure as Code avec Terraform. Le déploiement et les tests des transformations BigQuery (SQL). Le build, le test et le déploiement d’applications JS et ReactJS (SFCC). Le build, le test et le déploiement d’applications Java (Mulesoft). Le build (via Cloud Build), le stockage (sur Artifact Registry) et le déploiement d'applications conteneurisées (Cloud Run, GKE si nécessaire). L'intégration de tests automatisés (unitaires, intégration, qualité des données. Proposer et implémenter le plus souvent possible de l’IA (Gemini 2.5 ou autre) pour simplifier et accélérer la CI/CD dans les domaines du code, du débug, des tests, de la documentation ou d’autres usages. Configurer et optimiser l'intégration entre GitLab CI et GCP (Runners sur GCE/GKE, gestion des secrets avec Secret Manager). Intégrer les fonctionnalités de Splunk Cloud pour assurer la visibilité et l'alerting sur les pipelines CI/CD et les assets déployés. Promouvoir et mettre en oeuvre les meilleures pratiques DevOps / DataOps (gestion des environnements dev/staging/prod, sécurité, reproductibilité). Accompagner et former les équipes internes (Data Engineers, Data Scientists) à l'utilisation et à la maintenance de la chaîne CI/CD. Documenter l'architecture, les processus et les configurations mis en place sur Atlassian Confluence. Compétences : Expertise confirmée en conception et mise en oeuvre de chaînes CI/CD complexes, avec une maîtrise approfondie de GitLab CI/CD. Solide expérience pratique sur Google Cloud, notamment avec les services suivants : Compute/Containers : GCE, GKE, Cloud Run, Cloud Build, Artifact Registry. Stockage/Base de données : GCS, BigQuery, Cloud SQL. Traitement/Orchestration : Dataform, Airflow, Pub/Sub. Opérations & Sécurité : Splunk, IAM, Secret Manager. Maîtrise indispensable de Terraform pour l'Infrastructure as Code sur Google Cloud.. Excellentes compétences en scripting, particulièrement en Python. La connaissance de Shell est également nécessaire. Expérience significative avec la conteneurisation (Docker). Compréhension solide des principes et enjeux du Data Engineering et du DataOps. Habitué(e) aux outils de développement modernes : Git, VS Code. Excellentes capacités de communication, d'analyse et de résolution de problèmes. Autonomie, proactivité et capacité à travailler en collaboration avec des équipes techniques
Architecte de Données (H/F)

Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Architecte de données , vous assurerez les missions suivantes : Conception et robustesse des architectures Data : -Concevoir des modèles de données dimensionnels et relationnels (modèles étoilés, en flocon) adaptés aux besoins analytiques et métiers. -Formaliser les architectures et processus à l'aide d'outils de modélisation tels que UML, Modèle Entité-Relation (ER), BPMN et ArchiMate. -Déployer des standards de versionnement basés sur Semver pour une gestion rigoureuse des évolutions des produits data. -Optimisation et gouvernance des données : -Assurer une gestion robuste des produits data dans un cadre contractuel basé sur les principes ODCS (Open Digital Contract Standards). Optimiser les pipelines et requêtes BigQuery avec des techniques avancées comme le partitionnement, le clustering et les vues matérialisées. -Intégration et gestion des produits Data Mesh : -Collaborer avec les équipes Cloud et métier pour construire un Data Mesh fédéré, garantissant l'interopérabilité et la gouvernance des données. -Définir des API contractuelles robustes pour aligner les produits sur les besoins métier et garantir leur scalabilité. Modélisation des processus métiers : -Utiliser BPMN pour cartographier, analyser et optimiser les workflows métier en lien avec les données et les produits livrés. -Garantir la cohérence entre les processus métier et les architectures techniques proposées. Pilotage technique et encadrement : -Encadrer une équipe de Data Engineers utilisant Semarchy et DBT pour transformer les données en BigQuery. -Mettre en place des méthodologies agiles pour assurer une livraison rapide et de qualité des produits data. Sécurité et conformité : -Implémenter des contrôles stricts pour sécuriser les flux de données et garantir leur conformité aux standards de sécurité avancés. -Intégrer les principes de sécurité dans les contrats ODCS pour anticiper et mitiger les risques. La stack technique : Certifications : TOGAF obligatoire, CISSP souhaitée, certifications GCP et Semarchy appréciées. Logiciels : UML, ER, BPMN, ArchiMate ou équivalents.
Développeur Java GCP Lille

Lieu : Lille, 2 jours de télétravail/semaine possible Démarrage souhaité : ASAP Durée : 6 mois renouvelables Contexte : Refonte technique de l'orchestration de la Supply Chain Contexte de la mission Dans le cadre de la modernisation de son infrastructure, notre client du secteur retail mène une refonte de l'orchestration Supply Chain. Cette transformation repose sur la migration de ses solutions de traitement tarifaire vers des architectures cloud natives basées sur Google Cloud Platform (GCP). Pour cela, l'équipe technique recherche un Développeur Java confirmé, à l'aise avec les environnements GCP, les microservices et les pratiques de développement modernes. Vos missions Développement Java & architecture logicielle Concevoir et développer des orchestrations Java robustes et modulaires Travailler sur des microservices avec Spring Boot / Spring Cloud Refondre les applications existantes vers une architecture cloud native Intégration Google Cloud Platform Implémenter les services GCP : Compute Engine, Kubernetes Engine, Pub/Sub, BigQuery, Cloud Functions, etc. Optimiser l’infrastructure cloud existante pour la performance, la scalabilité et la sécurité Participer à la mise en place de pipelines CI/CD et à l’automatisation des déploiements Collaboration & qualité Travailler en collaboration avec les équipes Produit, QA, DevOps Participer aux revues de code et à l’amélioration continue Mettre en place des tests automatisés (unitaires, intégration) Contribuer à l’optimisation des performances applicatives Environnement technique Java 17+, Spring Boot, Spring Cloud GCP : BigQuery, Pub/Sub, Cloud Functions, Kubernetes Engine CI/CD : Jenkins, GitLab, Docker, Terraform Monitoring & optimisation de la performance applicative
Data engineer confirmé
Nous sommes à la recherche d'un data engineer confirmé pour notre client final à Lille. Les missions principales sont: Développer et maintenir les flux de données provenant de divers produits digitaux (Stambia/BigQuery). Implémenter les modifications dans les dataviz (PowerBI) Gérer la dette technique afin d'assurer la fiabilité de nos outils. Optimiser les performances des processus de traitement des données. Assurer la supervision et l'intégration des données de différentes natures provenant de multiples sources, tout en vérifiant la qualité des données entrant dans le Data Lake (en validant les données, en éliminant les doublons, etc.). Collaborer avec les équipes métiers et techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- LMNP + nouvelle activité devil y a 2 heures
- 12 ans d'experience data, 450e tjil y a 2 heures
- Valoriser des travaux R&D faits soi-même sans salairesil y a 4 heures
- Mon TJM est-il trop élevé pour mon expérience ?il y a 4 heures
- Question poste archivéil y a 4 heures
- 10 ans d'exp pour TJM 500il y a 4 heures