Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 60 résultats.
Freelance

Ingénieur BigData GCP Hadoop Spark-KARMA MoveToCloud

CONSULT IT

En tant qu’Ingénieur(e) Move To Cloud, vous intégrerez l’équipe KARMA Move To Cloud pour piloter la migration du système de Revenue Management KARMA, vers Google Cloud Platform (GCP). Vos missions incluront : Migration des workloads Hadoop /Spark vers GCP ( Dataproc, BigQuery, GCS ). Développement et optimisation de pipelines de données. Mise en œuvre d’infrastructures avec Terraform et automatisation via Github Actions. Collaboration avec l’équipe pour assurer une transition fluide et performante..

Démarrage Dès que possible
Durée 12 mois
TJM 550-600 €⁄j
Télétravail Télétravail partiel
Lieu Valbonne, Provence-Alpes-Côte d'Azur
CDI
Freelance

Analytics Engineer / Data Engineer GCP | Télétravail Hybride

skiils

Nous recherchons un Data Engineer pour rejoindre une équipe technique travaillant sur un produit data clé permettant la mise à disposition des données pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientée DBT, Airflow, BigQuery et Terraform . Missions Concevoir, développer et maintenir les pipelines de données Développer des modèles de données optimisés pour l’analyse et le reporting Assurer la qualité et la fiabilité des indicateurs et métriques utilisés par les équipes métier Auditer, cartographier et optimiser les données existantes pour une meilleure performance et gouvernance Collaborer avec les équipes techniques et fonctionnelles pour améliorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique

Démarrage Dès que possible
Durée 2 ans
Télétravail Télétravail partiel
Lieu France
Offre premium
Freelance

Développeur full stack sénior Java / Vuejs

CONSULT IT

Nous sommes à la recherche d'un développeur expert Java (backend) / vueJS (frontend) pour notre client retail à Lille. Le consultant sera en charge de: Réaliser du Build et du Run sur des produits digitaux comprenant des API, du front-end et du back-end. Travailler en mode agile avec l'équipe de développement, le PO, les OPS et les équipes transverses. Livrer et commiter du code source tout en étant garant de sa qualité. Rédiger la documentation nécessaire pour faciliter la compréhension de son code. Effectuer des revues de code avec les autres développeurs. Suivre des formations pour améliorer ses compétences en sécurité au sein de son code. Réaliser, en collaboration avec l'équipe OPS, des tâches d'observabilité.

Démarrage Dès que possible
Durée 3 ans
TJM 510 €⁄j
Télétravail Télétravail partiel
Lieu Hauts-de-France, France
Freelance
CDI

Product Owner / Product Manager - Lille

Codezys

MISSION: - Au sein du domaine Service Provider, en tant que Product Manager (PM), tu rejoins l'équipe onboarding et configuration des providers. - Ton objectif est de réduire le lead time et les opérations manuelles, pour onboarder et configurer des providers. - Tes premiers chantiers seront : devenir le master data des providers, automatiser la validation des documents envoyés par les providers, créer le système d'alertes quand la validité des documents expire. - Tu auras dans ton périmètre les outils back et front à destination des providers et des opérateurs. - Tu as un profil analytique : tu connais parfaitement la data de ton produit, et tu cherches à améliorer en continue tes KPI. - Tu es orienté résultat : Tu organises tes sprints de manière à délivrer de la valeur à chaque sprint. - Pour cela tu t'appuieras sur des équipes d'experts technique (TechLead et dev), Data, et UX.

Démarrage Dès que possible
Durée 6 mois
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance

Business Analyst Technique DATA – Expertise SQL, Cloud & Agile

CAT-AMANIA

Dans le cadre de plusieurs projets liés à la gestion et à l’exploitation des données, nous recherchons un Business Analyst Technique spécialisé en DATA . Vous interviendrez sur des sujets variés nécessitant une bonne compréhension des environnements techniques et des besoins métier . Vos missions Analyser et formaliser les besoins en data en lien avec les équipes métier et techniques. Rédiger des user stories , définir les DoR / DoD et structurer le backlog produit . Coordonner avec les équipes de développement pour s’assurer de la pertinence des solutions mises en place. Effectuer des requêtes SQL sur Oracle et BigQuery pour extraire et manipuler les données. Contribuer aux tests et à la validation des solutions livrées. Travailler dans un cadre Agile en interaction avec les différentes parties prenantes.

Démarrage Dès que possible
Durée 1 an
TJM 400-520 €⁄j
Télétravail Télétravail 100%
Lieu Île-de-France, France
CDI
Freelance

Ingénieur DevOps

Archytas Conseil

Dans le cadre d’un programme de modernisation technologique au sein d’un grand groupe du secteur de la grande distribution, Archytas Conseil recherche un(e) consultant(e) DevOps pour intervenir sur une plateforme de données de nouvelle génération, pensée autour d’une architecture data-centric . L’ambition du projet : décloisonner les flux d'information, fiabiliser les traitements temps réel, et accompagner la montée en puissance d'une plateforme cloud résiliente et scalable. Vous interviendrez au sein de l’équipe data/tech pour : concevoir, déployer et maintenir des solutions DevOps performantes, robustes et sécurisées industrialiser les processus de CI/CD (intégration et livraison continues) automatiser le déploiement d’infrastructures via Terraform et assurer leur maintenance piloter les environnements de conteneurisation avec Kubernetes gérer les flux temps réel à l’aide de Kafka déployer les solutions sur Google Cloud Platform (GCP) ou environnement équivalent mettre en place des outils de supervision (Prometheus, Grafana, ELK) participer activement à la démarche d’amélioration continue (performances, fiabilité, sécurité) collaborer étroitement avec les équipes développement et data engineering

Démarrage Dès que possible
Durée 12 mois
Salaire 10k-30k €⁄an
TJM 100-300 €⁄j
Télétravail Télétravail 100%
Lieu Maroc
Freelance

Data Engineer GCP & JAVA

IDEMYS

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Le candidat devra être autonome tout au long de la mission Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform Connaissance de Dataform ou DBT

Démarrage Dès que possible
Durée 1 an
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Consultant Analytique

ESENCA

- Accompagner les équipes de la Communication et de la marque dans l'expression et la priorisation de leurs besoins en matière de suivi de performance. - Faire évoluer et mettre en œuvre les dashboards, rapports et analyses permettant aux métiers de soutenir les actions d'amélioration continue et le suivi de performance. - Vérifier et mettre à jour, si nécessaire, les spécifications requises pour la bonne implémentation du tracking analytics. - Contribuer à la roadmap d'amélioration continue grâce à des analyses pertinentes et actionnables. Accompagner les équipes de la Communication à l’utilisation de Piano via des sessions de prise en main et de Q&A. MISSION : 1/ Mise en place des outils d'analyse - Valider les indicateurs clés de performance (KPI) existants pour évaluer la pertinence des contenus éditoriaux. - Refondre les outils de suivi et de mesure d’audience pour les métiers (dashboards). - Vérifier le plan de marquage existant, le faire évoluer si besoin et assurer sa bonne implémentation technique. - Accompagner les métiers dans l’utilisation de Piano. 2/ Collecte et analyse des données - Accompagner l’industrialisation de l’analyse des statistiques de fréquentation des pages éditoriales. - Identifier les sources de trafic, le parcours utilisateur et les contenus les plus performants. - Étudier les interactions des visiteurs avec la descente produit du site et détecter les points de friction. 3/ Préconisations et optimisation - Accompagner les équipes éditoriales dans l’interprétation des résultats et l’application des améliorations. - Formuler des recommandations pour améliorer la partie éditoriale du site. - Conseiller sur les choix techniques afin d’optimiser la visibilité et l’engagement des visiteurs.

Démarrage Dès que possible
Durée 1 an
TJM 400-500 €⁄j
Lieu Lille, Hauts-de-France
Freelance
CDI

Développeur FullStack Node.JS/ DevOps GCP

HN SERVICES

Nous recherchons un Développeur FullstacK/DevOps GCP pour accompagner l'un de nos clients grands compte en métropole Lilloise dans le cadre de son plan de transformation. Vous justifiez d'une expérience de plus de 6 ans en tant que Développeur FullStack et avec une expérience significative sur des activités DevOps. En tant que Développeur FS / DevOps vous intervenez à la fois sur des tâches de Build et Run en ayant comme objectif de garantir le meilleur service aux métiers pour lesquels vous intervenez. Clean code, Sécurité et performance rythme votre quotidien.

Démarrage Dès que possible
Durée 1 an
Salaire 45k-50k €⁄an
TJM 400-440 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance
CDI

Consultant Métier / Business Analyst

Sapiens Group

Missions principales Cadrage et analyse : Animation d’ateliers, collecte des besoins, rédaction des spécifications fonctionnelles et techniques. Gestion du backlog : Rédaction des User Stories, critères d'acceptation (DoR, DoD), suivi du développement et validation des livrables. Pilotage et suivi : Coordination entre les équipes métier et techniques, mise en place des plans de tests et validation des solutions. Expertise Data : Conception et optimisation des flux de données, requêtage SQL, gestion des bases de données relationnelles et non relationnelles. Amélioration continue : Proposition de solutions innovantes, amélioration des performances et garantie de la qualité des livrables.

Démarrage Dès que possible
Durée 10 mois
Salaire 40k-70k €⁄an
TJM 420-620 €⁄j
Lieu Paris, France
Offre premium
Freelance

IED Full stack NodeJS/ VueJS confirmé

CONSULT IT

Nous sommes actuellement à la recherche d’un ingénieur en études et développement full stack pour une mission de longue durée au sein de l’un de nos clients finaux basé à Lille. Le profil recherché devra avoir une maîtrise avancée de Node.js et Vue.js , avec une bonne maitrise de Google Cloud Platform (GCP) est également indispensable, notamment sur des services comme Cloud Functions et BigQuery . Le candidat doit être à l’aise avec les pratiques DevOps et SecOps , et savoir évoluer dans un écosystème orienté cloud et sécurité .

Démarrage Dès que possible
Durée 2 ans
TJM 400 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance

INGENIEUR DATA BI - GENIO

PROPULSE IT

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Démarrage Dès que possible
Durée 24 mois
TJM 250-500 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

207342 : Consultant CI/CD Gitlab/Google Cloud (5XP ou plus) - 539

ISUPPLIER

Contexte : Dans le cadre de l’amélioration de ses pratiques DevOps et DataOps sur Google Cloud Platform, le client recherche un(e) Consultant(e) Expert(e) CI/CD capable d’auditer l’existant et de concevoir une chaîne d’intégration et de déploiement continue unifiée pour les environnements Data et Applicatifs. Cette mission s’inscrit dans un contexte technique exigeant, mêlant infrastructure as code, déploiement multi-stack (Java, JS/React, BigQuery), conteneurisation, automatisation avancée avec GitLab CI, et supervision via Splunk. L’objectif est d’industrialiser et de fiabiliser les livraisons tout en accompagnant la montée en compétences des équipes internes. Missions : Auditer les pratiques actuelles et proposer une architecture cible détaillée pour la chaîne CI/CD Data & App sur GCP. Concevoir et implémenter les pipelines dans GitLab CI pour automatiser : Le build, le test et le déploiement de l'Infrastructure as Code avec Terraform. Le déploiement et les tests des transformations BigQuery (SQL). Le build, le test et le déploiement d’applications JS et ReactJS (SFCC). Le build, le test et le déploiement d’applications Java (Mulesoft). Le build (via Cloud Build), le stockage (sur Artifact Registry) et le déploiement d'applications conteneurisées (Cloud Run, GKE si nécessaire). L'intégration de tests automatisés (unitaires, intégration, qualité des données. Proposer et implémenter le plus souvent possible de l’IA (Gemini 2.5 ou autre) pour simplifier et accélérer la CI/CD dans les domaines du code, du débug, des tests, de la documentation ou d’autres usages. Configurer et optimiser l'intégration entre GitLab CI et GCP (Runners sur GCE/GKE, gestion des secrets avec Secret Manager). Intégrer les fonctionnalités de Splunk Cloud pour assurer la visibilité et l'alerting sur les pipelines CI/CD et les assets déployés. Promouvoir et mettre en oeuvre les meilleures pratiques DevOps / DataOps (gestion des environnements dev/staging/prod, sécurité, reproductibilité). Accompagner et former les équipes internes (Data Engineers, Data Scientists) à l'utilisation et à la maintenance de la chaîne CI/CD. Documenter l'architecture, les processus et les configurations mis en place sur Atlassian Confluence. Compétences : Expertise confirmée en conception et mise en oeuvre de chaînes CI/CD complexes, avec une maîtrise approfondie de GitLab CI/CD. Solide expérience pratique sur Google Cloud, notamment avec les services suivants : Compute/Containers : GCE, GKE, Cloud Run, Cloud Build, Artifact Registry. Stockage/Base de données : GCS, BigQuery, Cloud SQL. Traitement/Orchestration : Dataform, Airflow, Pub/Sub. Opérations & Sécurité : Splunk, IAM, Secret Manager. Maîtrise indispensable de Terraform pour l'Infrastructure as Code sur Google Cloud.. Excellentes compétences en scripting, particulièrement en Python. La connaissance de Shell est également nécessaire. Expérience significative avec la conteneurisation (Docker). Compréhension solide des principes et enjeux du Data Engineering et du DataOps. Habitué(e) aux outils de développement modernes : Git, VS Code. Excellentes capacités de communication, d'analyse et de résolution de problèmes. Autonomie, proactivité et capacité à travailler en collaboration avec des équipes techniques

Démarrage
Durée 10 mois
TJM 500-570 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Architecte de Données (H/F)

Amiltone

Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Architecte de données , vous assurerez les missions suivantes : Conception et robustesse des architectures Data : -Concevoir des modèles de données dimensionnels et relationnels (modèles étoilés, en flocon) adaptés aux besoins analytiques et métiers. -Formaliser les architectures et processus à l'aide d'outils de modélisation tels que UML, Modèle Entité-Relation (ER), BPMN et ArchiMate. -Déployer des standards de versionnement basés sur Semver pour une gestion rigoureuse des évolutions des produits data. -Optimisation et gouvernance des données : -Assurer une gestion robuste des produits data dans un cadre contractuel basé sur les principes ODCS (Open Digital Contract Standards). Optimiser les pipelines et requêtes BigQuery avec des techniques avancées comme le partitionnement, le clustering et les vues matérialisées. -Intégration et gestion des produits Data Mesh : -Collaborer avec les équipes Cloud et métier pour construire un Data Mesh fédéré, garantissant l'interopérabilité et la gouvernance des données. -Définir des API contractuelles robustes pour aligner les produits sur les besoins métier et garantir leur scalabilité. Modélisation des processus métiers : -Utiliser BPMN pour cartographier, analyser et optimiser les workflows métier en lien avec les données et les produits livrés. -Garantir la cohérence entre les processus métier et les architectures techniques proposées. Pilotage technique et encadrement : -Encadrer une équipe de Data Engineers utilisant Semarchy et DBT pour transformer les données en BigQuery. -Mettre en place des méthodologies agiles pour assurer une livraison rapide et de qualité des produits data. Sécurité et conformité : -Implémenter des contrôles stricts pour sécuriser les flux de données et garantir leur conformité aux standards de sécurité avancés. -Intégrer les principes de sécurité dans les contrats ODCS pour anticiper et mitiger les risques. La stack technique : Certifications : TOGAF obligatoire, CISSP souhaitée, certifications GCP et Semarchy appréciées. Logiciels : UML, ER, BPMN, ArchiMate ou équivalents.

Démarrage Dès que possible
Salaire 40k-45k €⁄an
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
CDD

Développeur Java GCP Lille

Espritek

Lieu : Lille, 2 jours de télétravail/semaine possible Démarrage souhaité : ASAP Durée : 6 mois renouvelables Contexte : Refonte technique de l'orchestration de la Supply Chain Contexte de la mission Dans le cadre de la modernisation de son infrastructure, notre client du secteur retail mène une refonte de l'orchestration Supply Chain. Cette transformation repose sur la migration de ses solutions de traitement tarifaire vers des architectures cloud natives basées sur Google Cloud Platform (GCP). Pour cela, l'équipe technique recherche un Développeur Java confirmé, à l'aise avec les environnements GCP, les microservices et les pratiques de développement modernes. Vos missions Développement Java & architecture logicielle Concevoir et développer des orchestrations Java robustes et modulaires Travailler sur des microservices avec Spring Boot / Spring Cloud Refondre les applications existantes vers une architecture cloud native Intégration Google Cloud Platform Implémenter les services GCP : Compute Engine, Kubernetes Engine, Pub/Sub, BigQuery, Cloud Functions, etc. Optimiser l’infrastructure cloud existante pour la performance, la scalabilité et la sécurité Participer à la mise en place de pipelines CI/CD et à l’automatisation des déploiements Collaboration & qualité Travailler en collaboration avec les équipes Produit, QA, DevOps Participer aux revues de code et à l’amélioration continue Mettre en place des tests automatisés (unitaires, intégration) Contribuer à l’optimisation des performances applicatives Environnement technique Java 17+, Spring Boot, Spring Cloud GCP : BigQuery, Pub/Sub, Cloud Functions, Kubernetes Engine CI/CD : Jenkins, GitLab, Docker, Terraform Monitoring & optimisation de la performance applicative

Démarrage Dès que possible
Durée 6 mois
Salaire 45k €⁄an
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Offre premium
Freelance

Data engineer confirmé

CONSULT IT

Nous sommes à la recherche d'un data engineer confirmé pour notre client final à Lille. Les missions principales sont: Développer et maintenir les flux de données provenant de divers produits digitaux (Stambia/BigQuery). Implémenter les modifications dans les dataviz (PowerBI) Gérer la dette technique afin d'assurer la fiabilité de nos outils. Optimiser les performances des processus de traitement des données. Assurer la supervision et l'intégration des données de différentes natures provenant de multiples sources, tout en vérifiant la qualité des données entrant dans le Data Lake (en validant les données, en éliminant les doublons, etc.). Collaborer avec les équipes métiers et techniques.

Démarrage Dès que possible
Durée 12 mois
TJM 400 €⁄j
Lieu Lille, Hauts-de-France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous