Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 43 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance
DATA ENGINEER GCP BIGQUERY

HAYS France
Publiée le
BigQuery
Google Cloud Platform
SQL

12 mois
300-400 €
Lille, Hauts-de-France

Mission : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).

CDI

Offre d'emploi
Développeur BigQuery / Testeur fonctionnel (H/F) - CDI UNIQUEMENT

SCALIAN
Publiée le
Apache Airflow
BigQuery
GitLab CI

32k-42k €
Lyon, Auvergne-Rhône-Alpes

Dans le cadre d'un recrutement en CDI , nous recrutons un Développeur BigQuery / Testeur fonctionnel (H/F) afin de renforcer nos équipes. Vous serez au cœur de projets stratégiques, avec pour objectif de garantir la qualité et la performance de plusieurs applications. Vos missions s’articuleront autour de deux volets principaux : validation fonctionnelle et développement : 1. Validation fonctionnelle : Assister les Product Owners (PO) dans la rédaction des user stories et des critères d’acceptation. Élaborer et exécuter des plans de tests fonctionnels (tests manuels et automatisés). Identifier les anomalies, rédiger des rapports d’incidents clairs et assurer le suivi jusqu’à leur correction. Documenter les cas de test et mettre à jour les référentiels de tests existants. Coordonner avec les équipes métier pour organiser des sessions de recette utilisateur . Participer à l’amélioration continue des processus de test (outils, méthodes, automatisation). Maintenir un suivi rigoureux des anomalies et incidents dans les outils de gestion de tickets. 2. Développement : Participer activement au développement et à l'évolution des solutions sur Google Cloud Platform (GCP) . Concevoir et implémenter des fonctionnalités robustes, en collaboration avec les équipes techniques et métier. Réaliser des scripts ou outils pour automatiser les tests et valider la qualité des données. Environnement technique : BigQuery, Google Cloud Platform (GCP), Airflow, GitLab CI, Python

Freelance

Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S

YGL consulting
Publiée le
Docker
Go (langage)
Google Cloud Platform

12 mois
500-600 €
Paris, France

Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.

Freelance

Mission freelance
POT8093 - Un Expert BigQuery sur Colombes

Almatek
Publiée le
BigQuery

6 mois
100-330 €
Colombes, Île-de-France

Almatek recherche pour l'un de ses clients, un Expert BigQuery sur Colombes. Mission: Apport expertise bonnes pratiques Talend ESB (Migration vers V8) dans un environnement Cloud GCP et BigQuery Environnement technique: Talend ESB GCP BigQuery Almatek recherche pour l'un de ses clients, un Expert BigQuery sur Colombes. Mission: Apport expertise bonnes pratiques Talend ESB (Migration vers V8) dans un environnement Cloud GCP et BigQuery Environnement technique: Talend ESB GCP BigQuery Almatek recherche pour l'un de ses clients, un Expert BigQuery sur Colombes. Mission: Apport expertise bonnes pratiques Talend ESB (Migration vers V8) dans un environnement Cloud GCP et BigQuery Environnement technique: Talend ESB GCP BigQuery

Freelance

Mission freelance
Ingénieur Data - ETL

Zsoft Consulting
Publiée le
BigQuery
ETL (Extract-transform-load)
Informatica

1 an
400-500 €
Gretz-Armainvilliers, Île-de-France

Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un(e) Consultant(e) Data Engineer - ETL. Contexte Projets impliquants des modifications des calculs des indicateurs principaux de notre client et la reprise d'historique sur des volumes conséquents. Nous souhaitons intégrer les données actuellement traitées dans notre solution BI existante (Informatica, SQL Server) au sein de notre nouveau socle cloud GCP (DBT, BigQuery), afin de bénéficier de sa performance pour retraiter l'historique et générer des simulations.

Freelance

Mission freelance
Data Engineer - SDDS Finance

Freelance.com
Publiée le
BigQuery
CI/CD
Cloud

3 mois
300-600 €
Clichy, Île-de-France

Client : Secteur luxe et beauté Mission : Data Engineer - SDDS Finance Expérience : + 5 ans Localisation : Offsite Démarrage : 02/01/2025 Objectifs/Descriptif de mission : Compétences requises: - GCP (focus on BigQuery, Cloud Run, Cloud Build) -SQL -Python -DevOps (Github) -API Development (Flask RestX or FastAPI) -Terraform Contexte de la prestation : Dans le cadre de la transformation Beauty Tech de notre client, l'équipe Engineering de la Data Factory Team à deux missions: 1- Développer la Beauty Tech Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du groupe L'Oréal 2- Développer des use cases Data sur la Beauty Tech Data Platform à l'aide des équipes de la Data Gouvernance.

Freelance

Mission freelance
Data Scientist IA

ESENCA
Publiée le
Apache Airflow
BigQuery
Data science

3 mois
400-500 €
Lille, Hauts-de-France

Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform

3 ans
33k-83k €
400-900 €
Paris, France

Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir et développer les Data Model Être garant de la qualité du code Être DevOps (Utilisation/mise en place de chaine CI/CD et support niveau L3 des développements) Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL Python DevOps (Github) API Development Terraform Méthodologie Agile

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Data Engineer

ESENCA
Publiée le
Apache Kafka
BigQuery
Google Cloud Platform

3 mois
400-450 €
Lille, Hauts-de-France

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Freelance

Mission freelance
Architecte Technique Expert

HAYS France
Publiée le
BigQuery
Python
Terraform

1 an
100-550 €
Lille, Hauts-de-France

Dans le cadre du déploiement de Looker comme solution de Data Visualization au sein du groupe, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données au sein. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide. Compétences requises : Maîtrise technique de LookML, Google Cloud Platform (GCP), et GitHub indispensable Une expérience solide sur des solutions de DataViz, notamment PowerBI, Looker Studio, et SAP Business Object, serait un atout. Experience dans l’administration de plateforme Looker souhaitée Bonne compréhension des concepts globaux liés à la modélisation des données, aux couches sémantiques, et aux bonnes pratiques en matière de data governance Soft skills : proactivité, autonomie NB : Nous attendons de ce profil une expertise forte sur Looker et non sur Looker Studio. Les candidatures de personnes n’ayant pas d'expérience sur Looker seront automatiquement rejetées. Responsabilités : Accompagner les équipes dans la migration et l’intégration de Looker, en garantissant la cohérence et la performance des solutions mises en place. Collaborer avec les différentes parties prenantes pour définir les besoins en matière de BI et proposer des solutions adaptées. Assurer la veille technologique et proposer des innovations pour améliorer les pratiques de DataViz au sein du groupe. Ce rôle stratégique vous permettra de contribuer à la transformation digitale du groupe et à l’optimisation de la prise de décision grâce à des solutions de DataViz de pointe.

Freelance

Mission freelance
Data Engineer GCP & JAVA

IDEMYS
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform

1 an
100-550 €
Île-de-France, France

Nous recherchons, pour le compte de notre client, une entreprise de premier plan dans son secteur, un Data Engineer expérimenté avec une expertise confirmée sur la plateforme Google Cloud Platform (GCP) . Ce poste clé offre une opportunité unique de contribuer à des projets ambitieux et stratégiques dans un environnement technique avancé et collaboratif. En tant que Data Engineer, vous serez responsable de la conception, du développement et de l'optimisation des pipelines de données pour répondre aux besoins métiers et techniques du client. Vous jouerez un rôle essentiel dans la gestion des flux de données, l’automatisation des processus et l’exploitation des données dans un environnement cloud moderne. Vous serez amené(e) à : Concevoir et implémenter des pipelines de données robustes et scalables. Collaborer avec les équipes Data, IT et métier pour comprendre les besoins et définir les solutions adaptées. Optimiser les performances des systèmes de données pour garantir rapidité et fiabilité. Assurer la qualité et la gouvernance des données en suivant les meilleures pratiques. Automatiser et orchestrer les flux de données avec des outils tels qu’Apache Airflow. Contribuer à l’amélioration continue de l’infrastructure Data, notamment via Terraform. Pour réussir dans ce rôle, vous devrez démontrer une expertise sur les technologies et outils suivants : Langages et Frameworks : Maîtrise de Java et du framework Spring Boot . Utilisation avancée de Maven pour la gestion des dépendances et la construction des projets. Big Data & Cloud : Expertise dans l’utilisation de BigQuery pour l’analyse et la gestion des données à grande échelle. Solide expérience avec Dataflow pour le traitement des données en temps réel ou par lots. Familiarité avec Cloud Run pour déployer et exécuter des conteneurs applicatifs. Orchestration et automatisation : Expérience significative avec Apache Airflow pour la gestion et l’aut

CDI

Offre d'emploi
Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

Freelance

Mission freelance
Senior Data Analyst (H/F)

Kleever
Publiée le
BigQuery
Python
SQL

6 mois
400-550 €
Antony, Île-de-France

On recherche un(e) expert(e) en Data & Analytics pour rejoindre sa direction dédiée. Vous serez acteur(trice) de la transformation analytique de l'organisation, en optimisant et en assurant le bon fonctionnement des solutions de datavisualisation pour les équipes métiers. Vos missions : Performance des solutions de datavisualisation : Garantir le bon fonctionnement des outils (tels que Looker Studio, Tableau et BigQuery) en termes de performance, d’accès et de maîtrise des coûts. Support utilisateur : Gérer les demandes des utilisateurs en cas de problème technique ou d'accès, en assurant une résolution rapide. Optimisation des rapports : Améliorer les performances des rapports via la création de datamarts, l’application de bonnes pratiques, et en collaborant avec les éditeurs de logiciels pour tester de nouvelles solutions. Gouvernance et sécurité des accès : Superviser la gestion des accès aux outils, en garantissant la conformité aux politiques de l'entreprise et une gestion optimisée des licences. Amélioration continue : Participer activement à l’évolution de l’architecture de la plateforme de datavisualisation.

CDI

Offre d'emploi
Data Analyst (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Azure
BigQuery

35k-45k €
Lille, Hauts-de-France

🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.

Freelance
CDI

Offre d'emploi
Data Analyst H/F

CELAD
Publiée le
BigQuery
Data analysis
Microsoft Excel

1 an
35k-45k €
350-450 €
Pérols, Occitanie

Collecter, traiter, et analyser des données issues de diverses sources, Concevoir, développer soit des tableaux de bord et/ou rapports existants soit des nouveaux de façon à ce qu'ils soient clairs et intuitifs (essentiellement sous PowerBi et parfois Looker Studio), Collaborer avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions analytiques, Identifier des anomalies et opportunités dans les données pour proposer des solutions et recommandations concrètes, Garantir la qualité, la fiabilité et la sécurité des données utilisées.

Suivant
43 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous