Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
DATA ENGINEER GCP BIGQUERY
Mission : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).
Offre d'emploi
Développeur BigQuery / Testeur fonctionnel (H/F) - CDI UNIQUEMENT
Dans le cadre d'un recrutement en CDI , nous recrutons un Développeur BigQuery / Testeur fonctionnel (H/F) afin de renforcer nos équipes. Vous serez au cœur de projets stratégiques, avec pour objectif de garantir la qualité et la performance de plusieurs applications. Vos missions s’articuleront autour de deux volets principaux : validation fonctionnelle et développement : 1. Validation fonctionnelle : Assister les Product Owners (PO) dans la rédaction des user stories et des critères d’acceptation. Élaborer et exécuter des plans de tests fonctionnels (tests manuels et automatisés). Identifier les anomalies, rédiger des rapports d’incidents clairs et assurer le suivi jusqu’à leur correction. Documenter les cas de test et mettre à jour les référentiels de tests existants. Coordonner avec les équipes métier pour organiser des sessions de recette utilisateur . Participer à l’amélioration continue des processus de test (outils, méthodes, automatisation). Maintenir un suivi rigoureux des anomalies et incidents dans les outils de gestion de tickets. 2. Développement : Participer activement au développement et à l'évolution des solutions sur Google Cloud Platform (GCP) . Concevoir et implémenter des fonctionnalités robustes, en collaboration avec les équipes techniques et métier. Réaliser des scripts ou outils pour automatiser les tests et valider la qualité des données. Environnement technique : BigQuery, Google Cloud Platform (GCP), Airflow, GitLab CI, Python
Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S
Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.
Mission freelance
POT8093 - Un Expert BigQuery sur Colombes
Almatek recherche pour l'un de ses clients, un Expert BigQuery sur Colombes. Mission: Apport expertise bonnes pratiques Talend ESB (Migration vers V8) dans un environnement Cloud GCP et BigQuery Environnement technique: Talend ESB GCP BigQuery Almatek recherche pour l'un de ses clients, un Expert BigQuery sur Colombes. Mission: Apport expertise bonnes pratiques Talend ESB (Migration vers V8) dans un environnement Cloud GCP et BigQuery Environnement technique: Talend ESB GCP BigQuery Almatek recherche pour l'un de ses clients, un Expert BigQuery sur Colombes. Mission: Apport expertise bonnes pratiques Talend ESB (Migration vers V8) dans un environnement Cloud GCP et BigQuery Environnement technique: Talend ESB GCP BigQuery
Mission freelance
Ingénieur Data - ETL
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un(e) Consultant(e) Data Engineer - ETL. Contexte Projets impliquants des modifications des calculs des indicateurs principaux de notre client et la reprise d'historique sur des volumes conséquents. Nous souhaitons intégrer les données actuellement traitées dans notre solution BI existante (Informatica, SQL Server) au sein de notre nouveau socle cloud GCP (DBT, BigQuery), afin de bénéficier de sa performance pour retraiter l'historique et générer des simulations.
Mission freelance
Data Engineer - SDDS Finance
Client : Secteur luxe et beauté Mission : Data Engineer - SDDS Finance Expérience : + 5 ans Localisation : Offsite Démarrage : 02/01/2025 Objectifs/Descriptif de mission : Compétences requises: - GCP (focus on BigQuery, Cloud Run, Cloud Build) -SQL -Python -DevOps (Github) -API Development (Flask RestX or FastAPI) -Terraform Contexte de la prestation : Dans le cadre de la transformation Beauty Tech de notre client, l'équipe Engineering de la Data Factory Team à deux missions: 1- Développer la Beauty Tech Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du groupe L'Oréal 2- Développer des use cases Data sur la Beauty Tech Data Platform à l'aide des équipes de la Data Gouvernance.
Mission freelance
Data Scientist IA
Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban
Offre d'emploi
DATA ENGINEER GCP
Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir et développer les Data Model Être garant de la qualité du code Être DevOps (Utilisation/mise en place de chaine CI/CD et support niveau L3 des développements) Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL Python DevOps (Github) API Development Terraform Méthodologie Agile
Mission freelance
Data ingénieur - Python - GCP
Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.
Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée
Mission freelance
Architecte Technique Expert
Dans le cadre du déploiement de Looker comme solution de Data Visualization au sein du groupe, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données au sein. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide. Compétences requises : Maîtrise technique de LookML, Google Cloud Platform (GCP), et GitHub indispensable Une expérience solide sur des solutions de DataViz, notamment PowerBI, Looker Studio, et SAP Business Object, serait un atout. Experience dans l’administration de plateforme Looker souhaitée Bonne compréhension des concepts globaux liés à la modélisation des données, aux couches sémantiques, et aux bonnes pratiques en matière de data governance Soft skills : proactivité, autonomie NB : Nous attendons de ce profil une expertise forte sur Looker et non sur Looker Studio. Les candidatures de personnes n’ayant pas d'expérience sur Looker seront automatiquement rejetées. Responsabilités : Accompagner les équipes dans la migration et l’intégration de Looker, en garantissant la cohérence et la performance des solutions mises en place. Collaborer avec les différentes parties prenantes pour définir les besoins en matière de BI et proposer des solutions adaptées. Assurer la veille technologique et proposer des innovations pour améliorer les pratiques de DataViz au sein du groupe. Ce rôle stratégique vous permettra de contribuer à la transformation digitale du groupe et à l’optimisation de la prise de décision grâce à des solutions de DataViz de pointe.
Mission freelance
Data Engineer GCP & JAVA
Nous recherchons, pour le compte de notre client, une entreprise de premier plan dans son secteur, un Data Engineer expérimenté avec une expertise confirmée sur la plateforme Google Cloud Platform (GCP) . Ce poste clé offre une opportunité unique de contribuer à des projets ambitieux et stratégiques dans un environnement technique avancé et collaboratif. En tant que Data Engineer, vous serez responsable de la conception, du développement et de l'optimisation des pipelines de données pour répondre aux besoins métiers et techniques du client. Vous jouerez un rôle essentiel dans la gestion des flux de données, l’automatisation des processus et l’exploitation des données dans un environnement cloud moderne. Vous serez amené(e) à : Concevoir et implémenter des pipelines de données robustes et scalables. Collaborer avec les équipes Data, IT et métier pour comprendre les besoins et définir les solutions adaptées. Optimiser les performances des systèmes de données pour garantir rapidité et fiabilité. Assurer la qualité et la gouvernance des données en suivant les meilleures pratiques. Automatiser et orchestrer les flux de données avec des outils tels qu’Apache Airflow. Contribuer à l’amélioration continue de l’infrastructure Data, notamment via Terraform. Pour réussir dans ce rôle, vous devrez démontrer une expertise sur les technologies et outils suivants : Langages et Frameworks : Maîtrise de Java et du framework Spring Boot . Utilisation avancée de Maven pour la gestion des dépendances et la construction des projets. Big Data & Cloud : Expertise dans l’utilisation de BigQuery pour l’analyse et la gestion des données à grande échelle. Solide expérience avec Dataflow pour le traitement des données en temps réel ou par lots. Familiarité avec Cloud Run pour déployer et exécuter des conteneurs applicatifs. Orchestration et automatisation : Expérience significative avec Apache Airflow pour la gestion et l’aut
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Mission freelance
Senior Data Analyst (H/F)
On recherche un(e) expert(e) en Data & Analytics pour rejoindre sa direction dédiée. Vous serez acteur(trice) de la transformation analytique de l'organisation, en optimisant et en assurant le bon fonctionnement des solutions de datavisualisation pour les équipes métiers. Vos missions : Performance des solutions de datavisualisation : Garantir le bon fonctionnement des outils (tels que Looker Studio, Tableau et BigQuery) en termes de performance, d’accès et de maîtrise des coûts. Support utilisateur : Gérer les demandes des utilisateurs en cas de problème technique ou d'accès, en assurant une résolution rapide. Optimisation des rapports : Améliorer les performances des rapports via la création de datamarts, l’application de bonnes pratiques, et en collaborant avec les éditeurs de logiciels pour tester de nouvelles solutions. Gouvernance et sécurité des accès : Superviser la gestion des accès aux outils, en garantissant la conformité aux politiques de l'entreprise et une gestion optimisée des licences. Amélioration continue : Participer activement à l’évolution de l’architecture de la plateforme de datavisualisation.
Offre d'emploi
Data Analyst (H/F)
🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.
Offre d'emploi
Data Analyst H/F
Collecter, traiter, et analyser des données issues de diverses sources, Concevoir, développer soit des tableaux de bord et/ou rapports existants soit des nouveaux de façon à ce qu'ils soient clairs et intuitifs (essentiellement sous PowerBi et parfois Looker Studio), Collaborer avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions analytiques, Identifier des anomalies et opportunités dans les données pour proposer des solutions et recommandations concrètes, Garantir la qualité, la fiabilité et la sécurité des données utilisées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Démarrage Freelance - ARE ou ARCE + SASU ou AE
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?
- Obligé de faire la plonge pour survivre...
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE
- Dépassement plafond AE deux années consécutives ?