Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 34 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
DATA ENGINEER GCP BIGQUERY

HAYS MEDIAS
Publiée le
BigQuery
Google Cloud Platform
SQL

12 mois
300-400 €
Lille, Hauts-de-France

Mission : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).

CDI

Offre d'emploi
Développeur BigQuery / Testeur fonctionnel (H/F) - CDI UNIQUEMENT

SCALIAN
Publiée le
Apache Airflow
BigQuery
GitLab CI

32k-42k €
Lyon, Auvergne-Rhône-Alpes

Dans le cadre d'un recrutement en CDI , nous recrutons un Développeur BigQuery / Testeur fonctionnel (H/F) afin de renforcer nos équipes. Vous serez au cœur de projets stratégiques, avec pour objectif de garantir la qualité et la performance de plusieurs applications. Vos missions s’articuleront autour de deux volets principaux : validation fonctionnelle et développement : 1. Validation fonctionnelle : Assister les Product Owners (PO) dans la rédaction des user stories et des critères d’acceptation. Élaborer et exécuter des plans de tests fonctionnels (tests manuels et automatisés). Identifier les anomalies, rédiger des rapports d’incidents clairs et assurer le suivi jusqu’à leur correction. Documenter les cas de test et mettre à jour les référentiels de tests existants. Coordonner avec les équipes métier pour organiser des sessions de recette utilisateur . Participer à l’amélioration continue des processus de test (outils, méthodes, automatisation). Maintenir un suivi rigoureux des anomalies et incidents dans les outils de gestion de tickets. 2. Développement : Participer activement au développement et à l'évolution des solutions sur Google Cloud Platform (GCP) . Concevoir et implémenter des fonctionnalités robustes, en collaboration avec les équipes techniques et métier. Réaliser des scripts ou outils pour automatiser les tests et valider la qualité des données. Environnement technique : BigQuery, Google Cloud Platform (GCP), Airflow, GitLab CI, Python

Freelance

Mission freelance
POT8093 - Un Expert BigQuery sur Colombes

Almatek
Publiée le
BigQuery

6 mois
100-330 €
Colombes, Île-de-France

Almatek recherche pour l'un de ses clients, un Expert BigQuery sur Colombes. Mission: Apport expertise bonnes pratiques Talend ESB (Migration vers V8) dans un environnement Cloud GCP et BigQuery Environnement technique: Talend ESB GCP BigQuery Almatek recherche pour l'un de ses clients, un Expert BigQuery sur Colombes. Mission: Apport expertise bonnes pratiques Talend ESB (Migration vers V8) dans un environnement Cloud GCP et BigQuery Environnement technique: Talend ESB GCP BigQuery Almatek recherche pour l'un de ses clients, un Expert BigQuery sur Colombes. Mission: Apport expertise bonnes pratiques Talend ESB (Migration vers V8) dans un environnement Cloud GCP et BigQuery Environnement technique: Talend ESB GCP BigQuery

CDI

Offre d'emploi
Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

Freelance

Mission freelance
DevOps Data (F/H) - Lille

Espace Freelance
Publiée le
BigQuery
Google Cloud Platform

3 mois
100-480 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un DevOps Data (F/H) - Lille Mission à pourvoir en régie en région Lille Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : Analyse de l'existant et conception d’architectures sur GCP Développement de flux et exposition de données sur BigQuery Participation aux rituels Agile et alimentation de JIRA Documentation technique et fonctionnelle Proposition et mise en œuvre d'améliorations sur le produit

CDI

Offre d'emploi
Data Analyst (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Azure
BigQuery

35k-45k €
Lille, Hauts-de-France

🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.

Freelance
CDI

Offre d'emploi
Ingénieur DATA GCP

Reactis
Publiée le
BigQuery
Google Cloud Platform
Python

12 mois
47k-60k €
Paris, France

Nous recherchons un Ingénieur GCP pour rejoindre notre équipe Data. Vous serez chargé de la gestion des flux de données, de la création de pipelines de données évolutifs, et de l'optimisation de l'utilisation des services GCP pour stocker et analyser des données massives. Missions : - Concevoir et maintenir des pipelines de données à grande échelle avec Cloud Dataflow et BigQuery. - Optimiser le stockage des données avec Google Cloud Storage et BigQuery. - Développer des solutions pour le traitement des données en temps réel avec Cloud Pub/Sub et Dataflow . - Collaborer avec les équipes techniques et métier pour répondre aux besoins en matière de données. - Assurer la sécurité, l'intégrité et la confidentialité des données.

Freelance

Mission freelance
Data Engineer GCP & JAVA

IDEMYS
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform

1 an
100-550 €
Île-de-France, France

Nous recherchons, pour le compte de notre client, une entreprise de premier plan dans son secteur, un Data Engineer expérimenté avec une expertise confirmée sur la plateforme Google Cloud Platform (GCP) . Ce poste clé offre une opportunité unique de contribuer à des projets ambitieux et stratégiques dans un environnement technique avancé et collaboratif. En tant que Data Engineer, vous serez responsable de la conception, du développement et de l'optimisation des pipelines de données pour répondre aux besoins métiers et techniques du client. Vous jouerez un rôle essentiel dans la gestion des flux de données, l’automatisation des processus et l’exploitation des données dans un environnement cloud moderne. Vous serez amené(e) à : Concevoir et implémenter des pipelines de données robustes et scalables. Collaborer avec les équipes Data, IT et métier pour comprendre les besoins et définir les solutions adaptées. Optimiser les performances des systèmes de données pour garantir rapidité et fiabilité. Assurer la qualité et la gouvernance des données en suivant les meilleures pratiques. Automatiser et orchestrer les flux de données avec des outils tels qu’Apache Airflow. Contribuer à l’amélioration continue de l’infrastructure Data, notamment via Terraform. Pour réussir dans ce rôle, vous devrez démontrer une expertise sur les technologies et outils suivants : Langages et Frameworks : Maîtrise de Java et du framework Spring Boot . Utilisation avancée de Maven pour la gestion des dépendances et la construction des projets. Big Data & Cloud : Expertise dans l’utilisation de BigQuery pour l’analyse et la gestion des données à grande échelle. Solide expérience avec Dataflow pour le traitement des données en temps réel ou par lots. Familiarité avec Cloud Run pour déployer et exécuter des conteneurs applicatifs. Orchestration et automatisation : Expérience significative avec Apache Airflow pour la gestion et l’aut

Freelance

Mission freelance
Data Ingénieur

Etixway
Publiée le
BigQuery
Google Cloud Platform
Microsoft Power BI

1 an
100-400 €
Lille, Hauts-de-France

Contrainte forte du projet GCP bigquery, looker, powerBI Les livrables sont Flux d'ingestion de données Dashboard powerBI ou looker Compétences techniques Google BigQuery - Confirmé - Impératif Microsoft powerBI - Confirmé - Important Google Cloud Platform - Junior - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Le data ingénieur aura en charge en collaboration avec les équipes de développement : * de corriger et de créer des nouvelles features d'intégration de données sur plusieurs produits digitaux (Customer project & configurators) de notre plate-forme e-commerce. * de créer des pipeline d'intégration des données des produits digitaux à l'aide de nos outils d'entreprise vers Google BigQuery (DBT par exemple) * de transformer les données sur des modèles conceptuel de données * de mettre en place des dashboard powerBI (ou looker) en collaboration avec les équipes métier

Freelance

Mission freelance
Consultant Web Analytics / Piano

Enterprise Digital Resources Ltd
Publiée le
BigQuery
Web analytics

1 an
100-500 €
Lille, Hauts-de-France

Je recherche en ce moment un consultant freelance pour intégrer l'équipe en charge de l'administration du socle "analytics" des entreprises du groupe Les grands axes de la mission : 1. Assurer les évolutions du socle analytics commun > Assurer les mises à jour du tracking : ---- Rédiger les spécifications d'évolution du plan de marquage ---- Ou, challenger le besoin et valider les spécifications d'évolution de plan de marquage provenant d’autres équipes de la plateforme ou de webanalystes de nos BU partenaires. ---- Valider ces spécifications avec les équipes techniques de la plateforme. ---- Valider les règles de conformité avec nos DPO ---- Coordonner la mise en œuvre des développements et effectuer la recette et la validation en production. > Maintenir la documentation du plan de marquage : ---- Maintenir à jour la documentation en fonction des évolutions ---- Gérer les accès à la documentation ---- Assurer la communication et la pédagogie > Maîtriser l’ensemble des règles de tracking du socle de collecte et en assurer la pédagogie : ---- Garantir un bon alignement des règles avec l’équipe chargée de l’exposition des données ---- Assurer la pédagogie du tracking auprès des utilisateurs de la donnée collectée 2 : Garantir la qualité du tracking : > Assurer le suivi des alertes et le pilotage des corrections > Au besoin, produire des dashboard (dans Piano Analytics ou via nos dataset dans Big Query) pour monitorer la remontée de nos données 3 : Assurer la maintenance et les évolutions du Common Analytics Tool (CAT) : > Assurer la bonne transmission des données dans le CAT (Piano Analytics) et les évolutions du JS de tracking dans le TMS (Tag Commander) > Assurer le paramétrage de Piano Analytics : ---- Assurer la mise à jour du data modèle ---- Créer les sites ---- Gérer les accès > Maintenir la documentation > Assurer le support aux utilisateurs > Au besoin, produire des dashboard pour aider nos utilisateurs et aider à l'identification des levier d'actions en lien avec les objectifs business.

Freelance

Mission freelance
Data Ingénieur

KatchMe Consulting
Publiée le
BigQuery
Github
Microsoft Power BI

6 mois
100-590 €
Lille, Hauts-de-France

Dans le cadre d’un projet orienté Data, nous recherchons un Data Engineer pour : Alimentation des données RH (côté Data, sans intervention sur l’interface de l’application). Diffusion des données vers différents domaines (organisations, etc.) en mettant ces données à disposition de manière centralisée pour faciliter leur utilisation par d’autres applications. Activités principales : Gestion des flux de données : Utilisation d’un framework interne développé par le client , permettant de consommer des données sous différentes formes. Exploitation des données via BigQuery pour ingestion unitaire et transformation. Calculs et analyses de métriques clés (KPI) : Calcul d'ordre relatif aux informations RH (nombre d’employés présents, départs, dates correspondantes, etc.). Génération de statistiques et indicateurs pour la gestion des ressources humaines. Gestion des environnements techniques : GitHub pour la gestion du code source. Infrastructure as Code via Terraform . Automatisation des pipelines CI/CD pour déploiement et création d’infrastructures. Collaboration avec les équipes Data : Support pour les tâches de data analysis et reporting (outils comme Looker et Power BI).

Freelance

Mission freelance
Data Engineer / Data Analyst

ICSIS
Publiée le
BigQuery
Google Cloud Platform
Microsoft Power BI

2 ans
400-500 €
Lille, Hauts-de-France

La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz Compétences attendues : - Expériences dans la data - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais Mission basée sur la métropole lilloise avec télétravail hybride

Freelance

Mission freelance
Consultant en système d'information

Coriom Conseil
Publiée le
BigQuery
Google Cloud Platform
SQL

12 mois
100-480 €
Lille, Hauts-de-France

Les livrables sont: Script SQL Documentations Compétences techniques sql - Confirmé - Impératif retail - Confirmé - Souhaitable Connaissances linguistiques: Français Courant (Impératif) Description détaillée Nous recherchons un profil Devops Data, dont les principaux sujets sont : Construire les nouveaux cas d'usage sous Google Cloud Platform et participer au développement des nouveaux projets Analyser et comprendre l’existant Concevoir l’architecture du nouveau socle Challenger et mener des ateliers avec le métier Développer les flux Exposer de la donnée sur GCP Participation à la vie de l'équipe (composée de 1 PO, 1 BA, 7 Devops data) : Rituels : daily / atelier d’équipe / sprint / … Alimentation du JIRA Documentation technique et fonctionnelle Garant et détection des axes d’amélioration à mettre en place sur le périmètre du produit Analyse poussée sur l’ensemble du périmètre (participation active aux divers ateliers métier et recettes)

Freelance

Mission freelance
Business Analyst - Atlassian

MLMCONSEIL
Publiée le
BigQuery
JIRA
Kanban

6 mois
450-580 €
Paris, France

Nous recherchons un profil profil BA - Atlassian. Instruction fonctionnelle des demandes de création / modification des espaces JIRA (nouveaux KPI, nouveaux reports, nouvelles Structures…., analyse d’impact, proposition de solution… et rédaction/ suivi des tickets de change à l’attention de la DSI (JIRA « templatisé ») Administration des droits utilisateurs, gestion des habilitations Paramétrage des espaces des équipes : Kanban, Scrum Expertise sur le paramétrage Requêtage JQL + Plugin « easyBI Plugin « Structure » plugin "BigPicture"

Freelance

Mission freelance
Data Engineer

HAYS MEDIAS
Publiée le
Apache Kafka
BigQuery

1 an
100-450 €
Lille, Hauts-de-France

Description de la mission : - Participer au build de notre Customer Data Platform. - Identifier et adapter les sources de données nécessaires depuis nos différents fournisseurs de données (GCP, Big Query) - Monitorer les flux d'imports (Stambia, DBT, Python) - Concevoir et déployer la stratégie d'exposition des données (Kafka) Tout au long de la mission, le candidat devra faire preuve de vigilance quant à la réglementation RGPD, ainsi que disposer d'une appétence particulière pour le domaine du marketing. Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif)

Freelance

Mission freelance
Tech Lead Python/IA

ESENCA
Publiée le
BigQuery
Google Cloud Platform
Python

3 mois
450-500 €
Lille, Hauts-de-France

Description du Projet : Au sein de l'équipe AI, rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème : > Une solution complète d’outils MLOps offrant différents niveaux de service pour la gestion simplifiée et le déploiement optimisé de modèles d'IA. > Gestion et évolution d’une plateforme LLM chatbot interne, développement d'une plateforme de déploiement de chatbots RAG, et développement futur d’une plateforme d’agents. Votre mission sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.

34 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous