Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery à Lille

Votre recherche renvoie 19 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance
DATA ENGINEER GCP BIGQUERY

HAYS France
Publiée le
BigQuery
Google Cloud Platform
SQL

12 mois
300-400 €
Lille, Hauts-de-France

Mission : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).

Freelance

Mission freelance
Data Scientist IA

ESENCA
Publiée le
Apache Airflow
BigQuery
Data science

3 mois
400-500 €
Lille, Hauts-de-France

Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Data Engineer

ESENCA
Publiée le
Apache Kafka
BigQuery
Google Cloud Platform

3 mois
400-450 €
Lille, Hauts-de-France

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

CDI

Offre d'emploi
Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

Freelance

Mission freelance
Architecte Technique Expert

HAYS France
Publiée le
BigQuery
Python
Terraform

1 an
100-550 €
Lille, Hauts-de-France

Dans le cadre du déploiement de Looker comme solution de Data Visualization au sein du groupe, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données au sein. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide. Compétences requises : Maîtrise technique de LookML, Google Cloud Platform (GCP), et GitHub indispensable Une expérience solide sur des solutions de DataViz, notamment PowerBI, Looker Studio, et SAP Business Object, serait un atout. Experience dans l’administration de plateforme Looker souhaitée Bonne compréhension des concepts globaux liés à la modélisation des données, aux couches sémantiques, et aux bonnes pratiques en matière de data governance Soft skills : proactivité, autonomie NB : Nous attendons de ce profil une expertise forte sur Looker et non sur Looker Studio. Les candidatures de personnes n’ayant pas d'expérience sur Looker seront automatiquement rejetées. Responsabilités : Accompagner les équipes dans la migration et l’intégration de Looker, en garantissant la cohérence et la performance des solutions mises en place. Collaborer avec les différentes parties prenantes pour définir les besoins en matière de BI et proposer des solutions adaptées. Assurer la veille technologique et proposer des innovations pour améliorer les pratiques de DataViz au sein du groupe. Ce rôle stratégique vous permettra de contribuer à la transformation digitale du groupe et à l’optimisation de la prise de décision grâce à des solutions de DataViz de pointe.

CDI

Offre d'emploi
Data Analyst (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Azure
BigQuery

35k-45k €
Lille, Hauts-de-France

🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.

Freelance

Mission freelance
Data Ingénieur

Etixway
Publiée le
BigQuery
Google Cloud Platform
Microsoft Power BI

1 an
100-400 €
Lille, Hauts-de-France

Contrainte forte du projet GCP bigquery, looker, powerBI Les livrables sont Flux d'ingestion de données Dashboard powerBI ou looker Compétences techniques Google BigQuery - Confirmé - Impératif Microsoft powerBI - Confirmé - Important Google Cloud Platform - Junior - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Le data ingénieur aura en charge en collaboration avec les équipes de développement : * de corriger et de créer des nouvelles features d'intégration de données sur plusieurs produits digitaux (Customer project & configurators) de notre plate-forme e-commerce. * de créer des pipeline d'intégration des données des produits digitaux à l'aide de nos outils d'entreprise vers Google BigQuery (DBT par exemple) * de transformer les données sur des modèles conceptuel de données * de mettre en place des dashboard powerBI (ou looker) en collaboration avec les équipes métier

Freelance

Mission freelance
Consultant Web Analytics / Piano

Enterprise Digital Resources Ltd
Publiée le
BigQuery
Web analytics

1 an
100-500 €
Lille, Hauts-de-France

Je recherche en ce moment un consultant freelance pour intégrer l'équipe en charge de l'administration du socle "analytics" des entreprises du groupe Les grands axes de la mission : 1. Assurer les évolutions du socle analytics commun > Assurer les mises à jour du tracking : ---- Rédiger les spécifications d'évolution du plan de marquage ---- Ou, challenger le besoin et valider les spécifications d'évolution de plan de marquage provenant d’autres équipes de la plateforme ou de webanalystes de nos BU partenaires. ---- Valider ces spécifications avec les équipes techniques de la plateforme. ---- Valider les règles de conformité avec nos DPO ---- Coordonner la mise en œuvre des développements et effectuer la recette et la validation en production. > Maintenir la documentation du plan de marquage : ---- Maintenir à jour la documentation en fonction des évolutions ---- Gérer les accès à la documentation ---- Assurer la communication et la pédagogie > Maîtriser l’ensemble des règles de tracking du socle de collecte et en assurer la pédagogie : ---- Garantir un bon alignement des règles avec l’équipe chargée de l’exposition des données ---- Assurer la pédagogie du tracking auprès des utilisateurs de la donnée collectée 2 : Garantir la qualité du tracking : > Assurer le suivi des alertes et le pilotage des corrections > Au besoin, produire des dashboard (dans Piano Analytics ou via nos dataset dans Big Query) pour monitorer la remontée de nos données 3 : Assurer la maintenance et les évolutions du Common Analytics Tool (CAT) : > Assurer la bonne transmission des données dans le CAT (Piano Analytics) et les évolutions du JS de tracking dans le TMS (Tag Commander) > Assurer le paramétrage de Piano Analytics : ---- Assurer la mise à jour du data modèle ---- Créer les sites ---- Gérer les accès > Maintenir la documentation > Assurer le support aux utilisateurs > Au besoin, produire des dashboard pour aider nos utilisateurs et aider à l'identification des levier d'actions en lien avec les objectifs business.

Freelance

Mission freelance
Data Ingénieur

KatchMe Consulting
Publiée le
BigQuery
Github
Microsoft Power BI

6 mois
100-590 €
Lille, Hauts-de-France

Dans le cadre d’un projet orienté Data, nous recherchons un Data Engineer pour : Alimentation des données RH (côté Data, sans intervention sur l’interface de l’application). Diffusion des données vers différents domaines (organisations, etc.) en mettant ces données à disposition de manière centralisée pour faciliter leur utilisation par d’autres applications. Activités principales : Gestion des flux de données : Utilisation d’un framework interne développé par le client , permettant de consommer des données sous différentes formes. Exploitation des données via BigQuery pour ingestion unitaire et transformation. Calculs et analyses de métriques clés (KPI) : Calcul d'ordre relatif aux informations RH (nombre d’employés présents, départs, dates correspondantes, etc.). Génération de statistiques et indicateurs pour la gestion des ressources humaines. Gestion des environnements techniques : GitHub pour la gestion du code source. Infrastructure as Code via Terraform . Automatisation des pipelines CI/CD pour déploiement et création d’infrastructures. Collaboration avec les équipes Data : Support pour les tâches de data analysis et reporting (outils comme Looker et Power BI).

Freelance

Mission freelance
Data Engineer / Data Analyst

ICSIS
Publiée le
BigQuery
Google Cloud Platform
Microsoft Power BI

2 ans
400-500 €
Lille, Hauts-de-France

La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz Compétences attendues : - Expériences dans la data - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais Mission basée sur la métropole lilloise avec télétravail hybride

Freelance

Mission freelance
Consultant en système d'information

Coriom Conseil
Publiée le
BigQuery
Google Cloud Platform
SQL

12 mois
100-480 €
Lille, Hauts-de-France

Les livrables sont: Script SQL Documentations Compétences techniques sql - Confirmé - Impératif retail - Confirmé - Souhaitable Connaissances linguistiques: Français Courant (Impératif) Description détaillée Nous recherchons un profil Devops Data, dont les principaux sujets sont : Construire les nouveaux cas d'usage sous Google Cloud Platform et participer au développement des nouveaux projets Analyser et comprendre l’existant Concevoir l’architecture du nouveau socle Challenger et mener des ateliers avec le métier Développer les flux Exposer de la donnée sur GCP Participation à la vie de l'équipe (composée de 1 PO, 1 BA, 7 Devops data) : Rituels : daily / atelier d’équipe / sprint / … Alimentation du JIRA Documentation technique et fonctionnelle Garant et détection des axes d’amélioration à mettre en place sur le périmètre du produit Analyse poussée sur l’ensemble du périmètre (participation active aux divers ateliers métier et recettes)

Freelance

Mission freelance
Data Engineer

HAYS France
Publiée le
Apache Kafka
BigQuery

1 an
100-450 €
Lille, Hauts-de-France

Description de la mission : - Participer au build de notre Customer Data Platform. - Identifier et adapter les sources de données nécessaires depuis nos différents fournisseurs de données (GCP, Big Query) - Monitorer les flux d'imports (Stambia, DBT, Python) - Concevoir et déployer la stratégie d'exposition des données (Kafka) Tout au long de la mission, le candidat devra faire preuve de vigilance quant à la réglementation RGPD, ainsi que disposer d'une appétence particulière pour le domaine du marketing. Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif)

Freelance

Mission freelance
Tech Lead Python/IA

ESENCA
Publiée le
BigQuery
Google Cloud Platform
Python

3 mois
450-500 €
Lille, Hauts-de-France

Description du Projet : Au sein de l'équipe AI, rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème : > Une solution complète d’outils MLOps offrant différents niveaux de service pour la gestion simplifiée et le déploiement optimisé de modèles d'IA. > Gestion et évolution d’une plateforme LLM chatbot interne, développement d'une plateforme de déploiement de chatbots RAG, et développement futur d’une plateforme d’agents. Votre mission sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.

Freelance

Mission freelance
Machine Learning - Data Engineer

Coriom Conseil
Publiée le
Apache Airflow
CI/CD
FastAPI

12 mois
100-600 €
Lille, Hauts-de-France

Data Driven , powerBI/Loocker, Compétences techniques Python,Shell, CI/CD, Airflow, Dataflow - Expert - Expert - Impératif AppEngine, FastAPI - Expert - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Stack technique: GIT, GitHub, bigQuery, Finder, PowerBI/loocker Télétravail 2 jours par semaine - 3 jours en présentiel Le projet ne nécessite pas d'astreintes Mission de 1 an Il est donc préférable que le consultant habite dans la métropole lilloise. Utilisation de la Méthode Scrum, Kanban

Freelance

Mission freelance
MLOps

WHEEL OF WORK
Publiée le
Apache Airflow
CI/CD
FastAPI

1 an
400-550 €
Lille, Hauts-de-France

Mission Développer et automatiser des produits et algorithmes Data (IA/Machine Learning) pour améliorer les décisions stratégiques au sein du périmètre marketing client. Créer des pipelines de données robustes et garantir la qualité via des sondes et une cartographie détaillée des données (structurées et non structurées). Mettre en œuvre des solutions de DataViz (PowerBI/Looker) pour fournir des insights exploitables et accompagner la stratégie Data du business. Compétences techniques Expertise en Python, Shell, CI/CD, Airflow, Dataflow, AppEngine, et FastAPI. Maîtrise des outils GCP (BigQuery), Git/GitHub, et des solutions de visualisation (PowerBI/Looker). Connaissance des méthodologies agiles (Scrum, Kanban) et des bonnes pratiques de gestion de données. Expérience avérée dans l’industrialisation de modèles ML/IA à grande échelle et la mise en production de pipelines complexes.

Suivant
19 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous