Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 48 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Expert sécurité GCP

Ewolve

En tant qu'Architecte GCP Réseaux & Sécurité, vous serez en charge de la conception, de l’optimisation et de la sécurisation des architectures cloud de notre client bancaire. Vous travaillerez étroitement avec les équipes de développement et d’exploitation pour garantir que les solutions mises en place sont scalables, sécurisées et performantes. Votre rôle inclura également la gestion de projets d’infrastructure cloud, en intégrant des services PaaS et des solutions de sécurité adaptées aux besoins spécifiques du secteur bancaire. Missions principales : Concevoir des architectures réseaux complexes sur GCP pour répondre aux besoins spécifiques du client. Mettre en place des solutions sécurisées sur GCP en intégrant les meilleures pratiques de sécurité, notamment en matière de confidentialité des données et de conformité aux régulations bancaires. Assurer la gestion et l’optimisation des services managés cloud et des PaaS (par exemple, Google Kubernetes Engine, Cloud Pub/Sub, BigQuery, etc.). Collaborer avec les équipes de développement pour intégrer des applications dans l’environnement cloud, en veillant à la sécurité et à la performance des services déployés. Effectuer une veille technologique pour rester à jour sur les nouveautés GCP et les tendances en matière de réseaux et de sécurité dans le cloud. Assurer la documentation technique des architectures mises en place et des processus opérationnels associés.

Démarrage Dès que possible
Durée 2 ans
Salaire 45k-55k €⁄an
TJM 550-680 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Tech Lead Java - Spark- GCP

EMGS CONSULTING

Nous recherchons un Tech Lead pour une application critique de maintenance prédictive. Missions : Accompagner l’évolution du produit en collaboration avec les équipes métier. Assurer le pilotage technique de l’équipe. Objectif : Réussir la migration GCP des environnements en cours. Assimiler rapidement la connaissance du Tech Lead actuel pour être opérationnel et autonome à très court terme. Activités : Encadrement technique, architecture, communication et accompagnement de l’équipe. Développement, incluant le suivi de production, avec une répartition entre Java, SQL et GCP.

Démarrage Dès que possible
Durée 1 an
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Toulouse, Occitanie
Freelance

POT8335-Data Engineer sur Guyancourt

Almatek

Almatek recherche pour l'un de ses clients un Data Engineer sur Guyancourt. Missions : - Construction d’offres DATA spécifiques : Conception et déploiement de solutions de données sur GCP, utilisant des technologies telles que BigQuery, Cloud Storage, Cloud Dataflow, etc. - Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données - Automatisation et industrialisation des solutions pour garantir la scalabilité et la flexibilité Veille technologique autour de la Data : réalisation de POC, tests de performances et comparaison de solutions sur GCP Adaptations d’offres DATA client existantes : Qualification des offres afin de mesurer leur niveau de maturité sur GCP Intégration des offres Data du client dans le SI client sur GCP Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données Accompagnement des projets dans leur migration vers des infrastructures modernes sur le cloud : Intervenir en assistance/expertises auprès de nos clients pour comprendre leurs exigences et accompagner leur migration vers GCP Réaliser l'étude détaillée des besoins clients en lien avec les architectes pour concevoir des architectures de données optimales sur GCP Construire avec les CloudOps les infrastructures DATA pour le projet sur GCP Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation Participer au RUN de nos services : Gestion des demandes et incidents sur les infrastructures de données sur GCP Patching / Upgrade des solutions de données sur GCP Participation à l'astreinte de l'équipe pour assurer la disponibilité et la fiabilité des services Compétences recherchées : - Connaissance approfondie des technologies de données suivantes : BigQuery, Cloud Storage, Cloud Dataflow, etc. - Connaissance de GCP et Terraform pour la gestion des infrastructures de données Connaissance des solutions de données sur le cloud public, notamment GCP - Connaissance approfondie de Linux et des systèmes d'exploitation - Maîtrise de langages de programmation (Scala, Java, Python…) - Travail en Agile Anglais - Certification ITIL V4 obligatoire

Démarrage Dès que possible
Durée 6 jours
TJM 100-300 €⁄j
Télétravail Télétravail partiel
Lieu Guyancourt, Île-de-France
CDI
Freelance

Ingénieur DevOps

Archytas Conseil

Dans le cadre d’un programme de modernisation technologique au sein d’un grand groupe du secteur de la grande distribution, Archytas Conseil recherche un(e) consultant(e) DevOps pour intervenir sur une plateforme de données de nouvelle génération, pensée autour d’une architecture data-centric . L’ambition du projet : décloisonner les flux d'information, fiabiliser les traitements temps réel, et accompagner la montée en puissance d'une plateforme cloud résiliente et scalable. Vous interviendrez au sein de l’équipe data/tech pour : concevoir, déployer et maintenir des solutions DevOps performantes, robustes et sécurisées industrialiser les processus de CI/CD (intégration et livraison continues) automatiser le déploiement d’infrastructures via Terraform et assurer leur maintenance piloter les environnements de conteneurisation avec Kubernetes gérer les flux temps réel à l’aide de Kafka déployer les solutions sur Google Cloud Platform (GCP) ou environnement équivalent mettre en place des outils de supervision (Prometheus, Grafana, ELK) participer activement à la démarche d’amélioration continue (performances, fiabilité, sécurité) collaborer étroitement avec les équipes développement et data engineering

Démarrage Dès que possible
Durée 12 mois
Salaire 10k-30k €⁄an
TJM 100-300 €⁄j
Télétravail Télétravail 100%
Lieu Maroc
Freelance

GESTIONNAIRE D'APPLICATION - A MEDIUM

HAYS France

- Vos missions quotidiennes : Vous évoluerez dans un environnement GCP. Analyses SQL complexes nécessitant de naviguer dans les DAGs Ariflow Être garant de l'intégralité des données de ventes via le portail de DataSharing. Vous répondrez aux tickets de nos fournisseurs en anglais ou en français, ceci afin de les aider dans leur utilisation de la plateforme, dans la compréhension des KPIs ou dans la gestion de leur accès. Être en capacité de remonter les ventes manquantes auprès des équipes techniques. Même si la mission ne consiste pas principalement à des tâches de Data Engineer, être capable de réaliser des développements dans un environnement GCP serait un plus ; des connaissances sur l’outil Power BI sont également souhaitable. Il faudra faire preuve d’autonomie et être capable de gérer vos priorités. Avoir un esprit de synthèse pour partager vos analyses au sein de l’équipe.

Démarrage Dès que possible
Durée 3 ans
TJM 100-390 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance

Data Engineer GCP & JAVA

IDEMYS

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Le candidat devra être autonome tout au long de la mission Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform Connaissance de Dataform ou DBT

Démarrage Dès que possible
Durée 1 an
Télétravail Télétravail partiel
Lieu Île-de-France, France
Offre premium
Freelance

Développeur full stack sénior Java / Vuejs

CONSULT IT

Nous sommes à la recherche d'un développeur expert Java (backend) / vueJS (frontend) pour notre client retail à Lille. Le consultant sera en charge de: Réaliser du Build et du Run sur des produits digitaux comprenant des API, du front-end et du back-end. Travailler en mode agile avec l'équipe de développement, le PO, les OPS et les équipes transverses. Livrer et commiter du code source tout en étant garant de sa qualité. Rédiger la documentation nécessaire pour faciliter la compréhension de son code. Effectuer des revues de code avec les autres développeurs. Suivre des formations pour améliorer ses compétences en sécurité au sein de son code. Réaliser, en collaboration avec l'équipe OPS, des tâches d'observabilité.

Démarrage Dès que possible
Durée 3 ans
TJM 510 €⁄j
Télétravail Télétravail partiel
Lieu Hauts-de-France, France
Freelance

Lead Data Engineer GCP

Cherry Pick

RESPONSABILITÉS CLÉS Garantir l'harmonisation de l'architecture et le support technique Être responsable de l'architecture technique du produit de données Assurer l'alignement avec les directives d'architecture et être le relais avec les équipes d'architecture Veiller à ce que la construction du produit soit conforme aux principes de données Résoudre les problèmes techniques et partager les meilleures pratiques de codage Diffuser les directives technologiques du groupe et les bonnes pratiques au sein de l'équipe Partager avec les équipes de développement et assurer l'amélioration continue (rétrospectives) Garantir la qualité de service pour chaque produit et respecter les SLA Responsable de la documentation technique, des revues de code et de toutes les pratiques techniques Accompagner le PO et assurer la qualité de service Responsable de la qualité de service et des SLA Aider le PO dans la phase de découverte de solution/produit Veiller à des documents clairs pour l'auto-service Référent technique au sein de son équipe Responsable de diffuser la vision technique Data au sein de son équipe Responsable de la qualité du développement au sein de son équipe Responsable des revues de code et de l'amélioration continue du produit qu'il gère Responsable des demandes de fusion (merge request) au sein de son équipe (Github) Gérer les affinements ad-hoc Maintenir la relation avec les sources de données Garantir la connaissance opérationnelle des données Enregistrer et suivre la dette technique avec l'équipe d'architecture

Démarrage Dès que possible
Durée 12 mois
TJM 550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Un Data Engineer Cloud / DataOps sur Guyancourt

Almatek

Almatek recherche pour l'un de ses clients Un data engineer Cloud / DataOps sur Guyancourt. Projet : Conception et déploiement de solutions de données sur GCP, utilisant des technologies telles que BigQuery, Cloud Storage, Cloud Dataflow, etc. Principaux livrables : Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données Automatisation et industrialisation des solutions pour garantir la scalabilité et la flexibilité Veille technologique autour de la Data : réalisation de POC, tests de performances et comparaison de solutions sur GCP Adaptations d’offres DATA existantes : Qualification des offres afin de mesurer leur niveau de maturité sur GCP Intégration des offres Data de CA-GIP dans le SI client sur GCP Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données Accompagnement des projets dans leur migration vers des infrastructures modernes sur le cloud : Intervenir en assistance/expertises auprès de nos clients pour comprendre leurs exigences et accompagner leur migration vers GCP Réaliser l'étude détaillée des besoins clients en lien avec les architectes pour concevoir des architectures de données optimales sur GCP Construire avec les CloudOps les infrastructures DATA pour le projet sur GCP Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation Participer au RUN de nos services : Gestion des demandes et incidents sur les infrastructures de données sur GCP Patching / Upgrade des solutions de données sur GCP Participation à l'astreinte de l'équipe pour assurer la disponibilité et la fiabilité des services Compétences requises : BigQuery, Cloud Storage, Cloud Dataflow, etc. Connaissance de GCP et Terraform pour la gestion des infrastructures de données Connaissance des solutions de données sur le cloud public, notamment GCP Connaissance approfondie de Linux et des systèmes d'exploitation Maîtrise de langages de programmation (Scala, Java, Python…) Travail en Agile Anglais Certification ITIL V4 obligatoire Connaissance de Kubernetes Démarrage ASAP Localisation Guyancourt + 2 jours de TT Mission longue : 2 ans

Démarrage Dès que possible
Durée 6 mois
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Guyancourt, Île-de-France
Freelance

Business Analyst Technique DATA – Expertise SQL, Cloud & Agile

CAT-AMANIA

Dans le cadre de plusieurs projets liés à la gestion et à l’exploitation des données, nous recherchons un Business Analyst Technique spécialisé en DATA . Vous interviendrez sur des sujets variés nécessitant une bonne compréhension des environnements techniques et des besoins métier . Vos missions Analyser et formaliser les besoins en data en lien avec les équipes métier et techniques. Rédiger des user stories , définir les DoR / DoD et structurer le backlog produit . Coordonner avec les équipes de développement pour s’assurer de la pertinence des solutions mises en place. Effectuer des requêtes SQL sur Oracle et BigQuery pour extraire et manipuler les données. Contribuer aux tests et à la validation des solutions livrées. Travailler dans un cadre Agile en interaction avec les différentes parties prenantes.

Démarrage Dès que possible
Durée 1 an
TJM 400-520 €⁄j
Télétravail Télétravail 100%
Lieu Île-de-France, France
Freelance
CDI

Développeur FullStack Node.JS/ DevOps GCP

HN SERVICES

Nous recherchons un Développeur FullstacK/DevOps GCP pour accompagner l'un de nos clients grands compte en métropole Lilloise dans le cadre de son plan de transformation. Vous justifiez d'une expérience de plus de 6 ans en tant que Développeur FullStack et avec une expérience significative sur des activités DevOps. En tant que Développeur FS / DevOps vous intervenez à la fois sur des tâches de Build et Run en ayant comme objectif de garantir le meilleur service aux métiers pour lesquels vous intervenez. Clean code, Sécurité et performance rythme votre quotidien.

Démarrage Dès que possible
Durée 1 an
Salaire 45k-50k €⁄an
TJM 400-440 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance
CDI

Consultant Métier / Business Analyst

Sapiens Group

Missions principales Cadrage et analyse : Animation d’ateliers, collecte des besoins, rédaction des spécifications fonctionnelles et techniques. Gestion du backlog : Rédaction des User Stories, critères d'acceptation (DoR, DoD), suivi du développement et validation des livrables. Pilotage et suivi : Coordination entre les équipes métier et techniques, mise en place des plans de tests et validation des solutions. Expertise Data : Conception et optimisation des flux de données, requêtage SQL, gestion des bases de données relationnelles et non relationnelles. Amélioration continue : Proposition de solutions innovantes, amélioration des performances et garantie de la qualité des livrables.

Démarrage Dès que possible
Durée 10 mois
Salaire 40k-70k €⁄an
TJM 420-620 €⁄j
Lieu Paris, France
Freelance

Data engineer ( H/F)

Insitoo Freelances

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer ( H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer ( H/F) : Vision & Architecture technique Définir l’architecture technique et les technologies assurant scalabilité et cohérence. Mettre en œuvre des solutions garantissant l’intégrité, la sécurité et la performance des données. Infrastructure & Pipelines Développer, optimiser et maintenir des pipelines de données robustes et évolutifs. Assurer la scalabilité et la protection des environnements data. Administrer et gérer les infrastructures pour garantir disponibilité et conformité. Supervision & Amélioration continue Implémenter des contrôles qualité en collaboration avec le Data Manager et le Data Analyst. Mettre en place des métriques de performance pour les produits data. Gérer les incidents de données et minimiser leur impact sur le business. Innovation & Éthique Identifier et tester des technologies émergentes pour optimiser nos processus. Garantir des pratiques éthiques et responsables dans l’exploitation des données. Compétences attendues Soft Skills Forte appétence pour les interactions métiers et capacité à cadrer des sujets en autonomie. Culture de la documentation et du partage de connaissances. Sens aigu de la valeur business et des enjeux métiers. Ouverture aux solutions innovantes et approche proactive. Curiosité Environnement technique Cloud & Data : GCP (BigQuery, Dataform) Orchestration : Cloud Composer Transformation : Dataform Observabilité : Dynatrace Référentiel & CI/CD : GitLab, Terraform, Cloud Build Gouvernance & Qualité : DataGalaxy Documentation & Pilotage : Confluence, JIRA (Scrum)

Démarrage Dès que possible
Durée 2 ans
TJM 400-500 €⁄j
Télétravail Télétravail partiel
Lieu Hauts-de-France, France
Freelance
CDI

Consultant MOA Data H/F

STORM GROUP

Contexte : Nous recherchons un consultant MOA Data pour un client final dans le domaine de la banque. Missions : Dans le cadre de différents projets dont le cadrage est à venir et où l'équipe est en mise en œuvre (PassAlm, DW Opérations, OTARIE) BA technique sur les sujets DATA : Connaissance de la méthodologie agile Capacité à transformer des besoins en solution (animation atelier, rédaction US, DOR, DONE, plan de test) Gestion du backlog produit et coordination avec les dev sur définir la solution Connaissance technique des environnements Data (écosystème cloudera, GCP ou web) La connaissance d'un langage serait un plus (python par exemple) La connaissance des Bdd relationnelles ou non est indispensable ainsi que le requêtage Bdd (oracle et big Query)

Démarrage Dès que possible
Durée 3 ans
Salaire 50k-55k €⁄an
TJM 500-520 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Architecte DATA expert GCP (mission courte)

Cherry Pick

Dans le cadre de son plan de transformation notre client recherche un profil Architecte DATA/ Expert GCP ayant également une expertise en modélisation et des compétences Power BI pour accompagner l’équipe DSI et métier dans le démarrage de sa data plateforme. Missions : Expertise architecture Data / Modélisation Garantir la performance et la qualité des données mises à disposition pour la DataViz Assurer la gouvernance et la cohérence des données (gestion des accès, conformité, catalogage). Définir l’architecture cible assurant une haute disponibilité et une performance optimale. Veille technologique et recommandations sur les meilleures pratiques Cloud & BI adaptées aux besoins métier. Assurer un accompagnement technique pour le choix des solutions d’ingestion de donnés dans bigQuery Produire les documents d’architecture générale et technique Émettre des recommandations priorisées, chiffrées et argumentées en termes de ROI/Bénéfice. Documentation rigoureuse des étapes clés du projet (DAT, PTI, DEX…). Développement et optimisation Expert de l’environnement GCP (BigQuery, dataform, Terraform) Maitrise de Power BI et de l’optimisation des performances des modèles Power BI (DAX, VertiPaq, Power Query). Assurer un accompagnement technique Sécurité et conformité Implémenter les meilleures pratiques en matière de gestion des accès et autorisations. Sécuriser les flux de données et garantir la conformité aux réglementations en vigueur (RGPD, best practices cloud). Définir et mettre en place une stratégie de sauvegarde et récupération des données.

Démarrage
Durée 10 jours
TJM 850-900 €⁄j
Télétravail Télétravail partiel
Lieu La Défense, Île-de-France
Freelance

Data engineer

ESENCA

Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2

Démarrage Dès que possible
Durée 1 an
TJM 400-430 €⁄j
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous