Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Expert sécurité GCP
En tant qu'Architecte GCP Réseaux & Sécurité, vous serez en charge de la conception, de l’optimisation et de la sécurisation des architectures cloud de notre client bancaire. Vous travaillerez étroitement avec les équipes de développement et d’exploitation pour garantir que les solutions mises en place sont scalables, sécurisées et performantes. Votre rôle inclura également la gestion de projets d’infrastructure cloud, en intégrant des services PaaS et des solutions de sécurité adaptées aux besoins spécifiques du secteur bancaire. Missions principales : Concevoir des architectures réseaux complexes sur GCP pour répondre aux besoins spécifiques du client. Mettre en place des solutions sécurisées sur GCP en intégrant les meilleures pratiques de sécurité, notamment en matière de confidentialité des données et de conformité aux régulations bancaires. Assurer la gestion et l’optimisation des services managés cloud et des PaaS (par exemple, Google Kubernetes Engine, Cloud Pub/Sub, BigQuery, etc.). Collaborer avec les équipes de développement pour intégrer des applications dans l’environnement cloud, en veillant à la sécurité et à la performance des services déployés. Effectuer une veille technologique pour rester à jour sur les nouveautés GCP et les tendances en matière de réseaux et de sécurité dans le cloud. Assurer la documentation technique des architectures mises en place et des processus opérationnels associés.
Tech Lead Java - Spark- GCP
Nous recherchons un Tech Lead pour une application critique de maintenance prédictive. Missions : Accompagner l’évolution du produit en collaboration avec les équipes métier. Assurer le pilotage technique de l’équipe. Objectif : Réussir la migration GCP des environnements en cours. Assimiler rapidement la connaissance du Tech Lead actuel pour être opérationnel et autonome à très court terme. Activités : Encadrement technique, architecture, communication et accompagnement de l’équipe. Développement, incluant le suivi de production, avec une répartition entre Java, SQL et GCP.
POT8335-Data Engineer sur Guyancourt

Almatek recherche pour l'un de ses clients un Data Engineer sur Guyancourt. Missions : - Construction d’offres DATA spécifiques : Conception et déploiement de solutions de données sur GCP, utilisant des technologies telles que BigQuery, Cloud Storage, Cloud Dataflow, etc. - Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données - Automatisation et industrialisation des solutions pour garantir la scalabilité et la flexibilité Veille technologique autour de la Data : réalisation de POC, tests de performances et comparaison de solutions sur GCP Adaptations d’offres DATA client existantes : Qualification des offres afin de mesurer leur niveau de maturité sur GCP Intégration des offres Data du client dans le SI client sur GCP Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données Accompagnement des projets dans leur migration vers des infrastructures modernes sur le cloud : Intervenir en assistance/expertises auprès de nos clients pour comprendre leurs exigences et accompagner leur migration vers GCP Réaliser l'étude détaillée des besoins clients en lien avec les architectes pour concevoir des architectures de données optimales sur GCP Construire avec les CloudOps les infrastructures DATA pour le projet sur GCP Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation Participer au RUN de nos services : Gestion des demandes et incidents sur les infrastructures de données sur GCP Patching / Upgrade des solutions de données sur GCP Participation à l'astreinte de l'équipe pour assurer la disponibilité et la fiabilité des services Compétences recherchées : - Connaissance approfondie des technologies de données suivantes : BigQuery, Cloud Storage, Cloud Dataflow, etc. - Connaissance de GCP et Terraform pour la gestion des infrastructures de données Connaissance des solutions de données sur le cloud public, notamment GCP - Connaissance approfondie de Linux et des systèmes d'exploitation - Maîtrise de langages de programmation (Scala, Java, Python…) - Travail en Agile Anglais - Certification ITIL V4 obligatoire
Ingénieur DevOps

Dans le cadre d’un programme de modernisation technologique au sein d’un grand groupe du secteur de la grande distribution, Archytas Conseil recherche un(e) consultant(e) DevOps pour intervenir sur une plateforme de données de nouvelle génération, pensée autour d’une architecture data-centric . L’ambition du projet : décloisonner les flux d'information, fiabiliser les traitements temps réel, et accompagner la montée en puissance d'une plateforme cloud résiliente et scalable. Vous interviendrez au sein de l’équipe data/tech pour : concevoir, déployer et maintenir des solutions DevOps performantes, robustes et sécurisées industrialiser les processus de CI/CD (intégration et livraison continues) automatiser le déploiement d’infrastructures via Terraform et assurer leur maintenance piloter les environnements de conteneurisation avec Kubernetes gérer les flux temps réel à l’aide de Kafka déployer les solutions sur Google Cloud Platform (GCP) ou environnement équivalent mettre en place des outils de supervision (Prometheus, Grafana, ELK) participer activement à la démarche d’amélioration continue (performances, fiabilité, sécurité) collaborer étroitement avec les équipes développement et data engineering
GESTIONNAIRE D'APPLICATION - A MEDIUM

- Vos missions quotidiennes : Vous évoluerez dans un environnement GCP. Analyses SQL complexes nécessitant de naviguer dans les DAGs Ariflow Être garant de l'intégralité des données de ventes via le portail de DataSharing. Vous répondrez aux tickets de nos fournisseurs en anglais ou en français, ceci afin de les aider dans leur utilisation de la plateforme, dans la compréhension des KPIs ou dans la gestion de leur accès. Être en capacité de remonter les ventes manquantes auprès des équipes techniques. Même si la mission ne consiste pas principalement à des tâches de Data Engineer, être capable de réaliser des développements dans un environnement GCP serait un plus ; des connaissances sur l’outil Power BI sont également souhaitable. Il faudra faire preuve d’autonomie et être capable de gérer vos priorités. Avoir un esprit de synthèse pour partager vos analyses au sein de l’équipe.
Data Engineer GCP & JAVA

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Le candidat devra être autonome tout au long de la mission Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform Connaissance de Dataform ou DBT
Développeur full stack sénior Java / Vuejs
Nous sommes à la recherche d'un développeur expert Java (backend) / vueJS (frontend) pour notre client retail à Lille. Le consultant sera en charge de: Réaliser du Build et du Run sur des produits digitaux comprenant des API, du front-end et du back-end. Travailler en mode agile avec l'équipe de développement, le PO, les OPS et les équipes transverses. Livrer et commiter du code source tout en étant garant de sa qualité. Rédiger la documentation nécessaire pour faciliter la compréhension de son code. Effectuer des revues de code avec les autres développeurs. Suivre des formations pour améliorer ses compétences en sécurité au sein de son code. Réaliser, en collaboration avec l'équipe OPS, des tâches d'observabilité.
Lead Data Engineer GCP

RESPONSABILITÉS CLÉS Garantir l'harmonisation de l'architecture et le support technique Être responsable de l'architecture technique du produit de données Assurer l'alignement avec les directives d'architecture et être le relais avec les équipes d'architecture Veiller à ce que la construction du produit soit conforme aux principes de données Résoudre les problèmes techniques et partager les meilleures pratiques de codage Diffuser les directives technologiques du groupe et les bonnes pratiques au sein de l'équipe Partager avec les équipes de développement et assurer l'amélioration continue (rétrospectives) Garantir la qualité de service pour chaque produit et respecter les SLA Responsable de la documentation technique, des revues de code et de toutes les pratiques techniques Accompagner le PO et assurer la qualité de service Responsable de la qualité de service et des SLA Aider le PO dans la phase de découverte de solution/produit Veiller à des documents clairs pour l'auto-service Référent technique au sein de son équipe Responsable de diffuser la vision technique Data au sein de son équipe Responsable de la qualité du développement au sein de son équipe Responsable des revues de code et de l'amélioration continue du produit qu'il gère Responsable des demandes de fusion (merge request) au sein de son équipe (Github) Gérer les affinements ad-hoc Maintenir la relation avec les sources de données Garantir la connaissance opérationnelle des données Enregistrer et suivre la dette technique avec l'équipe d'architecture
Un Data Engineer Cloud / DataOps sur Guyancourt

Almatek recherche pour l'un de ses clients Un data engineer Cloud / DataOps sur Guyancourt. Projet : Conception et déploiement de solutions de données sur GCP, utilisant des technologies telles que BigQuery, Cloud Storage, Cloud Dataflow, etc. Principaux livrables : Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données Automatisation et industrialisation des solutions pour garantir la scalabilité et la flexibilité Veille technologique autour de la Data : réalisation de POC, tests de performances et comparaison de solutions sur GCP Adaptations d’offres DATA existantes : Qualification des offres afin de mesurer leur niveau de maturité sur GCP Intégration des offres Data de CA-GIP dans le SI client sur GCP Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données Accompagnement des projets dans leur migration vers des infrastructures modernes sur le cloud : Intervenir en assistance/expertises auprès de nos clients pour comprendre leurs exigences et accompagner leur migration vers GCP Réaliser l'étude détaillée des besoins clients en lien avec les architectes pour concevoir des architectures de données optimales sur GCP Construire avec les CloudOps les infrastructures DATA pour le projet sur GCP Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation Participer au RUN de nos services : Gestion des demandes et incidents sur les infrastructures de données sur GCP Patching / Upgrade des solutions de données sur GCP Participation à l'astreinte de l'équipe pour assurer la disponibilité et la fiabilité des services Compétences requises : BigQuery, Cloud Storage, Cloud Dataflow, etc. Connaissance de GCP et Terraform pour la gestion des infrastructures de données Connaissance des solutions de données sur le cloud public, notamment GCP Connaissance approfondie de Linux et des systèmes d'exploitation Maîtrise de langages de programmation (Scala, Java, Python…) Travail en Agile Anglais Certification ITIL V4 obligatoire Connaissance de Kubernetes Démarrage ASAP Localisation Guyancourt + 2 jours de TT Mission longue : 2 ans
Business Analyst Technique DATA – Expertise SQL, Cloud & Agile

Dans le cadre de plusieurs projets liés à la gestion et à l’exploitation des données, nous recherchons un Business Analyst Technique spécialisé en DATA . Vous interviendrez sur des sujets variés nécessitant une bonne compréhension des environnements techniques et des besoins métier . Vos missions Analyser et formaliser les besoins en data en lien avec les équipes métier et techniques. Rédiger des user stories , définir les DoR / DoD et structurer le backlog produit . Coordonner avec les équipes de développement pour s’assurer de la pertinence des solutions mises en place. Effectuer des requêtes SQL sur Oracle et BigQuery pour extraire et manipuler les données. Contribuer aux tests et à la validation des solutions livrées. Travailler dans un cadre Agile en interaction avec les différentes parties prenantes.
Développeur FullStack Node.JS/ DevOps GCP

Nous recherchons un Développeur FullstacK/DevOps GCP pour accompagner l'un de nos clients grands compte en métropole Lilloise dans le cadre de son plan de transformation. Vous justifiez d'une expérience de plus de 6 ans en tant que Développeur FullStack et avec une expérience significative sur des activités DevOps. En tant que Développeur FS / DevOps vous intervenez à la fois sur des tâches de Build et Run en ayant comme objectif de garantir le meilleur service aux métiers pour lesquels vous intervenez. Clean code, Sécurité et performance rythme votre quotidien.
Consultant Métier / Business Analyst

Missions principales Cadrage et analyse : Animation d’ateliers, collecte des besoins, rédaction des spécifications fonctionnelles et techniques. Gestion du backlog : Rédaction des User Stories, critères d'acceptation (DoR, DoD), suivi du développement et validation des livrables. Pilotage et suivi : Coordination entre les équipes métier et techniques, mise en place des plans de tests et validation des solutions. Expertise Data : Conception et optimisation des flux de données, requêtage SQL, gestion des bases de données relationnelles et non relationnelles. Amélioration continue : Proposition de solutions innovantes, amélioration des performances et garantie de la qualité des livrables.
Data engineer ( H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer ( H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer ( H/F) : Vision & Architecture technique Définir l’architecture technique et les technologies assurant scalabilité et cohérence. Mettre en œuvre des solutions garantissant l’intégrité, la sécurité et la performance des données. Infrastructure & Pipelines Développer, optimiser et maintenir des pipelines de données robustes et évolutifs. Assurer la scalabilité et la protection des environnements data. Administrer et gérer les infrastructures pour garantir disponibilité et conformité. Supervision & Amélioration continue Implémenter des contrôles qualité en collaboration avec le Data Manager et le Data Analyst. Mettre en place des métriques de performance pour les produits data. Gérer les incidents de données et minimiser leur impact sur le business. Innovation & Éthique Identifier et tester des technologies émergentes pour optimiser nos processus. Garantir des pratiques éthiques et responsables dans l’exploitation des données. Compétences attendues Soft Skills Forte appétence pour les interactions métiers et capacité à cadrer des sujets en autonomie. Culture de la documentation et du partage de connaissances. Sens aigu de la valeur business et des enjeux métiers. Ouverture aux solutions innovantes et approche proactive. Curiosité Environnement technique Cloud & Data : GCP (BigQuery, Dataform) Orchestration : Cloud Composer Transformation : Dataform Observabilité : Dynatrace Référentiel & CI/CD : GitLab, Terraform, Cloud Build Gouvernance & Qualité : DataGalaxy Documentation & Pilotage : Confluence, JIRA (Scrum)
Consultant MOA Data H/F

Contexte : Nous recherchons un consultant MOA Data pour un client final dans le domaine de la banque. Missions : Dans le cadre de différents projets dont le cadrage est à venir et où l'équipe est en mise en œuvre (PassAlm, DW Opérations, OTARIE) BA technique sur les sujets DATA : Connaissance de la méthodologie agile Capacité à transformer des besoins en solution (animation atelier, rédaction US, DOR, DONE, plan de test) Gestion du backlog produit et coordination avec les dev sur définir la solution Connaissance technique des environnements Data (écosystème cloudera, GCP ou web) La connaissance d'un langage serait un plus (python par exemple) La connaissance des Bdd relationnelles ou non est indispensable ainsi que le requêtage Bdd (oracle et big Query)
Architecte DATA expert GCP (mission courte)

Dans le cadre de son plan de transformation notre client recherche un profil Architecte DATA/ Expert GCP ayant également une expertise en modélisation et des compétences Power BI pour accompagner l’équipe DSI et métier dans le démarrage de sa data plateforme. Missions : Expertise architecture Data / Modélisation Garantir la performance et la qualité des données mises à disposition pour la DataViz Assurer la gouvernance et la cohérence des données (gestion des accès, conformité, catalogage). Définir l’architecture cible assurant une haute disponibilité et une performance optimale. Veille technologique et recommandations sur les meilleures pratiques Cloud & BI adaptées aux besoins métier. Assurer un accompagnement technique pour le choix des solutions d’ingestion de donnés dans bigQuery Produire les documents d’architecture générale et technique Émettre des recommandations priorisées, chiffrées et argumentées en termes de ROI/Bénéfice. Documentation rigoureuse des étapes clés du projet (DAT, PTI, DEX…). Développement et optimisation Expert de l’environnement GCP (BigQuery, dataform, Terraform) Maitrise de Power BI et de l’optimisation des performances des modèles Power BI (DAX, VertiPaq, Power Query). Assurer un accompagnement technique Sécurité et conformité Implémenter les meilleures pratiques en matière de gestion des accès et autorisations. Sécuriser les flux de données et garantir la conformité aux réglementations en vigueur (RGPD, best practices cloud). Définir et mettre en place une stratégie de sauvegarde et récupération des données.
Data engineer

Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Déclaration de Malt et rectification abusive de l'URSSAFil y a une heure
- SASU à l'IR ou EURL à l'ISil y a 5 heures
- Frais de déplacement en micro-entreprise.il y a 6 heures
- Generateur de CRA (compte rendu d'activite) gratuitil y a 7 heures
- ZFU Retours d experienceil y a 15 heures
- SASU en zfuil y a 18 heures