Data Engineer GCP Bigquery

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Expertise en BigQuery Connaissance approfondie du SQL Connaissance de Terraform Java / Python & SQL Devops sur Github
Architecte Solution Cloud, Data et IA
Activités : Instruire les sujets d’architecture en s’assurant de la cohérence avec la stratégie d’entreprise. Traduire la stratégie métier en stratégie technique, identifier les alternatives et définir les solutions en termes d’architectures métier, fonctionnelles, applicatives, données et techniques. Évaluer les scénarios d’architecture en collaboration avec l’ensemble des parties prenantes, puis assurer la mise en œuvre opérationnelle des solutions préconisées. Formaliser les dossiers d’architecture, de choix et de décisions. Identifier et factualiser les risques architecturaux. Présenter les orientations d’architecture aux instances de gouvernance adéquates et contribuer aux réunions des équipes d’ingénierie en fournissant son expertise (revues de pairs, priorisation du backlog). Identifier, capitaliser et appliquer les bonnes pratiques d’architecture.
Architecte Data H/F

Concevoir et dimensionner des solutions techniques complexes adaptées aux besoins de nos clients. Assurer un suivi étroit avec les équipes projets pour garantir la bonne mise en œuvre des architectures définies. Participer à l’évolution technologique en apportant votre expertise dans les domaines du cloud, des réseaux, de la virtualisation et des systèmes distribués. Être un véritable support pour l’ensemble des équipes techniques, en leur fournissant des conseils stratégiques et opérationnels. Garantir la conformité des solutions avec les normes de sécurité et les bonnes pratiques du marché.
Data Scientiste Expert - (h/f)

Le rôle principal est d'aider l'entreprise dans sa migration vers le cloud GCP en développant des modèles de prévision de séries temporelles pour le revenue management, tout en assurant l'interprétabilité des résultats. Responsabilités : Comprendre les mécanismes du revenue management et les stratégies de tarification. Concevoir et implémenter un modèle de prévision de séries temporelles. S'assurer que le modèle est interprétable et explicable pour les équipes de revenue management. Proposer des indicateurs pour qualifier la fiabilité des prévisions et communiquer ces résultats au métier. Compétences clés : Anglais bilingue Maîtrise de Python Compétences en MLOps (docker, github action, terraform, vertexAI, etc.) Connaissance du GCP et expérience en migration vers GCP Expérience en forecasting / séries temporelles Bonne maîtrise des outils de visualisation de données (Spotfire, Power BI, etc.) Maîtrise des bibliothèques de machine learning (scikit-learn, TensorFlow, etc.) Solides compétences en analyse de données Bon à avoir : Bonne expérience en techniques statistiques avancées Excellente communication et capacité à travailler en équipe Autres Détails : Lieu : Île de France, 95 Durée : Minimum 2 ans Rythme : 2 à 3 jours sur site Contexte : Migration vers le cloud (GCP)
Lead Architecte cloud Azure : Gouvernance FinOps & Sécurité - ASAP - 92

𝐋𝐞𝐚𝐝 𝐀𝐫𝐜𝐡𝐢𝐭𝐞𝐜𝐭𝐞 𝐜𝐥𝐨𝐮𝐝 𝐀𝐳𝐮𝐫𝐞 : 𝐆𝐨𝐮𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 𝐅𝐢𝐧𝐎𝐩𝐬 & 𝐒𝐞́𝐜𝐮𝐫𝐢𝐭𝐞́ - 𝐀𝐒𝐀𝐏 - 𝟗𝟐 📍 𝟗𝟐 - 𝟑𝐣 𝐬𝐮𝐫 𝐬𝐢𝐭𝐞 𝐩𝐚𝐫 𝐬𝐞𝐦𝐚𝐢𝐧𝐞 📆 𝐀𝐒𝐀𝐏 - 𝐂𝐨𝐧𝐭𝐫𝐚𝐭 𝐝𝐞 𝟕 𝐦𝐨𝐢𝐬, 𝐫𝐞𝐧𝐨𝐮𝐯𝐞𝐥𝐚𝐛𝐥𝐞 💼 𝐄𝐧𝐠𝐥𝐢𝐬𝐡 𝐦𝐚𝐧𝐝𝐚𝐭𝐨𝐫𝐲 🎯 𝐎𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 Renforcer la sécurité, la gouvernance des infrastructures cloud Azure, l'intégrité CMDB et la stratégie FinOps dans un contexte de transformation et de durcissement des normes IT. Pour un client international. 💼 𝐕𝐨𝐬 𝐦𝐢𝐬𝐬𝐢𝐨𝐧𝐬 🔐 Accélérer la remédiation des vulnérabilités (DP&S, patching middleware, DRP) 🧠 Sensibiliser aux risques liés à l'obsolescence technologique 📊 Garantir la fiabilité de la CMDB (audit, validation, automatisation) ☁️ Optimiser la performance et les coûts Azure (FinOps) ⚙️ Accompagner l’adoption des services cloud IaaS / SaaS 📜 Assurer la conformité réglementaire du cloud (sécurité & reporting) 👤 𝐕𝐨𝐭𝐫𝐞 𝐩𝐫𝐨𝐟𝐢𝐥 ✅ Architecte cloud Azure sénior. ✅ Expertise en cybersécurité, CMDB, cloud Azure, FinOps & GreenOps ✅ Rigueur, autonomie, capacité à embarquer les parties prenantes #freelance #cloud #azure #finops #architecture
Data Scientist - Unstructured Data Extraction, Gen AI, Python, NLP, Remote in Europe (h/f)

Vous êtes un Data Scientist spécialisé dans l'extraction de données, l'IA générative et le traitement du langage naturel ? emagine recherche vos compétences pour développer un outil d'extraction d'informations à partir de données non structurées. Vous utiliserez une compréhension approfondie des algorithmes d'apprentissage automatique et de la programmation Python pour automatiser la transformation de données non structurées dans un format structuré. Are you a Data Scientist skilled in data extraction, generative AI, and natural language processing? emagine are seeking your skills to develop a tool for extracting information from unstructured data. You will use a deep understanding of machine learning algorithms and Python programming to automate the transformation of unstructured data into a structured format. Key Requirements Expertise in data extraction Expertise in generative AI Advanced Python programming skills Confirmed experience in natural language processing Confirmed experience with Microsoft Azure Confirmed knowledge of machine learning techniques Fully fluent and comfortable working in English Nice to Have Experience with cloud computing environments Familiarity with various data formats and preprocessing techniques Main Responsibilities The selected candidate will have the following key responsibilities: Evaluate and test external tools or build a robust extraction tool for unstructured data Ensure compatibility with various data types and formats Incorporate advanced natural language processing techniques Utilize machine learning algorithms to improve adaptability and efficiency Provide comprehensive documentation and training materials for end-users Other Details This position offers a flexible remote working arrangement. The project duration is expected to span several months, focusing on enhancing data processing mechanisms .
Data Engineer Snowflake H/F

Vous interviendrez au sein d'une équipe data agile, en collaboration avec les Data Analysts, Data Scientists et Architectes Cloud. Activités principales : -Développer et maintenir des pipelines de données sur Snowflake -Optimiser les performances et la qualité des données -Automatiser les workflows et les processus ETL/ELT -Collaborer avec les équipes DevOps et Cloud sur l'intégration continue -Participer à la migration et modernisation des infrastructures Data
INGENIEUR DATA BI - GENIO

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Expert Infra Cloud et Big Data
Au sein d'une organisation dynamique dans le domaine du numérique, vous interviendrez sur la gestion et l’optimisation d’infrastructures cloud, ainsi que sur la gestion de plateformes de données à grande échelle. Vous serez responsable de l’industrialisation et de l’automatisation des services cloud pour garantir leur performance et leur évolutivité. Compétences techniques requises : Expertise dans les environnements cloud public (AWS, GCP, OVH) avec une préférence pour GCP . Maîtrise des outils d’automatisation et d'industrialisation des infrastructures ( Puppet , Ansible , Terraform ). Solides compétences en Big Data et technologies associées (notamment Spark , Python , Hadoop , SQL ). Expérience avec des solutions de déploiement et d’orchestration ( Jenkins , GitLab , Airflow ). Bonne culture des systèmes Unix/Linux et des environnements virtualisés. Compétences complémentaires appréciées : Expérience avec des architectures Data telles que Lakehouse et Datalake . Connaissance des solutions de stockage et traitement des données (ex : Delta , Parquet , DBT , BigQuery ). Bonne maîtrise des concepts systèmes , réseaux et virtualisation . Expérience sur des sites web à fort trafic .
Architect Data (Lausanne en Suisse 3 jours par semaine mini obligatoire)

En quelques mots Cherry Pick est à la recherche d'un "Architect Data" pour un client dans le secteur du luxe Description 🧭 Contexte de la mission Vous intégrez le programme de transformation data d’une maison de luxe suisse de renom. L’ambition : moderniser l’ensemble de la plateforme data (intégration, qualité, gouvernance, BI) en migrant les stacks historiques on-premise (Cognos, Power BI, Talend) vers une infrastructure moderne cloud-first, centrée sur Azure, Databricks et dbt. Ce rôle transversal implique autant de design architectural, que d’accompagnement, de montée en compétence et de pilotage des partenaires externes. 🎯 Responsabilités clés Définir et piloter l’architecture data globale dans un environnement Microsoft / Databricks Superviser les cas d’usage, valider les designs proposés par les partenaires (ex. ingestion, architecture medaillon…) Assurer le lien entre la vision stratégique et les projets opérationnels (10 projets en simultané) Accompagner et former les équipes internes peu expérimentées Participer à l’onboarding, structuration, documentation des nouvelles plateformes Identifier les points critiques liés à l’ancien SI (Talend, Cognos) et construire une roadmap claire Articuler la cohabitation entre outils on-prem existants et les nouveaux composants cloud 🧰 Stack & Environnement DomaineOutils / TechsCloud & plateformeAzure, Azure Data Services, DatabricksIntégration & ETLdbt, Fivetran, Talend (legacy)BI / AnalyticsMigration Power BI & Cognos vers cloudGouvernance & qualitéÀ structurer avec l'architecture cibleArchitectureEndzone, architecture medaillon
Dataops/MLops H/F

MISSION Nous recherchons des personnes avec un recul : - sur les plateformes modernes de Data Science (Cloud-Native, sur Kubernetes); - sur le MLOps et AIOps en général; - et idéalement avec des idées / un background sur les LLMs et l’Intelligence Artificielle dans son ensemble Pour travailler avec les Data Fullstack pour : - Définir l’architecture fonctionnelle de nos offres Data citées plus haut en suivant l’état de l’art et/ou les consignes d’architecture/sécurité du Groupe (pas forcément adaptées au cloud native) - Traduire en développements ad hoc sur la base des briques techniques disponibles, en intégration de produits du marché - Contribuer à la construction des Envs Python nécessaires à la Data Science au format docker (eg. OS, conda, pip, etc.) - Contribuer au développement des chaines de CI/CD permettant le cycle de vie des plateformes (déploiement, MAJ, environnements utilisateur, etc.) - Pour nos offres déjà qualifiées pour de la Prod (Domino Datalab pour le moment): - Assurer le déploiement “as code” - Assurer la supervision d’instances dédiées par client - Améliorer la sûreté de fonctionnement des plateformes (appliquer les méthodes SRE pour Cloud + K8s, rédiger des RFE auprès de l’éditeur, etc.)
Data engineer & MLOps - ASAP

Contexte & Objectifs de la mission Nous recherchons un.e Ingénieur.e Data & MLOps freelance pour accompagner la mise en production de projets d’IA à fort impact. Vous interviendrez sur des sujets stratégiques de déploiement de modèles, d’architecture cloud et de pipelines de données, en lien étroit avec des équipes Data Science. Vos missions principales Participer au déploiement de modèles d’IA en production Contribuer à la mise en place et à la maintenance d’architectures Data dans le Cloud (AWS) Concevoir, développer et déployer des pipelines de données robustes Concevoir et exposer des APIs pour l’intégration des services IA Collaborer étroitement avec les Data Scientists, comprendre leurs enjeux métiers et techniques Apporter une expertise sur les pratiques MLOps pour fluidifier le cycle de vie des modèles
Data /Software Engineer junior H/F

Nous recherchons un profil Data /Software Engineer junior ( ~3 ans d’expérience) pour une mission longue durée pour intervenir chez notre client basé en IDF Voici les éléments les plus important pour la mission : Compétences obligatoires : Python, HTML, CSS, Javascript GIT, Dataiku, ainsi que des pratiques de développement et de maintenance en CI/CD Intelligence Artificielle et Machine Learning : Expérience avec des frameworks Data science comme Scikit-Learn, Streamlit, Pandas, Pytest Modèles LLM Cloud AWS & Azure Compétences appréciées : Snowflake
Consultant / Expert Réseau & Connectivité Cloud
Description et livrables de la prestation Dans le cadre de la stratégie de transformation digitale de notre client, un programme de grande envergure a été lancé afin de moderniser son infrastructure réseau et de migrer progressivement vers une architecture Cloud Hybride. L’objectif est de gagner en agilité, en performance, et d’accélérer l’innovation métier. Dans cette dynamique, notre client initie un programme de consolidation de ses Data Centers en Europe, avec une architecture cible orientée Cloud et des technologies Software-Defined Data Center (SDDC). Le programme prévoit notamment le regroupement de plusieurs centres de données, l’optimisation des connexions Cloud, et le déploiement de nouveaux modèles opérationnels. Mission principale : Accompagner la conception, l’évaluation, et le déploiement de la nouvelle architecture de connectivité entre Data Centers et environnements Cloud Public. Le consultant jouera un rôle clé dans la coordination technique, la définition des standards, et la gestion des étapes critiques du programme. Responsabilités : 1. Préparation de la première phase du programme (Gate 1) : Collecter les données existantes sur les Data Centers régionaux et satellites. Participer aux ateliers de définition de l’architecture cible : Stratégie de connectivité Cloud Interconnexion entre Data Centers (WAN/MAN) Routage et segmentation réseau Identifier les contraintes actuelles et proposer des évolutions. Définir un modèle opérationnel cible (ToM) à haut niveau. Élaborer une feuille de route (roadmap) avec budget et quick wins. 2. Support à la phase de consultation fournisseurs (Gate 2) : Rédiger les cahiers des charges techniques (RFP/RFQ). Élaborer une grille d’évaluation pour la sélection des partenaires. Participer aux soutenances techniques et à l’analyse des offres. Contribuer à la rédaction des Low-Level Designs (LLD) et du ToM détaillé. Accompagner les présentations et comités de décision. 3. Préparation au déploiement : Planifier le déploiement de l’architecture dans les sites sélectionnés. Coordonner les parties prenantes internes et externes (équipes IT, sécurité, fournisseurs, métiers).
Data analyst Power BI

Expérience minimum de 5 ans dans la data Expérience minimmum de 2 à 3 ans sur Power bi desktop idéalement dans un contexte Power BI On Cloud couplé à GCP certifications power bi très appréciées .. .. . .... .... .... .. .. ... ... . . .. .. . .... .... .... .. .. ... ... . . .. .. . .... .... .... .. .. ... ... . . .. .. . .... .... .... .. .. ... ... . . .. .. . .... .... .... .. .. ... ... . . .. .. . .... .... .... .. .. ... ... . . .. .. . .... .... .... .. .. ... ... . . ..... ...
Data Analyst SAP Analytics Cloud

nous recherchons un(e) Data Analyst spécialisé(e) SAP Analytics Cloud (SAC) pour renforcer les équipes Data et accompagner l'un de nos clients dans l’exploitation de leurs données en mode cloud. Vos principales missions seront les suivantes : Recueil et formalisation des besoins des utilisateurs métiers. Création de rapports et tableaux de bord dynamiques sous SAP Analytics Cloud . Modélisation de données et conception de storyboards clairs et interactifs. Intégration de données issues de SAP BW, SAP HANA ou autres sources. Participation aux phases de test, recette et mise en production. Formation et support aux utilisateurs finaux. Contribution à l’amélioration continue des processus de reporting.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Reconversion en DATA ou SAPil y a 38 minutes
- L'enigme de la tour Eiffel à résoudreil y a 2 heures
- La loose retour en cdiil y a 2 heures
- Déclaration de revenus à l'administration fiscale - Case 5HQil y a 3 heures
- Problème ARCEil y a 3 heures
- Est-ce que il y a des gens qui sont vraiment a des TJM de 250-300?il y a 5 heures