Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
DATA ENGINEER GCP DBT
Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Réaliser du code applicatif à l’état de l’art sur notre nouvelle Data Platform • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.
Mission freelance
DATA Engineer GCP H/F
Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
Data Engineer GCP
Le data Engineer, rattaché(e) à l'équipe Lead Ingénieur Analytic sera chargé de concevoir, Développer, et optimiser données de données et des solutions analytiques. Il(elle) travaillera en collaboration avec les parties prenantes, implémentera les bonnes pratiques, tirera parti des technologies afin de produire des données de hautes qualités, et piloter les domaines de productions data. Son expertise en data engineering, analyse, et problem solving supportera le pilotage data et les prises de décisions. Taches & missions : Concevoir et mettre en œuvre des pipelines de données évolutifs et des architectures de données Mettre en œuvre des processus d'intégration et de transformation des données Collaborer avec les parties prenantes pour comprendre les exigences et les priorités de l'entreprise Garantir les meilleures pratiques en matière d'ingénierie des données et d'analyse Construire et maintenir des entrepôts de données et des marts de données Développer et optimiser des modèles analytiques à l'aide de la modélisation des entrepôts de données (data marts) Assurer la qualité, l'intégrité et la gouvernance des données dans l'ensemble des systèmes par le biais de domaines de données. Automatiser les processus de données et les flux de travail pour gagner en efficacité Contrôler et optimiser les performances des systèmes et l'utilisation des ressources Évaluer et intégrer de nouvelles technologies et de nouveaux outils Dépanner et résoudre les problèmes et incidents liés aux données Contribuer à la documentation et aux initiatives de partage des connaissances Participer aux revues de code et aux sessions de programmation par les pairs Les compétences nécessaires : ETL /ELT Data Modeling Modélisation sémantique SQL (BigQuery, Postgres…) Data Transformation API Cloud platforms (ex: AWS, GCP) Sens des affaires Data Analyse Python Statistiques Big Data Contrôle des versions CI/CD DevOps BI
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
DATA ENGINEER GCP
Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir et développer les Data Model Être garant de la qualité du code Être DevOps (Utilisation/mise en place de chaine CI/CD et support niveau L3 des développements) Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL Python DevOps (Github) API Development Terraform Méthodologie Agile
Mission freelance
Data Engineer GCP & JAVA
Nous recherchons, pour le compte de notre client, une entreprise de premier plan dans son secteur, un Data Engineer expérimenté avec une expertise confirmée sur la plateforme Google Cloud Platform (GCP) . Ce poste clé offre une opportunité unique de contribuer à des projets ambitieux et stratégiques dans un environnement technique avancé et collaboratif. En tant que Data Engineer, vous serez responsable de la conception, du développement et de l'optimisation des pipelines de données pour répondre aux besoins métiers et techniques du client. Vous jouerez un rôle essentiel dans la gestion des flux de données, l’automatisation des processus et l’exploitation des données dans un environnement cloud moderne. Vous serez amené(e) à : Concevoir et implémenter des pipelines de données robustes et scalables. Collaborer avec les équipes Data, IT et métier pour comprendre les besoins et définir les solutions adaptées. Optimiser les performances des systèmes de données pour garantir rapidité et fiabilité. Assurer la qualité et la gouvernance des données en suivant les meilleures pratiques. Automatiser et orchestrer les flux de données avec des outils tels qu’Apache Airflow. Contribuer à l’amélioration continue de l’infrastructure Data, notamment via Terraform. Pour réussir dans ce rôle, vous devrez démontrer une expertise sur les technologies et outils suivants : Langages et Frameworks : Maîtrise de Java et du framework Spring Boot . Utilisation avancée de Maven pour la gestion des dépendances et la construction des projets. Big Data & Cloud : Expertise dans l’utilisation de BigQuery pour l’analyse et la gestion des données à grande échelle. Solide expérience avec Dataflow pour le traitement des données en temps réel ou par lots. Familiarité avec Cloud Run pour déployer et exécuter des conteneurs applicatifs. Orchestration et automatisation : Expérience significative avec Apache Airflow pour la gestion et l’aut
Mission freelance
DATA ENGINEER GCP BIGQUERY
Mission : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
Data Engineer GCP
Nous recrutons pour une entreprise en pleine croissance et à la pointe des technologies cloud. Cette société cherche un Data Engineer confirmé pour renforcer ses équipes et travailler sur des projets stratégiques à forte valeur ajoutée. Poste de Data Engineer Confirmé : Dans ce rôle, vous serez un acteur clé dans la conception et la mise en œuvre de solutions data robustes et innovantes en utilisant Google Cloud Platform (GCP). Vos missions : Concevoir, développer et maintenir des pipelines de données complexes sur GCP. Mettre en œuvre des solutions d'intégration et de transformation des données adaptées aux besoins métiers. Optimiser les flux de données pour garantir leur performance, leur sécurité et leur scalabilité. Collaborer avec des équipes pluridisciplinaires : data scientists, analystes et architectes. Assurer le suivi et le monitoring des environnements cloud. Proposer des améliorations continues en adoptant les meilleures pratiques de gouvernance des données. Votre profil : Expérience : 3 à 5 ans en tant que Data Engineer avec une expertise reconnue sur GCP. Compétences techniques : Maîtrise des outils GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage. Solides connaissances en Python et SQL pour le développement de pipelines ETL. Compréhension des bases de données relationnelles et non relationnelles (MySQL, MongoDB, etc.). Une expérience avec Apache Beam, Terraform ou Airflow est un atout. Soft skills : Autonomie, esprit d'analyse, capacité à travailler en équipe et goût pour l'innovation. Informations complémentaires : Localisation : Poste basé à Paris, possibilité de télétravail. Contrat : CDI. Rémunération : Attractive, selon profil et expérience. Ne manquez pas cette opportunité de rejoindre un environnement stimulant et de travailler sur des projets d'envergure dans la data !
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions ????? : • ???? Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. • ???? Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. • ????? Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. • ????? Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. • ???? Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique ???? : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow • Langages de Programmation : Python, SQL • Outils de DevOps : Terraform, Docker, Kubernetes • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : • Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? ???? Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS, vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : • ???? Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. • ???? Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. • ?? Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. • ???? Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. • ???? Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. • ????? Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) • Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker • Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis • Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : • Formation : Diplôme en informatique, ingénierie ou domaine connexe. • Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. • Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. • Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. • Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Offre d'emploi
Data Engineer Expert GCP | Casablanca 100% Remote
skiils recrute un Data Engineer Expert GCP (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Python, Spark Kafka & Kafka-stream Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible dans une environnement cloud GCP . Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Mission freelance
Data Engineer Talend BusinessObjects GCP
Contexte de la mission : La Direction Immobilière Groupe est chargée de la définition stratégique des actifs immobiliers du groupe ainsi de que leur gestion. Au sein de la DSI, le pôle data a pour rôle de mettre à disposition des informations clés destinées aux analyses et reporting de la DIG. Ce pôle souhaite renforcer son équipe avec un Data Engineer afin de maintenir et faire évoluer son patrimoine applicatif data. La mission s'inscrit aussi dans une roadmap de migration à moyen terme vers une nouvelle architecture data GCP. MISSIONS : Les travaux confiés porteront sur la maintenance corrective et évolutive du patrimoine data à savoir : Flux de données : Conception technique, développement, tests, supports recette des jobs Talend Reporting : maintenance des univers BO, création & modifications de rapports BO API Talend ESB : conception et développement de flux temps réel Documentations : élaboration technique, spécifications Compétences recherchées : -Obligatoires : Talend DI, Talend ESB, SAP BusinessObjects, Oracle, Postgre Méthode Agile Scrum -Optionnelles : GCP Expérience nécessaire : 10 ans sur la fonction Méthodologie : Scrum Langue : Français Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l'industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital. Kéoni Consulting aide les entreprises à: Faire la différence Innover et créer Réinventer votre business Satisfaire les clients Gagner en avantages compétitifs Devenir le leader de leur secteur Devenir le leader de votre secteur Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation)
Offre d'emploi
Data Engineer Talend / BusinessObjects / GCP F/H
Au sein de la Direction Immobilière Groupe (DIG) et rattaché(e) au pôle Data de la DSI, vous participerez à la maintenance et à l’évolution du patrimoine applicatif data, tout en accompagnant la roadmap de migration vers une nouvelle architecture sur Google Cloud Platform (GCP) . Vos missions principales incluront : Maintenance corrective et évolutive des flux de données Talend (DI et ESB). Conception technique, développement, tests et support recette des jobs Talend. Maintenance des univers SAP BusinessObjects et création/modification de rapports. Développement de flux en temps réel via Talend ESB. Rédaction des documentations techniques et des spécifications fonctionnelles. Compétences techniques requises : Obligatoires : Talend DI et Talend ESB. SAP BusinessObjects. Bases de données Oracle et PostgreSQL. Méthodologie Agile Scrum. Optionnelles : Expérience avec Google Cloud Platform (GCP).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?
- Obligé de faire la plonge pour survivre...
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE
- Dépassement plafond AE deux années consécutives ?
- 3 mois intercontrats, 6 entretiens client final 6 echecs