Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Spark à Lyon
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Développeur Big Data - Junior H/F
Nous recherchons pour un.e Développeur Big Data Junior pour réaliser une mission chez un de nos clients basé à Lyon. En tant que tel.le, vous participerez au développement et à la maintenance d’une application utilisée par 1500 utilisateurs pour le pilotage et l’analyse des données. Vous aurez comme missions principales de : Concevoir et optimiser des pipelines de données sécurisés. Assurer la création, maintenance et optimisation des bases de données (SQL et NoSQL). Faire du support aux équipes pour proposer des solutions SGBD performantes . Définir et implémenter de solutions techniques Big Data (Spark) . Assurer une mise à jour constante sur les outils Big Data pour apporter des solutions innovantes.
Mission freelance
Développeur Big Data
Détecter, proposer et suivre les optimisations des requêtes SQL, PL/SQL Assurer le support aux équipes de développement Apporter une expertise transverse sur Spark Assurer e la création, la maintenance, l'optimisation et la sécurité des bases de données Veille technologique sur les outils utilisés au sein du projet Partager et formation sur les guides de bonnes conduites Accompagnement des autres développeurs Spark sur le projet Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données
Offre d'emploi
Lead data engineer
🚀 Rejoignez notre équipe en tant que Lead Data Engineer ! Vous êtes passionné par l'ingénierie des données et l'optimisation des flux ? Nous recherchons un Lead Data Engineer pour piloter notre Dataflow et renforcer notre équipe. Si vous souhaitez jouer un rôle clé dans des projets innovants et l'optimisation des performances cloud, cette opportunité est pour vous ! Vos missions : Définir la stratégie technique des données en collaboration avec les équipes. Concevoir des architectures robustes et superviser la mise en œuvre des pipelines ETL. Optimiser les performances et assurer la scalabilité des infrastructures de données en cloud hybride. Encadrer l'équipe Data, former et garantir la montée en compétences. Développer le MLOps pour les solutions de Machine Learning. Pourquoi nous rejoindre ? 🌐 Projets de Data innovants. 🏡 Environnement agile avec télétravail flexible. 🎓 Opportunités de formation continue. 🎁 Avantages : congés supplémentaires, mutuelle, télétravail, etc. Compétences requises : Cloud (Azure, AWS, OVH), Spark, Airflow, ETL (Talend). Python, SQL, DBT, PostgreSQL, Hadoop. Docker, Kubernetes, Git, Jenkins, Méthodes agiles. Prêt à relever le défi et rejoindre un acteur majeur ? Postulez maintenant et faites avancer votre carrière avec nous ! 🚀
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
Lead data engineer
🚀 Rejoignez notre équipe en tant que Lead Data Engineer ! Vous êtes passionné par l'ingénierie des données et l'optimisation des flux ? Nous recherchons un Lead Data Engineer pour piloter notre Dataflow et renforcer notre équipe. Si vous souhaitez jouer un rôle clé dans des projets innovants et l'optimisation des performances cloud, cette opportunité est pour vous ! Vos missions : Définir la stratégie technique des données en collaboration avec les équipes. Concevoir des architectures robustes et superviser la mise en œuvre des pipelines ETL. Optimiser les performances et assurer la scalabilité des infrastructures de données en cloud hybride. Encadrer l'équipe Data, former et garantir la montée en compétences. Développer le MLOps pour les solutions de Machine Learning. Pourquoi nous rejoindre ? 🌐 Projets de Data innovants. 🏡 Environnement agile avec télétravail flexible. 🎓 Opportunités de formation continue. 🎁 Avantages : congés supplémentaires, mutuelle, télétravail, etc. Compétences requises : Cloud (Azure, AWS, OVH), Spark, Airflow, ETL (Talend). Python, SQL, DBT, PostgreSQL, Hadoop. Docker, Kubernetes, Git, Jenkins, Méthodes agiles. Prêt à relever le défi et rejoindre un acteur majeur ? Postulez maintenant et faites avancer votre carrière avec nous ! 🚀
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.