Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Lyon
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant Talend
Contexte : Dans le cadre d'un projet autour du SI, nous sommes en recherche d’un profil Talend expérimenté sur T1 2025. MISSIONS : Développement de nouveaux flux (Talend 8 Cloud) Refonte de flux existants TMA évolutive MCO sur flux existants Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l'industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital. Kéoni Consulting aide les entreprises à: Faire la différence Innover et créer Réinventer votre business Satisfaire les clients Gagner en avantages compétitifs Devenir le leader de leur secteur Devenir le leader de votre secteur Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation)
Mission freelance
Développeur Talend confirmé (H/F)
Notre client dans le secteur Assurance recherche un/une Développeur Talend confirmé H/F Nous recherchons un(e) Développeur Talend expérimenté(e) pour participer à un projet stratégique de migration et d'optimisation des flux de données au sein de notre entreprise. Vous serez également impliqué(e) dans la mise en place de nouveaux flux pour synchroniser nos systèmes ERP avec des plateformes externes. Migration de flux Talend Migrer environ 60 flux existants de Talend Open Studio (environnements REC/PROD) vers Talend Enterprise Edition (environnements REC/PPR/PROD). Optimisation et factorisation des flux Améliorer la performance et la maintenabilité des flux existants. Standardiser la gestion des logs. Mutualiser les connexions aux bases de données (BDD). Rationaliser les appels à des APIs externes. Développement et déploiement de nouveaux flux Développer et mettre en production de nouveaux flux pour la synchronisation entre l’ERP et Brevo (anciennement Sendinblue).
Offre d'emploi
Architecte Flux (H/F) - 69
Je suis à la recherche pour mon client d'un(e) Architecte Flux pour piloter et optimiser les flux de données du Système d’Information de mon client dans le secteur de l'Assurance. En tant qu'Architecte Flux, vous serez garant(e) de la cohérence, de l'intégrité et de la fluidité des flux de données au sein du SI, tout en veillant à la sécurité et à la conformité réglementaire (GDPR, etc.). Vous interviendrez dans des projets d'envergure et contribuerez à l'urbanisation de notre architecture SI. Gouvernance des flux de données : Mettre en place et piloter la gouvernance des flux de données. Garantir la cohérence des échanges inter-applicatifs. Superviser l'intégration et assurer la sécurité des flux dans le respect des standards et réglementations. Conception des flux : Analyser les besoins métiers pour concevoir une architecture optimisée des flux. Rédiger les spécifications techniques et fonctionnelles des échanges inter-applicatifs. Optimiser les flux pour maximiser performance, fiabilité et sécurité. Migration de Talend vers Apache Hop & Apache Camel : Réaliser un audit des flux existants et proposer des solutions d'amélioration. Concevoir et piloter la migration vers Apache Hop pour l'ETL et Apache Camel pour les intégrations. Former les équipes et assurer un cadre technique normatif pour les futurs développements. Veille technologique et amélioration continue : Assurer une veille constante sur les solutions d’intégration. Recommander des améliorations de l’architecture des flux.
Mission freelance
Data Analyst (H/F)
Projet : Dans le cadre de l’évolution des enjeux et des besoins métiers (sûreté, sécurité, productivité, performance…) et dans le cadre des ambitions digitales du groupe EDF, la direction de production thermique et nucléaire (DPNT) cherche à assurer une continuité d’activité/accessibilité et une meilleure productivité. Pour répondre à ces enjeux, le SI doit devenir un levier de performances opérationnelles et financières. Vision 2035 est un programme par palier en 5 ans pour mettre en place le SI de demain. Vision 2035 va doter la DPNT d’un SI élaboré par l’utilisateur pour l’utilisateur, inclusif pour les partenaires, dont l’apport de valeur métier tire parti d’une exploitation des leviers technologiques et des données. Le produit myFTPDR est l'un des premiers sujets du programme et concerne le domaine de la Pièce De Rechange. Son objectif est de fournir un catalogue de qualité aux utilisateurs afin qu'ils puissent retrouver facilement la bonne PDR en vue de la préparation et de la réalisation de leur activité sur site. Contexte : myFTPDR est sur stack Angular TypeScript. L'équipe est constituée de 2 streams de 6 et 7 personnes. L'objectif ici est d'acquérir une ressource Data Analyst afin de nous aider dans l'analytics et la proposition d'algorithmes pouvant amener de la qualité dans nos données et les faire progresser.Dans un contexte DATA le python peut s'avérer utile. Activités : - Réalisation du cadrage avec le métier sur le besoin / la problématique à traiter - Mise en oeuvre d'hypothèses et d'une démarche d'expérimentation - Réalisation d'analyses et d'études afin de valider/infirmer certaines hypothèses - Rédaction de la documentation associée, notamment si méthode CRISP-DM appliquée - Vulgarisation des concepts proposés - Réalisation des algorithmes et travail avec les applications cibles concernées pour l'implémentation de ces algorithmes - Intégration à l'équipe produit du produit concerné
Offre d'emploi
Data Architect
Rejoignez notre client en tant que Data Architect ! Notre client, acteur clé dans son secteur, recherche un Data Architect pour piloter l'architecture et l'intégration des solutions data, dans un contexte de transformation technologique. Concevoir : Définir et piloter l'architecture data. Construire et déployer des solutions d'intégration (Talend, Mulesoft). Moderniser et urbaniser le système d'information. Garantir : Assurer la cohérence et l'interopérabilité des systèmes. Maintenir et optimiser les flux de données. Superviser : Veiller aux innovations technologiques. Encadrer l'équipe de développement (interne et externe). MUST HAVE : Modélisation d'architectures complexes, solutions d'intégration (Talend, Mulesoft), API management et microservices. SOFT SKILLS : Capacité d'analyse, autonomie, rigueur, bon relationnel. NICE TO HAVE : Expertise Talend ESB/ETL, Mulesoft, Agile, API Management. Vous participerez à des projets de transformation stratégiques avec des technologies de pointe. Vous évoluerez dans un environnement ouvert et innovant. Intéressé(e) ? Contactez-nous !
Offre d'emploi
Ingénieur décisionnel
Vous souhaitez intégrer un éditeur de logiciel 100% santé ? Vous appréciez avancer en équipe, n'êtes pas du genre à travailler dans votre coin pour tout livrer d'un coup? Et vous possédez une véritable appétence pour le fonctionnel ? Alors prenez un instant, et poursuivez votre lecture ! Opportunité à saisir chez un Client final : - Ingénieur Décisionnel - CDI - Lyon - Télétravail 2 jours/semaine Vous développerez ces flux à l'aide de la solution ETL Stambia et serez responsable de la conformité des livraisons techniques (qualité, coûts, délais) tout au long du cycle de vie des projets. Vous interagirez directement avec les utilisateurs pour comprendre leurs besoins et les conseiller (taux d'absentéisme, taux équivalent temps plein…), afin de cadrer et développer les solutions les plus adaptées. A ce titre, vous assurez les missions suivantes : Cadrage des Activités : Rédaction des spécifications techniques et fonctionnelles Animation d'ateliers avec les utilisateurs afin de bien comprendre leurs besoins Conception et Réalisation des Flux ETL: Analyse des données sources et des tables cibles Création des mappings ETL pour alimenter le Data Warehouse à partir de bases de données ou fichiers Modélisation cible et création des dimensions et mesures Réalisation de tests unitaires et globaux (via jeux de données) Alimentation du Data Warehouse et optimisation des traitements Dashboarding et Reporting : Réalisation de dashboards de recette via la plateforme BI Création de tableaux de bord pour les utilisateurs si nécessaire Prise en compte des retours durant la phase de recette Formation et Documentation : Formation des utilisateurs à l'utilisation des outils et création de documentation client Suivi du plan de recette en collaboration avec le chef de projet Maintenance et Support : Maintenance évolutive, corrective et support sur les flux en production chez les clients Suivi des anomalies dans les environnements de recette et de production Utilisation de GitLab pour le stockage du code source et la gestion de la documentation (tickets, code, etc.) Amélioration Continue : Aide à l'amélioration des processus et outils internes Poste en CDI à pourvoir dès que possible. Horaires de bureau, flexibles. Localisation : Lyon Rémunération fixe selon expérience 30/43K€ fixe Avantages : - 12 jours de RTT - 2 jours de télétravail possible - Tickets restaurants 10€ - Mutuelle
Offre d'emploi
Lead data engineer
🚀 Rejoignez notre équipe en tant que Lead Data Engineer ! Vous êtes passionné par l'ingénierie des données et l'optimisation des flux ? Nous recherchons un Lead Data Engineer pour piloter notre Dataflow et renforcer notre équipe. Si vous souhaitez jouer un rôle clé dans des projets innovants et l'optimisation des performances cloud, cette opportunité est pour vous ! Vos missions : Définir la stratégie technique des données en collaboration avec les équipes. Concevoir des architectures robustes et superviser la mise en œuvre des pipelines ETL. Optimiser les performances et assurer la scalabilité des infrastructures de données en cloud hybride. Encadrer l'équipe Data, former et garantir la montée en compétences. Développer le MLOps pour les solutions de Machine Learning. Pourquoi nous rejoindre ? 🌐 Projets de Data innovants. 🏡 Environnement agile avec télétravail flexible. 🎓 Opportunités de formation continue. 🎁 Avantages : congés supplémentaires, mutuelle, télétravail, etc. Compétences requises : Cloud (Azure, AWS, OVH), Spark, Airflow, ETL (Talend). Python, SQL, DBT, PostgreSQL, Hadoop. Docker, Kubernetes, Git, Jenkins, Méthodes agiles. Prêt à relever le défi et rejoindre un acteur majeur ? Postulez maintenant et faites avancer votre carrière avec nous ! 🚀
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
Lead data engineer
🚀 Rejoignez notre équipe en tant que Lead Data Engineer ! Vous êtes passionné par l'ingénierie des données et l'optimisation des flux ? Nous recherchons un Lead Data Engineer pour piloter notre Dataflow et renforcer notre équipe. Si vous souhaitez jouer un rôle clé dans des projets innovants et l'optimisation des performances cloud, cette opportunité est pour vous ! Vos missions : Définir la stratégie technique des données en collaboration avec les équipes. Concevoir des architectures robustes et superviser la mise en œuvre des pipelines ETL. Optimiser les performances et assurer la scalabilité des infrastructures de données en cloud hybride. Encadrer l'équipe Data, former et garantir la montée en compétences. Développer le MLOps pour les solutions de Machine Learning. Pourquoi nous rejoindre ? 🌐 Projets de Data innovants. 🏡 Environnement agile avec télétravail flexible. 🎓 Opportunités de formation continue. 🎁 Avantages : congés supplémentaires, mutuelle, télétravail, etc. Compétences requises : Cloud (Azure, AWS, OVH), Spark, Airflow, ETL (Talend). Python, SQL, DBT, PostgreSQL, Hadoop. Docker, Kubernetes, Git, Jenkins, Méthodes agiles. Prêt à relever le défi et rejoindre un acteur majeur ? Postulez maintenant et faites avancer votre carrière avec nous ! 🚀
Offre d'emploi
Développeur Java Senior pour Master Data Management (H/F)
## Contexte du poste Notre entreprise, un leader dans le secteur de la gestion et du conseil, avec une forte empreinte technologique et numérique, est située près de Lyon. Dans le cadre de l'expansion de notre département de l'informatique, et plus spécifiquement notre équipe dédiée au master data management (MDM), nous cherchons à renforcer notre capacité en développement Java. L'équipe actuelle, composée de talents internes et externes, gère une variété de projets stratégiques axés sur la consolidation et l'optimisation des données de l'entreprise. La nécessité de ce recrutement émane de notre volonté d'internaliser les compétences critiques et de développer notre expertise en master data management. ## Missions ### Principales - Concevoir et développer des solutions Java efficaces pour notre outil MDM utilisant TIBCO EBX. - Collaborer à l'amélioration continue de la plateforme par des contributions innovantes et optimisées. - Participer activement au cycle de vie du développement, incluant conception, codage, tests et déploiement. - Assurer la maintenance et le support de niveau 3 de l'application, garantissant sa disponibilité et sa performance. ### Annexes - Travailler en étroite collaboration avec les autres départements IT pour intégrer les systèmes et fluidifier les échanges de données. - Contribuer à la documentation technique et à la transmission des connaissances au sein de l'équipe. ## Stack technique ### À maîtriser - Java (expérience solide requise) - MDM, idéalement TIBCO EBX - ETL, experience avec Pentaho est un plus ### Environnement global - Gestion de base de données et outils de Data Engineering - BusinessWorks ou autres ESB - Git, Jenkins pour l'intégration et le déploiement continus
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.