Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Engineer AWS
Contexte : Nous recherchons pour l'un de nos clients, un Data Engineer (H/F) afin de renforcer son pôle AI Experts, qui intervient sur des sujets impactant directement son business et l'expérience client, afin d'optimiser la personnalisation, le taux de conversion et les assets. Description : Grâce à ses compétences alliant Développement Big Data, appétences pour les modèles d’IA et Architecture Applicative, le Data Engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables : . Définir et analyser des structures de données, . Contribuer aux assets des différentes équipes produits pour interconnecter et collecter les données, . Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), . Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire), . Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés), . Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, . Présenter et expliquer les réalisations à des publics métiers et techniques.
Data Engineer - Sophia Antipolis

Bonjour à tous, Mon client recherche un data engineer pour un poste dans un environnement full Azure. Les missions principales : Au sein de la DSI, vous travaillerez essentiellement à la conception et l'optimisation des pipelines sur Azure Data Factory. Une connaissance complète de Fabric est attendue (Azure Data Factory et synapse pour le volume de données). La mission est une mission classique de Data engineering avec une certaine dimension de conception de dashboards sur PowerBI. Le recueil de besoin de certaines équipes métiers peut entrer dans le day-to-day job. La mission demande l'implémentation des processus ETL/ELT robustes et performants, la modélisation de donnée, la mise en place d'une gouvernance et une documentation des Best Practices
Data engineer (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Date engineer (H/F) à Lyon, France. Contexte : Analyser des solutions EAM proposées par les éditeurs et évaluer leur impact sur les données Les missions attendues par le Data engineer (H/F) : Analyse des solutions éditeurs Conception des stratégies de migration Réaliser des mappings complexes Exploiter les services managés AWS Mise en oeuvre d'un POC Automatisation du déploiement et des contrôles Mise en place du reporting et tableaux de bords Compétences attendues : Expertise AWS confirmée (DMS, Glue, SCT) Expertise ETL Expérience AWS Pilotage par reporting
DATA ENGINEER - connaissances DBT obligatoire

Nous recherchons pour l'un de nos grands comptes, un Data Engineer. Vous trouverez ci-dessous le descriptif du poste : La prestation du data engineering consistera à participer à : La mise en place de pipelines de traitement de données Le développement des modèles de données L’extraction et l’exposition des données du Data Lake vers d’autres services L’industrialisation des projets sur la GCP La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises requises pour la réalisation de la prestation : Au moins 1 an d’expérience dans un environnement data Compétences solides en data : structures de données, code, architecture Connaissance de l’un des Cloud Provider Public : de préférence GCP Connaissance de DBT obligatoire Références professionnelles sur des projets Big Data : de préférence Pyspark, BigQuery et dbt Compétences en SQL et Python Expertises dans la mise en place de pipeline ETL / ELT Bonnes connaissances de Gitlab et Gitlab CI/CD Forte capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile (Scrum, Kanban)
Data engineer (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer (H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer (H/F) : - participer aux opérations de build sur les environnements Big Data basées sur Google Cloud. - concevoir et développer les nouveaux flux de données (batch et temps réel) en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers. Votre profil : - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services dans des projets Data. (Bigquery, GCS, Pubsub, Cloud function, Composer etc...) - Expérience avec les processus de transformation des données DBT - Connaissance du langage Python et de composer - Excellentes connaissances du SQL et des grands principes de modèle de données - Compréhension des enjeux du Retail dans ses composantes principales (Customer , Product , Supply Chain, Commerce (Web&Store), Human Resources ) - Sensible aux méthodes de travail agiles. - Autonome, curieux et proactif
Data Engineer Snowflake

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake : Dans le cadre d’un projet financier stratégique, nous recherchons un Senior Data Engineer pour contribuer activement à la conception, la mise en place et l’optimisation de notre Data Warehouse (DWH) et de nos DataMarts. Ces infrastructures sont essentielles au bon fonctionnement de notre outil EPM (Board) et des solutions dédiées à l’audit financier. Le candidat sélectionné travaillera en collaboration avec des équipes transverses afin d'assurer une intégration et une transformation des données sans faille. Responsabilités : Concevoir, développer et maintenir des Data Warehouses et DataMarts scalables basés sur des données financières. Développer et optimiser des requêtes SQL complexes et des procédures stockées sur Snowflake. Travailler avec des données issues de SAP, comprendre leurs structures et assurer une cartographie et transformation précises. Utiliser Azure Data Factory pour la gestion et l’orchestration des pipelines de données. Collaborer avec les équipes DevOps pour l’implémentation de CI/CD pipelines en utilisant Azure DevOps. Assurer la qualité et l’intégrité des données tout au long du processus ELT. Compétences techniques requises : Expérience : Minimum 5 ans sur des projets de DWH et DataMarts. Expertise avancée en Snowflake et procédures stockées. Maîtrise de l’intégration et de l’automatisation via Azure DevOps CI/CD. Expérience confirmée avec les données SAP, en particulier sur la compréhension des structures de tables SAP et leur transformation. Soft Skills : Résolution de problèmes : Capacité analytique avancée pour identifier et résoudre des problèmes complexes de gestion de données. Communication et collaboration : Capacité à travailler en étroite collaboration avec les équipes Finance, IT et DevOps pour garantir l'alignement des solutions techniques avec les besoins métier. Expérience en méthodologie Agile/Scrum, Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Data Engineer Python - pipelines d'orchestration de modèles ML

Contexte : Nous recherchons un(e) développeur(se) Python passionné(e) pour rejoindre une équipe spécialisée dans la création de pipelines d'orchestration de modèles ML (préparation de features, entraînement, tuning et inférence). Ces pipelines permettent aux Quants & Data Scientists d’ industrialiser l’utilisation des modèles de Machine Learning pour la prévision de la consommation et de la production d’énergie. Missions : Concevoir et développer des pipelines de données pour le cycle de vie des modèles ML. Collaborer avec les Quants et Data Scientists pour résoudre les problématiques liées aux modèles de Machine Learning. Optimiser les processus d’entraînement et de déploiement des modèles. Contribuer à l’amélioration de la plateforme dédiée au forecasting en exploitant l’IA et le Big Data.
data engineer senior python aws

data engineer senior - freelance - paris secteur énergie: il faut intervenir sur des applications d'aide à la décision pour les commerciaux / traders plus de détails en privé voici la stack : python V3 (expert) , scala AWS git, docker, KS8 notion big data, notion data management system -- data engineer senior - freelance - paris secteur énergie: il faut intervenir sur des applications d'aide à la décision pour les commerciaux / traders plus de détails en privé voici la stack : python V3 (expert) , scala AWS git, docker, KS8 notion big data, notion data management system
DATA ENGINEER SEMARCHY F/H | DIJON (21)

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité de Data Engineer Semarchy F/H et serez en charge de : Participer à la configuration de la plateforme selon les besoins métier. Concevoir et optimiser des modèles de données et des workflows d’intégration. Rédiger des spécifications techniques et fonctionnelles. Développer et exécuter des requêtes SQL avancées. Gérer les bases de données Vertica et assurer leur performance. Assurer la qualité des données et leur conformité aux standards en vigueur. Former et accompagner les utilisateurs. Environnement Technique : Semarchy / Stambia, Vertica, SQL Le poste est basé à Dijon (21) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Senior Data Engineer Snowflake

Missions Principales - en tant que Senior Data Engineer Snowflake , vous jouerez un rôle clé dans : ✅ La conception, la construction et la maintenance d’un Data Warehouse (DWH) et de DataMarts à partir de données financières. ✅ L’optimisation et le développement de requêtes SQL complexes et de procédures stockées dans Snowflake . ✅ L’exploitation des données SAP , en comprenant ses structures de tables et en assurant un mapping précis et performant. ✅ L’orchestration des pipelines de données à l’aide d’ Azure Data Factory . ✅ La mise en place de CI/CD avec Azure DevOps en collaboration avec les équipes DevOps. ✅ Le contrôle et l’amélioration continue de la qualité et de l’intégrité des données tout au long du processus ELT .
Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP
ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes
Data Engineer Snowflake

·Vous développez et faites évoluer un Data Warehouse ainsi que des DataMarts en lien avec des données financières. ·Vous concevez et optimisez des requêtes SQL complexes ainsi que des procédures stockées sur Snowflake pour garantir des performances optimales. ·Vous étudirez la structure des tables SAP afin de comprendre et transformer les données avec précision tout en assurant un mapping efficace. Pourquoi rejoindre cette mission ? ·Construction et déploiement de A à Z d’un Data Warehouse et de DataMarts ·Environnement Technique récent : CI/CD, Snowflake, Azure DevOps … ·Flexibilité et autonomie : Une mission ajustable à vos compétences et un télétravail partiel (2 jours/semaine) possible.
Data engineer

Nous sommes à la recherche d'un(e) Data Engineer pour intégrer l'équipe de notre client et participer à la maintenance ainsi qu'au développement de nouveaux besoins métiers. En tant que Data Engineer, vous serez un élément clé de l'équipe, collaborant avec divers départements pour garantir la qualité et l'efficience des solutions de traitement de données de notre client. Responsabilités : - Assurer la maintenance et l'optimisation continue des pipelines de traitement de données existants. - Développer de nouvelles solutions pour répondre aux besoins métiers émergents. - Collaborer avec les équipes de Data Science et de Business Intelligence pour transformer des données brutes en informations exploitables. - Superviser et gérer les clusters Hadoop et java Spark. - Appliquer les meilleures pratiques pour l'architecture et la mise en œuvre des solutions de données. - Identifier et résoudre les problèmes de performance et de fiabilité des systèmes de données. Compétences techniques requises : - Solide maîtrise de Java. - Forte maîtrise de Spark. - Très bonne connaissance de l'écosystème Hadoop. - Expérience certaine en développement Hadoop MapReduce. Poste à pourvoir en freelance pour une durée de 12 mois renouvelable ou en CDI.
Data Engineer Python / AWS

Missions : Développer des outils d’aide à la décision et de nouvelles architectures data. Collecter, ingérer, traiter et restituer les données (météo, fondamentales, etc.). Optimiser les coûts et les performances des solutions data. Gérer le cycle de développement, l’infrastructure et les mises en production (DevOps). Assurer la maintenance évolutive et le support technique. Accompagner les analystes et data scientists dans l’utilisation des outils. Animer des workshops et formations sur les technologies Big Data et AWS.
Data Engineer – Java / Python / PostgreSQL (H/F)

Nous recherchons un Data Engineer pour accompagner un grand acteur du secteur immobilier dans un projet stratégique de structuration et d’optimisation de ses données patrimoniales. L’objectif est de centraliser, enrichir et exploiter ces données afin d’améliorer la prise de décision et d’optimiser la gestion de son patrimoine. Vos missions : - Développer des scripts de traitement de données en masse. - Concevoir et implémenter des appels d’API industrialisés. - Développer et optimiser des pipelines de données avec Apache Nifi. - Mettre en place des API et des solutions de restitution de données (Metabase ou équivalent). - Réaliser des analyses exploratoires pour optimiser l’exploitation des données.
Data Engineer confirmé (3 à 7 ans d’expérience)

Dans le cadre d’un programme de transformation data au sein d’un acteur majeur du secteur de la distribution, nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer les équipes d’une plateforme Data structurée autour d’une architecture « data-centric ». Cette plateforme vise à décloisonner les silos d’information et à fournir des données en temps réel via API à l’ensemble de l’écosystème métier et SI, dans une logique de convergence entre décisionnel et opérationnel. Vos responsabilités Intégré(e) à l’équipe data, vous serez chargé(e) de concevoir, développer et maintenir des pipelines de traitement de données à grande échelle, en environnement cloud. Vous interviendrez à la croisée des enjeux techniques et métiers, dans un environnement résolument agile et orienté performance. Missions principales développer et maintenir des flux de données batch et temps réel (BigQuery, BigTable, Apache Kafka, Apache Spark) concevoir des pipelines évolutifs et robustes en lien étroit avec les équipes techniques optimiser les processus d’acquisition, de transformation et de stockage des données assurer la haute disponibilité et les performances en production dans une démarche DevOps contribuer à la définition de l’architecture microservices et à l’amélioration continue rédiger et maintenir les tests unitaires et d’intégration produire des livrables de qualité et assurer un reporting clair et régulier proposer des pistes d’amélioration (refactoring, simplification, industrialisation) Compétences techniques requises langages : très bonne maîtrise de Java ; la connaissance de Scala est un atout apprécié, mais non bloquant traitement de flux et Big Data : bonne expérience avec Apache Kafka et Apache Spark cloud : expérience sur GCP (BigQuery, Dataproc, Kubernetes...) ou environnement cloud équivalent CI/CD : pratique de Git et des outils d’intégration/déploiement continus (GitLab CI/CD ou similaire) architecture & DevOps : bonne culture des microservices et des pratiques DevOps qualité logicielle : rigueur dans l’écriture de tests et dans le maintien de la qualité du code Soft skills attendus esprit d’équipe et capacité à collaborer dans un environnement distribué communication fluide, écrite comme orale sens de l’analyse et capacité à challenger l’existant avec bienveillance autonomie et proactivité dans la résolution de problèmes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- cc SYNTEC Formalisme Rupture période d'essaiil y a 5 minutes
- Demissioner pour passer Freelance en 2025 ?il y a 2 heures
- Conseils pour améliorer ma visibilité en tant que freelance ITil y a 2 heures
- Période creuse… besoin de conseils et de souffle collectifil y a 3 heures
- Portage salarial (Salaire + Dividende)il y a 4 heures
- SASU IS dividendeil y a 7 heures