Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer Java Spark
Data Engineer Niveau 3 Contexte : Intégrer une équipe de développeurs data (Java, Spark, Spring) dont le rôle est la mise en place de pipelines de données à destination de vues NoSQL (Cassandra, MongoDB, Elasticsearch) Expérience de 5 ans min en développement data Expérience dans un grand groupe (expérience de l’inertie et des contraintes d’un groupe) Expérience sur tout le cycle de vie d’une application (besoin, conception, développement, déploiement, maintenance) Expérience souhaitée en amélioration d’une solution existante (contrainte de SLA, performance, montée en charge, refactoring, voir refonte) Recueillir le besoin utilisateur/BA, conceptualiser la solution technique associée et l’implémenter Adopter une approche proactive sur la qualité de code avec une méthodologie TDD Amélioration continue du code existant et revue avec les pairs des évolutions Support et sensibilisation des pairs à la qualité du code, aux bonnes pratiques et outillage améliorant l’expérience de développement S’inscrire dans une démarche agile avec un rythme de livraison soutenu (1 MEP / mois)
Mission freelance
devOps DATA
Bonjour, je recherche pour l'un de mes clients un(e) devOps DATA. Skills : Linux - Data (KAFKA, Hive, Spark) Tâches : assurer le RUN (incidents de niveau 2 et 3) évolution des socles hébergés garantir le fonctionnement optimal des outils ou systèmes apporter son expertise, conseil et assistance dans l'usage et la mise en oeuvre d'applications Localisation : Niort (2 jours de télétravail par semaine) Démarrage : début janvier Longue visibilité (3 ans de mission) N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Data engineer & BI
Missions et tâches : o Mise en oeuvre de projets data = missions principales ▪ Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des pipelines de données avec ADF et Databricks (ingestion Bronze/ Implémentation Silver) ▪ Mise en oeuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Analyse & BI : ▪ Analyse des besoins ▪ Conception, élaboration et déploiement des rapports et tableaux de bord sous Power BI à partir du Gold ▪ Modélisation des datamarts ▪ Analyses de données et Requêtages ▪ Maintenance évolutive et corrective o Coordination des intervenants SI o Rédaction de spécifications & Documentation o Mise en place des exigences RGPD/SSI
Mission freelance
data engineer python / spark MLOPS senior / databricks (forcasting)
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus.
Offre d'emploi
DATA ENGINEER SEMARCHY / SAP BO F/H | NANTES (44)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Comprendre l’activité et les besoins des clients, ainsi que le SI de production en collaboration avec la MOA/MOE Modéliser le SI décisionnel Assurer la conception et la réalisation Assurer le diagnostic des dysfonctionnements rencontrés Réaliser les maintenances correctives et évolutives Intervenir sur du support de N3 sur les outils Semarchy XDI (Stambia) et SAP BO Créer, modélisation et alimenter un datamart via des process Semarchy (Stambia) Créer des rapports d’audit sur SAP BO Analyser des tables VERTICA/MSSQL Assurer le scripting Powershell / Batch file Apporter votre support auprès des différents métiers Rédiger la documentation technique Suivre les traitements Piloter les projets Environnement Technique : Stambia, Semarchy XDI, SAP BO, Vertica, MSSQL, Powershell, Batch Le poste est basé à Nantes (44). Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Offre d'emploi
Data Architect GCP
L'architecte data est la personne responsable de la cohérence de bout en bout des données dans l'organisation en appliquant les règles de l'architecture des données. Il est responsable de la modélisation des domaines de données et des business object. Il participe à tous les projets de l'entreprise afin de définir les impacts sur l'architecture de données existante et de la faire évoluer vers la cible. Activités principales : Data Architecture : - Établir et appliquer les principes de l'architecture des données - Encadrer et valider l'architecture des données dans les projets - Capacité de remettre en question les implémentations de données dans les systèmes opérationnels, business intelligence et la data science afin de s'assurer de leur conformité. - Veiller à ce que la conception des solutions permette la mise en oeuvre des business object. Data Governance : - Participer aux revues de projet et prend des décisions sur l'architecture des données. - Identifier et diagnostiquer les dysfonctionnements, les incidents, les non-conformités et soutenir la formalisation des scénarios de remédiation. des scénarios de remédiation. Data Quality : - Exprimer les exigences de qualité des données, avec les data owners, que les solutions doivent assurer. - Analyser la performance du système d'information et recommander des mesures d'amélioration de la qualité, la sécurité et la productivité Data Modeling : - Maintenir les diagrammes du modèle sémantique (avec les principaux business object) et la data domain map. - Soutenir les projets dans la création de data model et les valider. Metdata Management : - Développer, avec les data owners, un vocabulaire commercial commun et les définitions associées. - Gerer un inventaire de données dans les solutions opérationnelles (à l'aide de l'outil de gestion des métadonnées). - Maintenir, avec les business analysts, product owners et les enterprise architect, l'application "Business object associations. Data Integration : - Capacité d'esquisser des conceptions d'intégration inter-applications de haut niveau. Data Transformation : - Encadrer les équipes chargées des données (business analysts, data owners, analystes et ingénieurs du groupe, de la zone et des BU) et les équipes projet en ce qui concerne l'architecture des données (data modeling, integration pattern, etc.). - Diriger des ateliers sur l'architecture des données afin d'améliorer les pratiques. - Soutenir l'approche de l'architecture en créant des contenus de vulgarisation, de formation et de communication.
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Mission freelance
Data Science / Python / Dataiku
Nous recherchons un profil expert pour une mission en Data Science – Python, avec une forte expertise technique et une bonne compréhension du domaine bancaire. Objectifs de la mission : Contribuer aux activités suivantes : Maîtrise de l’environnement Python, Git, et PySpark. Utilisation experte de Dataiku pour des projets analytiques et opérationnels. Application de la modélisation statistique et du Machine Learning (ML) à des cas concrets. Création de solutions avancées en reporting et data visualisation adaptées au domaine bancaire. Livrables attendus : Développement et maintenance évolutive de modèles ML robustes. Participation aux comités de suivi pour le monitoring des modèles avec les marchés concernés. Gestion complète des produits data, y compris : Contribution aux modélisations ML et aux études analytiques. Gestion de projet de bout en bout : planification, reporting, propositions de valeur, et documentation technique. Compétences et technologies requises : Expertise en Python et outils connexes (Git, PySpark). Solide expérience avec Dataiku. Connaissances approfondies du domaine bancaire. Maîtrise des techniques de modélisation, de Machine Learning, et de data visualisation. Capacité à gérer des projets complexes, incluant coordination et documentation technique.
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Offre d'emploi
Architecte Data - H/F
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Architecte Data pour l'un de nos clients du secteur bancaire et des assurances. Vous interviendrez sur le site client situé dans la région Nouvelle Aquitaine. À ce titre, vos missions quotidiennes seront les suivantes : • Prendre en charge les dossiers d'architecture des projets tout en garantissant leur cohérence avec la stratégie et la roadmap du Patrimoine Data ; • Accompagner les Product Owners/Managers et les équipes métiers dans l'évolution des solutions Data ; • Apporter une expertise technique et fonctionnelle dans le cadre des transformations liées à la migration cloud ; • Promouvoir le cadre d'architecture Data auprès des équipes métiers et techniques, tout en étant un interlocuteur clé dans les décisions stratégiques. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
DevOps JAVA
Intégration d'une équipe Agile Scrum en charge de la conception, du développement et de la maintenance d'une plateforme de big data. Cette plateforme s'appuie sur des technologies de pointe et des services managés Azure, en suivant une architecture de type Data Mesh. Son objectif principal est de fournir aux équipes et utilisateurs des fonctionnalités essentielles pour faciliter et industrialiser les projets de data science, notamment : Des données anonymisées prêtes à l'emploi. Des capacités de requêtes. Des environnements de data science. La gestion de modèles. Des boucles de rétroaction vers les systèmes opérationnels. Cette plateforme héberge également toutes les charges de travail analytiques, en mode batch ou streaming, en prenant en charge de nouveaux cas d'usage ou en permettant la migration des applications des centres de données privés vers Azure.
Mission freelance
Architecte Solutions SI- Expertise Data Modélisation
CONTEXTE Dans le cadre de l’équipe Architecture Solutions SI de la Direction Stratégie SI Architecture et Cloud, En tant qu’Architecte Solutions SI / Expertise Data Modélisation : MISSIONS - Organiser et suivre l’accompagnement nécessaire des projets dans la définition de leur architecture de solution, en lien avec la stratégie et processus métier d’une part et les objectifs de rationalisation et d’alignement du SI d’autre part, et dans le respect du cadre d’architecture. - Définir, promouvoir, enrichir et suivre la bonne mise en œuvre opérationnelle du cadre normatif de constitution du SI. - Réaliser la modélisation fonctionnelle des objets Métiers dans le cadre du Modèle Fonctionnel. L'architecte avec son expertise sur les couches Data / Modélisation prend en charge les travaux associés au MF (Modèle Fonctionnel) correspondant à la modélisation fonctionnelle des objets Métiers définis depuis le MOM (Modèle Objets Métiers), en lien le DataOffice ou les Direction métiers. Dans le cadre des demandes projets, l’architecte définit le MF, met à jour la cartographie dans Mega HOPEX et peut être amené à accompagner les équipes de réalisation/développement dans la définition des MLD, Modèles logiques de données, déclinés depuis le MF (et potentiellement en support technique DBA Etudes, avec le MPD) Le MF, et ses déclinaisons, sont la base de l’ensemble des modèles de données des applications métiers et DataHub.
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.