Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data engineer Python – Finance de marché
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La Prestation consiste à contribuer/contribution a/au(x): L'implémentation de nouveaux use cases autour du programme FRTB, notamment sur le stream RRAO L'implémentation de nouveau use cases autour du programme Valuation Risk Program Autres projets fonctionnels Livrables : Les livrables attendus sont : Développement de code fonctionnel en Python pour répondre aux besoins réglementaires des programmes FRTB, VRP ou de tout autres sujets fonctionnels.
Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75
Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité
Offre d'emploi
Chef de Projet Technique Data – Chaîne Affluence
Contexte Dans le cadre d'un projet d'information voyageurs en Île-de-France, nous recherchons un Chef de Projet Technique Data pour améliorer la disponibilité et la qualité des données d’affluence transmises en temps réel aux usagers des transports. Votre rôle sera essentiel pour garantir la fiabilité et la précision des informations sur les taux d'occupation à bord et en gare. Missions principales En tant que Chef de Projet Technique Data, vous serez responsable de superviser et d’optimiser la chaîne de données d'affluence. Vos missions incluront : Évaluation des données et mise en place des standards de qualité : Réaliser un état des lieux du fonctionnement actuel, définir les indicateurs de qualité et fixer des objectifs de performance. Analyse et amélioration continue : Identifier les sources d'anomalies, proposer des solutions et assurer le suivi des actions correctives. Supervision des données : Développer et utiliser des tableaux de bord pour le suivi en temps réel des indicateurs de qualité tels que la complétude, la cohérence et la fraîcheur des données (outils PowerBI, Kibana, DataDog). Gestion de projet et coordination : Collaborer avec les équipes techniques et fonctionnelles, communiquer les avancées et assurer la coordination avec les différents responsables d'API et d'outils de comptage.
Mission freelance
Data Engineer confirmé
Mission : En tant que Data Engineer, vous jouerez un rôle central dans la transformation digitale de notre client. Vous concevrez et optimiserez les flux de données en assurant leur ingestion, transformation et modélisation dans un environnement AWS et Snowflake. Vous travaillerez étroitement avec la Data & Tech Factory pour automatiser les processus et assurer l'intégration continue de données fiables et exploitables dans les projets métier de l'entreprise. Compétences : Expérience de 4 à 5 ans en data engineering, idéalement en environnement cloud AWS Maîtrise de Snowflake pour le stockage et la gestion des données, avec des compétences en SQL et Python pour la manipulation et la transformation de données Connaissance des pratiques DevOps et CI/CD pour optimiser les workflows, et expérience en Infrastructure as Code avec Terraform
Offre d'emploi
Data Engineer Airflow (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Les missions : · Compréhension des besoins métiers · Maintenance et évolution de ces automates et micro-services · Développement de processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers · Travaille avec différents profils data du groupe (Data Scientist, data engineer, Data Architect, data analyst) · Contribuer au développement et à l’amélioration continue des outils data interne
Offre d'emploi
Tech Lead Data GCP
Tech Lead Data Cloud (GCP/AWS) Nous recherchons pour l'un de nos clients un(e) Tech Lead Data Cloud. Vous aurez l'opportunité de rejoindre une entreprise innovante, en pleine croissance, et de contribuer activement à la transformation digitale de ses clients grâce à des projets data ambitieux. Vos missions principales : • Audit cloud : Évaluer la configuration cloud des clients et recommander des améliorations pour optimiser leurs systèmes. • Architecture cloud-native : Concevoir des architectures data sur GCP et AWS, en utilisant des technologies telles que BigQuery, Redshift, MongoDB, Athena, CloudSQL, et Firestore. • Développement de pipelines : Mettre en place et développer des pipelines de traitement de données avec Spark, Dataflow, PubSub, SQS, etc. • Support aux équipes Data Science : Préparer et fournir les données nécessaires pour les projets de Machine Learning. • Onboarding clients : Accompagner les clients dans l'adoption des bonnes pratiques cloud et DevOps. • Automatisation CI/CD : Déployer des processus d'automatisation (CI/CD, GitOps) pour assurer des projets fluides. • Intégration et déploiement : Assurer le déploiement et l'intégration des solutions data et leur passage en production. Pourquoi rejoindre cette entreprise ? • Formation continue : Accès à des formations certifiantes 100% prises en charge et du temps dédié à la veille. • Days : Une journée par mois (12 jours par an) pour la veille technologique et le partage de connaissances. • Jours hors projets : Un quota de jours annuels dédié aux formations et conférences. • Mobilité durable : Prise en charge à 50% des frais de transport public et forfait pour les mobilités douces. ???? • Événements et culture d'entreprise : Séminaire annuel, activités mensuelles sponsorisées par l'entreprise, conférences tech, et afterworks réguliers ! Intéressé(e) par ce poste ? N'hésitez pas à nous contacter pour plus d'informations et discuter des opportunités !
Mission freelance
Data Engineer
Description du poste : Nous recherchons un Data Engineer freelance passionné et expérimenté pour rejoindre notre équipe dynamique. Vous travaillerez sur des projets innovants en utilisant des technologies de pointe telles que Hive, Hadoop, Dataiku, et Unix/Linux. Responsabilités : Concevoir, développer et maintenir des pipelines de données robustes et évolutifs. Optimiser les requêtes Hive pour améliorer les performances des traitements de données. Gérer et administrer des clusters Hadoop pour assurer une disponibilité et une performance maximales. Intégrer et automatiser des flux de travail dans Dataiku DSS pour des analyses avancées. Collaborer avec les équipes de data science et d’ingénierie pour implémenter des solutions de données efficaces. Assurer la sécurité et l’intégrité des données sur des systèmes Unix/Linux.
Offre d'emploi
Architecte Solution (Data & Intégration) ▸ Public
🔥 VOTRE QUOTIDIEN Etudes et cadrages des projets Participation aux phases de cadrage : ressources, budgets, plans de contribution et plannings. Analyse des besoins métiers pour proposer des architectures adaptées. Conception d'architectures Construction d’architectures sécurisées alignées avec les référentiels existants. Veille au respect de la cohérence des projets en matière d’architecture. Alimentation et évolution du cadre de référence. Sécurisation et intégration des solutions Accompagnement des équipes projets sur l’intégration de la sécurité (démarche ISP). Gestion des droits d’accès et renforcement des dispositifs de protection des données sensibles. Sélection et validation des outils Étude des solutions disponibles sur le marché. Participation au choix des outils répondant aux exigences du projet. Collaboration et support Interaction étroite avec les divisions Infrastructure & Exploitation et Intégration & Applications de la DSI. Transfert de connaissances, vulgarisation et accompagnement des équipes.
Mission freelance
Tech-Lead/Dév Data AWS (H/F) - IDF
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Un Tech-Lead/Dév Data AWS (H/F) Un profil senior (10+ ans d’expérience) est recherché pour le département Solutions Data (Data Engineering) La mission consistera à : Conception et Développement : Participer au design technique des solutions logicielles et à la recherche de solutions techniques. Prendre en charge une partie des développements. Encadrement et Qualité : Accompagner les autres développeurs (coaching, optimisation de code). Collaborer avec l'architecte data pour l'intégration dans le SI. Assurer la qualité des produits logiciels.
Offre d'emploi
Architecte Data Azure - Paris H/F
Rejoignez Inventiv IT et façonnez l'avenir avec nous 🚀 Vous êtes un(e) Architecte Data Azure passionné(e) par les Big Data et la transformation digitale ? Rejoignez-nous pour concevoir et implémenter des architectures data de pointe sur Azure, en dirigeant des projets innovants dans le Cloud et en assurant la qualité des livrables 🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en Avec 7 ans d'expérience au minimum. Travaillant sur des sujets Big Data & Data Viz Participation à l’évaluation et à la livraison de composants Azure . Gestion du Build & du Run des applicatifs Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks . Implémentation de solutions utilisant Azure SQL Database , Azure Data Factory , et Azure SQL Managed Instance . Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data . Définition des solutions d’architecture Big Data dans le Cloud Azure . Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT) . Migration des projets dans des nouvelles architectures ( HDI vers AKS , Datalake Gen1 vers Gen2 , AKS 1.19 vers AKS 1.X ) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod . Participation à des instances de : Design Authority , CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel). Validation de l'architecture du Product Incrément , à des réunions de qualification. Validation avec le RSSI et suivi de chantiers de résilience et de suivi FinOps . Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI , ainsi que gestion de la sécurité des données. Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Offre d'emploi
Data Engineer Senior H/F
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants et d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Banque, Assurance, Retail ou Médias et service, tu participeras à des projets d’envergure, de refonte, de migration, et / ou à des évolutions majeures du SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L'architecture et/ou le socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras
Mission freelance
ARCHITECTE DATA AZURE H/F
Dans un contexte multi cloud (Azure et AWS), pour réaliser les missions détaillées ci-après, notre client a besoin d’un/e ARCHITECTE DATA AZURE sénior/expert, dont elle ne dispose pas en interne. Le prestataire sera amené à travailler en collaboration avec l’opérationnel, des experts métier, chefs de projets, ops cloud et data ingénieurs/scientists. Expériences et formations Bac+3 à Bac+5 en informatique. Un bon niveau d’anglais technique est demandé. Expérience solide de 5 ans minimum en tant qu’architecte cloud dans le domaine recherché. Localisation La mission se déroulera à la Plaine-Saint-Denis et à distance, avec des déplacements possibles. Jusqu’à 3 jours de travail à distance par semaine.
Mission freelance
Responsable technique DATA & BI CUCO H/F
La mission s'articulera autour de l'ensemble des données et de la BI de CUCO La mission consiste à être le leader technique de l'équipe, pour comprendre les différents besoins de l'entreprise, concevoir une solution conforme aux Recommandations architecturales pour les données de l'entreprise et de le mettre en œuvre. Aidez les autres membres de l’équipe si nécessaire. Constitution de l’equipe Vous serez en contact direct avec l'équipe commerciale Le projet côté IT est porté par un Data Ingénieur mais uniquement pour la coordination de projet.
Offre d'emploi
SDM Datacenter
Le département de notre client fournit le socle technique de base de ces infrastructures et a ainsi pour objectif de promouvoir l'excellence opérationnelle du Groupe, en améliorant la qualité de service, en accroissant la réactivité des organisations, en réduisant les risques opérationnels et en optimisant les coûts. Dans le pôle Datacenters en charge de l’exploitation des Datacenters ainsi que les projets de mutualisation et de consolidation des Datacenters du Groupe en France et à l’international. Missions : La gestion des demandes émanant des partenaires, des utilisateurs et des demandes internes du pôle Datacenter. L’analyse mensuelle des SLA et mise en place de présentations de celle-ci à (DCM/DIR) Suivi budgétaire du périmètre La gestion des reporting mensuel RUN / PROJET ainsi que diverses documentations La gestion et le suivis de la roadmap projets
Mission freelance
Data Engineer (Kafka)
Mission / Freelance / France / Paris / Data Engineer / Kafka Connect / Flink Date de démarrage : Entre mi janvier et mi février Durée : 3 ans Localisation : Paris Rythme en télétravail : 50% (2 à 3j/semaine) Data Engineer (Kafka) Contexte : Il existe une soixantaine de Cluster avec plusieurs clients, des applications différentes etc... Vous interviendrez dans une équipe côté production; ils ne développent donc pas d'applications mais fournissent des outils à leur DSI au travers ces plateformes là Ils les déploient sur de l'IBM. Ils ont pour ambition de passer sur du SAAS au travers de leur service. Missions principales : Maintenance/incidentologie, maintenabilité, assistance au client, dimensionnement des clusters etc… + travailler à intégrer les nouveaux services sur le Cloud (en collaboration avec vos collègues en interne qui vont aussi réfléchir à la structure etc…) Gestion des Incidents (qui peuvent être des plantages applicatifs etc...) : Analyse & troubleshoot (ça peut être des plantages, problématique de perf etc...) Profil recherché : Au moins 5 ans d'expérience en tant que Data Engineer Expertise sur Kafka ( si le connecteur plante, qu'est ce que je fais ? Comment j'aide le client ? Je dois voir le support ? Pb de sécurité ? De configuration ? Faire toute une analyse derrière) Expérience sur Flink (ou un autre outil de processing en temps réel) Anglais technique (l'intégrateur et certains collaborateurs sont anglophone) Si cette opportunité vous intéresse, merci de postuler sur l'annonce ou de m'envoyer votre CV à l'adresse suivante : -email masqué- (Christopher Delannoy) et je vous recontacterai pour vous donner plus de détails sur la mission. N'hésitez pas à partager avec votre réseau si vous connaissez des personnes qui pourraient être intéressées Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.