Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Operational excellence Analyst for Data & Analytics Team
We are seeking expertise in operational excellence analysis for our Data & Analytics team. This role involves auditing and enhancing the efficiency and quality of processes within the D&A team. It requires an end-to-end perspective from project management to data extraction and quality control. The role requires a transversal overview to interact with all teams and assess processes end-to-end, identify bottlenecks or inefficiencies that span multiple teams or processes, and propose improvements that impact the entire D&A. Déplacements possibles once per quarter Nous recherchons une expertise en analyse d'excellence opérationnelle pour notre équipe Data & Analytics (D&A). Ce rôle implique d'auditer et d'améliorer l'efficacité et la qualité des processus au sein de l'équipe D&A. Il nécessite une perspective globale allant de la gestion de projet à l'extraction de données et au contrôle qualité. Le poste requiert une vue transversale pour interagir avec toutes les équipes, évaluer les processus de bout en bout, identifier les goulets d'étranglement ou inefficacités impliquant plusieurs équipes ou processus, et proposer des améliorations ayant un impact sur l'ensemble de l'équipe D&A.
Mission freelance
Architecte Solutions DATA
Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.
Offre d'emploi
Développeur Data / BI - Asset Management
Nous recherchons un Développeur Data / BI pour rejoindre l'équipe Support Fund Management et contribuer à des projets stratégiques dans le domaine de l'Asset Management. Vous serez impliqué dans les évolutions d'une plateforme BI et la maintenance de traitements Python en lien avec les équipes métiers : gérants, Trading, Middle Office, Risque, Reporting, et Compliance. Participation au cadrage des solutions à implémenter Développement des User Stories (US) Suivi de la recette, mise en production et maintenance Rédaction de documentation Amélioration continue des modèles de développement Veille au respect des standards techniques Très bonne connaissance des outils BI de Microsoft SQL Server 2012/2016 (SSIS, SSRS, SSAS) Expertise sur les bases de données relationnelles et SQL Très bonne maîtrise de la plateforme Azure BI Data Factory Compétences confirmées en Python et librairie Pandas Connaissance en Azure DevOps
Offre d'emploi
Architecte Solution (Data & Intégration) ▸ Public
🔥 VOTRE QUOTIDIEN Etudes et cadrages des projets Participation aux phases de cadrage : ressources, budgets, plans de contribution et plannings. Analyse des besoins métiers pour proposer des architectures adaptées. Conception d'architectures Construction d’architectures sécurisées alignées avec les référentiels existants. Veille au respect de la cohérence des projets en matière d’architecture. Alimentation et évolution du cadre de référence. Sécurisation et intégration des solutions Accompagnement des équipes projets sur l’intégration de la sécurité (démarche ISP). Gestion des droits d’accès et renforcement des dispositifs de protection des données sensibles. Sélection et validation des outils Étude des solutions disponibles sur le marché. Participation au choix des outils répondant aux exigences du projet. Collaboration et support Interaction étroite avec les divisions Infrastructure & Exploitation et Intégration & Applications de la DSI. Transfert de connaissances, vulgarisation et accompagnement des équipes.
Offre d'emploi
Data Analyst
Notre client a réorganisé ses équipes afin de mieux accompagner la transformation IT et digitale. Dans ce contexte, une équipe dédiée à la gestion des données a été mise en place pour soutenir ces objectifs, et un(e) consultant(e) DATA est recherché(e) pour venir en renfort. En tant que consultant Data, les principales missions seront de : Analyser les besoins métiers Modéliser les données dans le datawarehouse Concevoir et développer des flux d’intégration de données avec Microsoft Azure Data Factory Tester et valider les développements réalisés Développer des rapports Power BI Maintenir à jour et rédiger de la documentation du projet Assurer la disponibilité, le bon fonctionnement, la stabilisation et la sécurisation de la production.
Mission freelance
Data Scientist/Data Analyst
La mission de Data Scientist – Data Analyst consiste à : • Comprendre et modéliser les problématiques métier et celles du pôle • Définir avec justesse le périmètre des données nécessaire à la solution technique • Designer et construire des modèles de machine learning • Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables • Eventuellement créer des visualisations appropriées aux besoins cartographiques • Estimer la charge à allouer aux différents traitements et actions techniques prévus • Optimiser le modèle de donnée des projets data de l’équipe • Développer des scripts Python optimisés • Créer les tables ou vues nécessaires aux projets data de l’équipe • Echanger avec les ops de la Team Data à des fins d’industrialisation de collecte, traitements, supervision et restitution des données En outre, il maîtrise les concepts de l’agilité. Il intervient au sein des projets menés par l’équipe Data Analytics composée d’un PO Data et de 4 développeurs data dédiés (Data Analysts, Data Scientiste, Data Engineer).
Offre d'emploi
Architecte Azure Data
Dans le cadre d’un projet agile, nous recherchons un Architecte Azure expérimenté dans la data pour accompagner notre client dans la conception et la mise en œuvre de solutions cloud sécurisées et conformes aux meilleures pratiques. Ce rôle nécessite une expertise approfondie de l’écosystème Azure, notamment sur les contraintes spécifiques des landing zones. Définir et améliorer les standards et les patterns d'architecture. Rédiger la documentation technique : ARD, HLD, LLD, guides d’exploitation et de bonnes pratiques. Collaborer étroitement avec les équipes agiles et les parties prenantes grâce à un excellent relationnel. Ecosystème Azure Data : Azure Synapse Analytics Azure Data Lake Storage Gen2 (ADLS Gen2) Azure Data Factory Azure SQL Power BI Landing Zone Azure : Expertise avérée dans leur conception et gestion. Services réseaux dans Azure : Configuration et optimisation. Infrastructure as Code : Terraform. Outils DevOps : Azure DevOps. Certification Azure : Un atout significatif.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
PRODUCT OWNER DATA
Profil recherché : Product Owner orienté technique / data Issu.e d'une formation bac+5 avec une expérience et/ou connaissance prononcée dans le domaine de la data, vous serez rattaché.e au hierarchiquement au responsable du domaine. Vous serez amené.e à vous approprier les différents processus d'ingestion et de traitement automatisé des données entrantes s. En tant que Product Owner, vous serez le garant de la vision produit en étroite collaboration avec le Tech Lead et le Product manager de l'équipe pour définir les nouvelles évolutions ou corrections à apporter dans un contexte SAFe. Vos principales missions s'articuleront autour des axes suivants : - mise en place d'ateliers collaboratifs avec le métier pour définir les nouvelles règles à appliquer - rédaction des user stories et Features - validation (test) des user stories et Tests E2E - préparation des sprints planning - Cadrage de besoins métiers en collaboration avec le PM et métiers - restitution du travail effectué par l'équipe à chaque sprint (via la sprint review) - etc Un background technique et/ou data est primordial pour ce poste.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Business Analyst - Data
Dans le cadre d'un projet client dans le secteur bancaire – mise en place de reporting à destination de l’équipe Pilotage Commercial du groupe - nous aurions besoin de recruter un Buisness Analyst 6-9 ans d’expérience. Vos principales missions seront d’intervenir sur les phases de conception, spécification et recette DSI / métier (mise à disposition des jeux de données, validation des cas de tests, analyse des résultats, …) Softskill : • Excellentes capacités d’intégration, de facilitateur et de pilotage de projets. • Excellentes capacités rédactionnelles et de présentation orale. • Coordination, rigueur, sens du service et du dialogue. • Capacité d’initiative et force de proposition. • L'anglais courant est impératif pour ce poste.
Mission freelance
AMOA/MDM
Nous sommes à la recherche d’un profil AMOA /Data Steward à Grenoble ou à Lyon Collecte des besoins métiers sur les données et les indicateurs qu’ils doivent suivre & un accompagnement à la réalisation d’état des lieux des processus Assistance des représentants métiers dans la définition de ces données Assistance des représentants métiers dans la définition des règles de gestion s’appliquant sur ces données Participation à la capitalisation en rédigeant les définitions dans les outils dédiés (My/Data Galaxy)
Offre d'emploi
Architecte Data Mlops
Le bénéficiaire souhaite une prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans l´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits. Les missions sont: - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc).
Offre d'emploi
Data Scientist / Actuariat - Paris, IDF
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Mission freelance
DATA ENGINEER (H/F)
Notre client recherche un(e) Data Engineer. - Construire et optimiser les pipelines de données : collecte, transformation et publication des données. - Améliorer fiabilité, qualité, performance et FinOps des flux de données. - Garantir la conformité avec la gouvernance de données du groupe. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake. Une connaissance de la Supply Chain ou une forte curiosité métier est un atout clé, compte tenu de l’organisation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.