Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Analyste sur Massy
Nous recherchons pour un de nos clients, un Data Analyst expérimenté sur Massy Profil recherché Formation académique : Issu(e) d'une formation d'excellence (Polytechnique, Centrale, Télécom Paris, Supélec ou équivalent). Compétences techniques : Maîtrise approfondie de SQL (indispensable). Expérience fonctionnelle avec une vision métier sur l'analyse et le traitement des données. Expérience professionnelle : expérience significative en tant que Data Analyst dans des entreprises reconnues du secteur de la grande distribution (Auchan, Leclerc, Conforama, Decathlon, etc.). Missions principales Exploitation, analyse et structuration des données pour répondre aux enjeux métier. Collaboration avec des équipes métiers et techniques pour piloter et optimiser les processus décisionnels. Rédaction de rapports et tableaux de bord exploitables pour les responsables opérationnels. Environnement de travail Localisation : Massy . Télétravail : 2 jours par semaine. Durée de la mission : 6 mois à 1 an, avec possibilité de renouvellement. Démarrage : ASAP (dès que possible). Nous recherchons un profil fonctionnel avant tout, capable de comprendre les enjeux métiers et de proposer des solutions concrètes grâce à l’analyse de données.
Mission freelance
Data Engineer Python Spark - Confirmé/fa
Data Engineer Python Spark - Confirmé client Banque basé à Paris Gare de Lyon, un Data Engineer - Confirmé avec un minimum de 4 ans d’expériences. Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Contribuer à la Fabrication des Produits des équipes dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) Contribuer à la fabrication d'un entrepôt de données interne dans un environnement Python - PostGresql Etre force de proposition et expertise sur les techno manipulées Principaux livrables : Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et les équipes) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences requises : Python (requis), Spark - spark streaming et batch (requis), Kafka (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Autonomie, Adaptabilité, Bonne communication (lien direct avec les PO ou DEV), Apprécié - activités BI : BDD Teradata, xDI, SQL Data viz : Microstrategy
Offre d'emploi
Data Analyste - Niort (H-F)
Chez K-LAGAN , nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, continuez de lire...🔍 Que diriez-vous d'échanger de vos aspirations professionnelles futures et de vos envies de prochaines missions ? 🕵️ Nous sommes à la recherche d'un/e Chargé de Gestion Data IT (Sinistres/Distribution) à Niort, Nouvelle-Aquitaine. 🧑💻 Missions : 1. Collecte et centralisation des données : Récolter les données des sinistres à partir des systèmes internes ou externes. Garantir la qualité, la cohérence et l'exactitude des données collectées. 2. Analyse et exploitation des données : Identifier les tendances, les anomalies et les opportunités en matière de gestion des sinistres. Produire des indicateurs clés de performance (KPI) et des rapports pour le suivi des sinistres. 3. Optimisation des processus : Développer des modèles prédictifs pour anticiper les sinistres ou détecter les fraudes. Proposer des améliorations pour réduire les coûts et les délais de traitement des sinistres. 4. Collaboration avec les équipes : Travailler en étroite collaboration avec les équipes sinistres, IT, actuariat et juridique. Former ou sensibiliser les équipes sur l'utilisation des données pour la prise de décision. 5. Veille technologique et conformité : Suivre les évolutions des outils et techniques de gestion de données. Veiller au respect des réglementations (RGPD, confidentialité des données, etc.).
Offre d'emploi
Business Analyst - Expert DataVault
Dans le secteur bancaire, nous sommes à la recherche d'un Business Analyste , Expert DATA VAULT Mission: Intégration des données du SI via la mise en place d’un Data HUB / Big Data avec une modélisation Data Vault migration des rapports BO existants vers Tableau software Modélisation décisionnelle du nouveau DWH en Data Vault Produire les reporting réglementaires requis pour l’activité Produire de manière automatisée, sécurisée et traçable les tableaux de bord nécessaires au pilotage et au suivi de production de l’activité pour une meilleure maitrise des risques opérationnels et de performance opérationnelle Accompagnement au changement Mettre à disposition des autres directions de l’EP les indicateurs CDS nécessaires à leurs activités Permettre l’analyse des données à des fins de lutte contre la fraude Rétro ingénierie sur les rapports BO et conception des rapports Tableau software. Préparation et animation des commutés de pilotage (COSUI, COPIL) Outils utilisés : Tableau, Cloudera / Hive
Offre d'emploi
ARCHITECTE SOLUTIONS DATA H/F
La prestation consiste à assister le pôle Architecture Solutions Data dans les missions suivantes : • Accompagnement, réalisation et suivi des projets à enjeux data dans l’élaboration et les phases de réalisation des architectures applicatives ; • Prendre en compte les contraintes cybersécurité et de conformité réglementaire (RGPD) dans la conception des architectures ; • Contribuer au plan de transformation sur la gouvernance de la donnée ; • Contribution activité stratégie SI ; • Participation aux revues d’architecture à enjeux data ; • Maintient et évolution du cadre de cohérence technique Data & Master Data Management/Référentiel (en collaboration avec les experts MDM et architecte applicatif/domaine) : principes d’architecture, patterns, normes, bonnes pratiques ; • Contribuer à la communauté data de la DSI Exemples de livrables Les Livrables demandés lors de cette prestation pourront être (liste non exhaustive) : • Flash report hebdomadaire et mensuel ; • Supports d’animation des ateliers & Compte Rendu de réunion ; • Dossiers d’Architecture Technique / Architecture Solution Design ; • Principes d’architecture et directeurs, patterns, normes, bonnes pratiques ; • Etudes solutions data & notes architecture data ; • Matrice de choix ; • Mise à jour des référentiels d’architecture (LeanIX) ; • Cartographie (Solutions & plateformes Data, des données & modèles, flux d’échanges …) ; • Offre de Services ASD ; • Documentation technique ;
Offre d'emploi
Expert Data H/F
Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences, et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Expert Data H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg Secteur public Modélisation et architecture des données : Expertise dans la création et la gestion de modèles de données complexes (conceptuel, logique, physique). Technologies et outils : Expérience souhaitée sur des plateformes de virtualisation des données comme Denodo, Tibco ou Informatica. Maîtrise des environnements et des technologies de stockage et de traitement des données (bases relationnelles, entrepôts de données, Data Lake, etc.). Bonne connaissance des ETL/ELT, et d’outils BI comme BO, Power BI ou Superset. Gouvernance des données : Compétence en mise en œuvre de processus liés à la qualité des données, la sécurité, et la gestion des métadonnées. Vos missions seront de : Concevoir et superviser l’architecture globale des flux de données au sein de la collectivité. Participer activement à la gouvernance des données et accompagner les chefs de projet dans leurs choix technologiques. Proposer des solutions innovantes pour optimiser la gestion des données et leur exploitation. Travailler en collaboration avec le service AI pour garantir une cohérence entre l’architecture data et l’architecture globale de la collectivité. Contribuer à la stratégie Data Mesh et à l’amélioration continue des infrastructures et procédures naissantes.
Mission freelance
Data Engineer Spark/Scala F/H
Nous recherchons un(e) Data Engineer spécialisé(e) en Spark et Scala pour rejoindre notre équipe Data. Vous contribuerez à la conception, au développement, et à l’optimisation des pipelines de données à grande échelle, ainsi qu’à l’implémentation des meilleures pratiques de gestion et de traitement des données. Concevoir, développer et maintenir des pipelines de données scalables et robustes en utilisant Spark et Scala. Intégrer et transformer des données provenant de différentes sources (bases de données, fichiers, APIs, etc.). Assurer la qualité, la performance et la sécurité des flux de données. Participer à l’optimisation des performances des traitements Big Data. Collaborer avec les équipes Data Science, BI et Développement pour répondre aux besoins des projets. Implémenter les meilleures pratiques en matière de gestion des données et d’architecture. Surveiller et résoudre les incidents liés aux flux de données en production. Compétences techniques : Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée). Solides compétences en conception et optimisation de flux ETL. Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL. Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP). Connaissance des écosystèmes Hadoop et des frameworks Big Data.
Offre d'emploi
Product Owner, Product Manager Data sur Massy
Nous recherchons pour notre client, un Product Owner / Product Manager Data expérimenté pour rejoindre son équipe dynamique et innovante à Massy. Responsabilités : Définir et gérer la feuille de route produit pour les projets liés aux données, en prenant en compte les besoins des utilisateurs et les priorités stratégiques de l'entreprise. Travailler en étroite collaboration avec les équipes de développement (data engineers, data scientists) pour assurer la bonne réalisation des projets. Rédiger des spécifications détaillées et des user stories en veillant à ce qu’elles répondent aux besoins des utilisateurs finaux et des parties prenantes internes. Garantir la livraison des fonctionnalités dans les délais et avec la qualité attendue. Suivre les performances des produits et ajuster la stratégie en fonction des retours utilisateurs et des métriques. Organiser et animer des réunions avec les parties prenantes pour recueillir des retours et itérer sur les produits. Assurer une communication fluide entre les équipes métiers, techniques et de direction. Analyser et surveiller les tendances du marché et les innovations liées à la data pour garantir une compétitivité et une pertinence des produits développés. Compétences requises : Expérience significative en tant que Product Owner ou Product Manager dans le domaine de la data. Expérience dans des entreprises reconnues du secteur de la grande distribution, où vous avez géré des projets data d'envergure. Bonne compréhension des technologies et des outils utilisés dans l’écosystème data (Data Warehousing, ETL, BI, etc.). Capacité à rédiger des user stories claires et à gérer un backlog de produit. Excellentes compétences en gestion de projet agile, notamment Scrum ou Kanban. Compétences analytiques solides et capacité à traduire des données en recommandations concrètes. Excellente communication écrite et orale, avec la capacité de travailler en équipe interdisciplinaire. Expérience dans la gestion de produit en environnement agile et connaissance des méthodologies Lean Startup ou autres approches orientées produit. Démarrage : ASAP Durée de la mission: 06 mois à 1 an renouvelables Télétravail: 2 jours/semaine
Mission freelance
data engineer python / spark / databricks
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Mission freelance
Data Scientist - Dataiku - Modélisation des Risques
Notre client, recherche un Data Scientist - Dataiku (H/F) dans le cadre d'une longue mission. Contribuer à des projets liés à la gestion et l'analyse des données dans le cadre de la Finance et de la Responsabilité Sociétale des Entreprises (RSE), ainsi qu'à la modélisation prédictive des risques financiers. Projet Data Finance / RSE : - Alimenter et organiser les données dans un Data Lake. - Créer des datamarts Finance. - Écrire des scripts et requêtes pour identifier les données Finance RSE, ainsi que les données liées à l'Affacturage, CBM et CBI. - Créer des rapports avec des outils de data visualisation. - Automatiser les processus existants. - Déployer et documenter les travaux réalisés. Modélisation des Prédictions de Risque : - Analyser et interpréter les données complexes issues du Data Lake. - Mettre en place des algorithmes statistiques pour l'analyse et la surveillance du portefeuille d'Affacturage. - Développer des modèles de prédiction des risques. - Créer des modèles de scoring. - Documenter les travaux effectués.
Mission freelance
Consultant(e) Réglementaire - EMIR Refit
Opportunité de mission pour un(e) Consultant(e) Réglementaire – EMIR Refit à Paris (75). Présentation du projet : Nous recherchons un consultant expérimenté pour intégrer une task force dédiée à l’analyse et à la remédiation des problématiques de qualité des données (Data Quality) liées aux transactions sur dérivés OTC dans le cadre de la réglementation EMIR Refit pour les périmètres EU et UK. Vos missions principales : 1. Revue de la qualité des données (OTCs) Définir et spécifier un plan d’action pour résoudre les problématiques identifiées (identifiants des transactions, reporting du Collateral, données de clearing, etc.). Collaborer avec les équipes projet, technologiques, Compliance et Trading pour valider la faisabilité et documenter les solutions proposées. Prioriser les sujets critiques, tester les solutions implémentées (UAT), et garantir leur fonctionnement durable avant mise en production. Documenter les solutions et mettre à jour les procédures. Assurer le backreporting des transactions/valorisations ou Collateral impactés. 2. Renforcement des contrôles et processus EMIR Refit Concevoir et mettre en place des contrôles d’accuracy check en utilisant les outils existants. Mettre en œuvre un processus de Pairing & Matching Reconciliation via DTCC. Revoir les contrôles et procédures actuels et accompagner leur mise à jour en lien avec EMIR Refit. Livrables attendus Plans d’action, spécifications, études de faisabilité, et reporting (Excel, PowerPoint, Word). Procédures mises à jour, documentation des solutions et résultats des tests (UAT). Processflows et conclusions des contrôles existants. Compétences clés recherchées Expertise en gestion d’actifs et produits dérivés (OTCs, ETDs). Solide expérience en reporting réglementaire (EMIR, MIFID, etc.) et qualité de données. Gestion de projet, change management, et optimisation de processus. Connaissance des outils (Simcorp Dimension, Excel, TriOptima, Bloomberg, DTCC). Capacité à cadrer et exécuter des tests UAT avant production. Profil et expérience Expérience significative en reporting réglementaire ou projets de transformation réglementaire. Parcours au sein de cabinets de conseil, Middle-Office ou Compliance, avec une expertise en amélioration de processus et gestion de données. Conditions de la mission Localisation : 3 jours par semaine sur site à Paris (La Défense). Langues : Français et anglais. Durée : 9 mois. Démarrage : ASAP.
Offre d'emploi
Data Engineer (NetVibes indispensable)
Une expérience de minimum 2 ans dans l’utilisation de Netvibes est indispensable pour cette opportunité. Dans le cadre de l’exploitation et du développement des applications Netvibes, le Data Engineer Netvibes est responsable de la conception, du développement, et de la maintenance des solutions data. Ce rôle requiert une expertise dans l’écosystème Netvibes (Data Perspectives, Data Queries, Data Model) et une capacité à livrer des solutions robustes, ergonomiques et en phase avec les besoins métiers. Missions principales : Développement des applications Netvibes : Évaluer les délais nécessaires pour les tâches à réaliser et rédiger leur description technique (ex. estimation de points de complexité, rédaction des tâches sous JIRA ). Contribuer au product backlog Concevoir le modèle de données , en coordination avec les Data Perspectives existantes ou à créer. Développer des solutions sur les briques data Netvibe s : Visualisations et ergonomie des Data Perspectives. Data Queries pour extraire les données pertinentes. Data Model structurant les données nécessaires. Exploration des données PLM 3DX. Qualité et performance des développements : Réaliser des tests unitaires et agiles pour garantir la fiabilité des livrables. Respecter les engagements de performance (points de complexité) et maintenir une vélocité définie avec l’entreprise. Exploiter efficacement l’environnement de développement fourni par l’entreprise. Documentation et support : Rédiger une documentation claire et complète des développements réalisés. Assister les équipes d’exploitation dans les phases de mise en production. Prendre en charge la correction des anomalies identifiées sur les solutions mises en œuvre (support de niveau 2 ou 3). Maintenance et amélioration continue : Maintenir en conditions opérationnelles les cas d’usage en phase post-projet. Participer à la rédaction de la Documentation d’Architecture Technique pour accompagner les évolutions d’infrastructure.
Mission freelance
Data-Engineer_confirmé_Paris
Veuillez répondre uniquement si vous possédez l'ensemble des compétences techniques décrites. Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et l'équipe) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Apprécié : Contribuer à la Fabrication des Produits des equipes de l'Entreprise dans un environnement Teradata (sur des activités BI)
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Offre d'emploi
Data Engineer
Nous recherchons un Data Engineer expérimenté pour un projet d’exposition des données dans le secteur bancaire. Le rôle comprend : L’implémentation et l’évolution des API REST pour l’exposition des données. L’orchestration et le déploiement des traitements de transformation sur différents environnements. La migration des traitements existants vers des environnements modernes comme CDH et OpenShift . Vous travaillerez sur des projets stratégiques en collaboration avec des équipes multidisciplinaires dans un environnement technologique avancé.
Mission freelance
Chef de projet automaticien / Automatisation
Gestion de projets d’automatisation : Diriger et coordonner des projets d’automatisation de grande envergure. Expertise en PCS7 et WinCC Scada : Concevoir et gérer des architectures complexes utilisant PCS7 et WinCC Scada. Expérience en industrie pharmaceutique : Apporter une expertise en qualification et validation des systèmes automatisés, en travaillant de manière transverse sur différentes étapes du processus. Communication : Collaborer efficacement avec les équipes internes et les clients, en anglais et en français. Gestion de l’équipe : Superviser et guider les membres de l’équipe de projet pour assurer la réussite des projets.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.