Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer H/F
Dans le cadre de la réalisation d'une TMA, nous recherchons pour un client un Data Engineer H/F. Les technologies majeures de la TMA sont les suivantes : Langages : Scala Python Java Frameworks : Hadoop Spark Akka BDD / gestion des données: Hbase Postgre Elastic HDFS Hive DevOps : Ambari Ansible VSTS Git Zookeeper Bonne qualité de communication irréprochable et savoir communiquer avec les métiers. Connaitre les méthodologies agile (Scrum et Kanban). Profils polyvalents car ils interviendront d’abord dans un contexte de run mais également sur de la MCO.
Mission freelance
Data Assets Owner IOT and Analytics Anglais courant
Contexte : Dans le cadre de projets stratégiques, l'objectif est de structurer et valoriser les données IoT pour la construction de tableaux de bord performants et l’optimisation des processus métier. La mission inclut l’intégration et l’exploitation de données en temps réel grâce à des technologies comme AWS, Snowflake, SQL, et Qlik, avec une attention particulière sur l’IOT et la visualisation analytique. Missions : Analyse et recueil des besoins métiers : Collaborer avec les équipes métiers pour identifier les cas d’usage liés aux données IoT (exemple : suivi en temps réel de la performance des équipements). Prioriser les besoins en données et définir les règles de gestion associées. Traitement et modélisation des données IoT : Spécifier et documenter les flux de données (par ex., transformation JSON). Élaborer des pipelines pour récupérer et traiter les données IoT en temps réel (AWS, Lambda). Construire des modèles de données pour répondre aux problématiques métiers. Création et gestion des dashboards : Proposer des maquettes sous Excel ou Qlik pour valider les besoins. Implémenter des tableaux de bord analytiques intégrant des règles de gestion claires. Expliquer les formules mathématiques utilisées pour une compréhension partagée avec les utilisateurs. Qualité et gouvernance des données : Garantir la qualité des données en auditant leur fiabilité et leur pertinence. Mettre à jour le dictionnaire des données pour faciliter leur exploitation. Support et formation : Former les utilisateurs sur les outils (Qlik, Excel, DAX) et accompagner l’intégration des solutions proposées. Appliquer des filtres avancés pour résoudre des problématiques liées à Snowflake. Compétences requises : Solide maîtrise des environnements AWS (Lambda, Snowflake) et SQL. Expertise en gestion et transformation des données IoT (analyse JSON). Bonne connaissance des outils BI comme Qlik et DAX. Expérience en modélisation de données (physique et logique). Capacité à expliquer des concepts techniques de manière pédagogique. Profil recherché : Bac+5 en informatique ou domaine similaire. Minimum 5 ans d’expérience en data analytics ou gestion de données IoT. Anglais courant. Autonomie, esprit analytique et aptitude à collaborer efficacement. Environnement de travail : Technologies : AWS, Snowflake, Qlik, SQL. Travail au sein d’une équipe pluridisciplinaire avec des projets impactants sur l’optimisation des processus métier. Opportunité de contribuer à des initiatives innovantes dans le domaine de l’IoT et de l’analytics
Offre d'emploi
Senior Analytique (Data science / Data analyse)
Nous sommes à la recherche d'un Senior Analytique (Data science / Data analyse) pour l'un de nos clients basé à Montrouge en Ile de France, Vous serez en charge d'occuper les missions principales suivantes : L'exploitation, maintenance et évolution des reporting, KPI, tableaux de bord ainsi que la modélisation d’univers. Il travaillera avec les métiers ainsi que les divers interlocuteurs de la DSI. Les principaux modules utilisés sont : Document webi Univers ETL SSIS Base de données MICROSOFT SQL SERVER 2
Mission freelance
Consultant (H-F-Y) Senior SAP Master Data Governance (MDG)
Nous recherchons un consultant spécialisé SAP HANA Master Data Governance (MDG) pour accompagner un client dans le secteur de la distribution (industrie CPG/Wholesale). Vous serez responsable de la conception des solutions MDG, de l'intégration avec SAP ECC/S/4HANA et des systèmes non-SAP, et de la mise en place de processus de gouvernance et de conformité. Vous collaborerez avec les parties prenantes pour analyser les processus existants, identifier les lacunes et proposer des améliorations innovantes.
Offre d'emploi
Data ingénieur / BI
Mission Contexte: Dans le cadre de son programme de transformation, le client a initié un projet Data ambitieux visant à moderniser, simplifier et harmoniser l'infrastructure Data. Ce projet comprend la refonte de la plateforme logicielle, l'optimisation du modèle data et l'amélioration des outils de reporting. Le projet Data a pour objectif de suivre les directives fixées par le Groupe, tout en tenant compte des spécificités locales. Phases de l'offre : -Production des reportings par Python/Power BI sous Cloud Azure. -Participer à la mise en place des bonnes pratiques de développement. -Concevoir et développer des rapports Power BI répondant aux besoins métiers. -Rédiger la documentation technique (règles de transformation et d'alimentation de données, etc.). -Développer et déployer l'industrialisation des rapports récurrents par Python dans l'architecture Data Azure Cloud.
Offre d'emploi
Data Product Owner H/F
Nous sommes à la recherche d'un.e Data Product Owner à Lyon ! Votre rôle : Vous interviendrez au sein d'une équipe d'un acteur majeur de l'énergie. Votre mission consistera à accompagner le développement de produits, services et études innovants pour contribuer à la transition écologique, notamment dans l'intégration des véhicules électriques (VE) et des énergies renouvelables (ENR). ✔️ Identifier les besoins des utilisateurs et assurer leur traduction en fonctionnalités SI (rédaction d'expressions de besoins, user stories, spécifications). ✔️ Prioriser, organiser et maintenir les backlogs produits. ✔️ Assurer une interface fluide entre les utilisateurs, les chefs de produits et les équipes techniques. ✔️ Garantir que les solutions livrées répondent aux attentes via des tests, des pré-recettes et des retours réguliers. ✔️ Participer à la planification et au suivi des développements dans un cadre agile. ✔️ Explorer et proposer des axes d’innovation alignés avec les problématiques métier.
Offre d'emploi
Responsable d'Application Cloud et Data
Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Je vous envoie ce mail car pour un de nos clients situé dans la région parisienne nous recherchons dans le cadre d’une mission idéalement le profil Suivant : Responsable d'application solution CDDP (Customer Data plateform) Vous serez rattaché au manager du pôle et ferez partie d'une équipe composée d’une douzaine de collaborateurs ; 2 Gestionnaires d’application vous seront rattachés. Vous contribuerez aux nombreux projets qui impactent vos Applications. Connaître votre application, le cas échéant votre portefeuille d’applications, pour pouvoir être l’interface avec les chefs de projet, le métier, notre DOSI pour gérer les demandes d’évolution et de projet. Dans le cadre de cette gestion des MEV et des projets : Participer aux phases d'études et cadrage des projets d’évolution de la solution Proposer des solutions grâce à votre expertise fonctionnelle et technique Piloter les travaux de chiffrage des évolutions demandées. Gérer et Piloter les déploiements et les mises à jour de Mediarithmics Rédiger et valider les spécifications fonctionnelles et techniques (ou la piloter avec votre éditeur/intégrateur) Rédiger les contrats d’interface Rédiger les dossiers d’exploitation Établir des diagnostics et piloter les corrections aux dysfonctionnements applicatifs ainsi que sur des problèmes de Data Quality. Vous justifiez d’une expérience d’au moins 5 ans en tant que Responsable Application d’une solution Data, de préférence CDP, ou dans une mission Etudes similaire. De formation supérieure en informatique, vous avez de solides compétences techniques et fonctionnelles, de préférence dans le monde du Retail ou de la Relation Clients. Idéalement, vous avez déjà été exposé à une CDP (Mediarithmics) et vous avez déjà eu l’expérience sur des problématiques de Data Quality. Vous avez les compétences et l’expérience dans les domaines suivants : Connaissance/ Maitrise de Databricks, Power BI, Phyton. Maitrise du requêtage SQL, dans l’analyse des résultats et dans la manipulation des fichiers. OTQL sera un vrai plus. Connaissance des problématiques d’intégration en flux et Web Service Connaissance du cycle de vie d'un projet (cycle en V ou agile) Très bonne connaissance data / cloud obligatoire SQL et python - Confirmé – Impératif/Cdp - Confirmé - Souhaitable Databricks - Confirmé – Souhaitable/PowerBI - Confirmé - Souhaitable Data eng / data science Notions (Secondaire) Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
Manager Réseau Sécurité Datacenter - Cloud privé
PROPULSE IT recherche un Manager/Pilote - Réseau et Sécurité Datacenter afin d'assister le client dans le pilotage de l'aquipe de consultants experts Le service s'occupe de la conception, la mise en œuvre et l'industrialisation de l'Infra réseau et sécurité au sein des datacenters et cloud privé. Cela, de l'élaboration de la stratégie, la conception, à la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise) Le poste consiste à : - Seconder le manager des équipes d'experts - Accompagner l'établissement de la Roadmap - Optimiser les processus et les livrables, ainsi que l'organisation - Accompagner le pilotage des projets - Gérer les priorité, fluidifier le fonctionnement - Budgets Contexte des projets de l'équipe : Virtualisation, Stockage et le socle Réseau datacenter - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Contexte technique • Réseaux LAN : Cisco Fabric Path/VxLAN, • Solutions de sécurité dans le cloud (Proxy ZScaler, Idp OKTA …) • Infras de Sécurité : Checkpoint, Fortinet, Palo Alto et F5 (LTM et APM) • Scripting Shell, Ansible Network Automation, Terraform • Système : Redhat linux 8, Windwos 2019 Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : • Conception des architectures et expertise • Support N3 en réseau et sécurité, notamment ZScaler, Checkpoint, Fortinet et F5 • Rédaction/ Enrichissement de base de connaissances • Reporting de l'activité projet au management
Mission freelance
Développeur .Net, Azure DevOps / Temps réel / Market Data / Anglais
Nous recherchons un Développeur Senior C#/.Net pour une mission technique et exigeante, mêlant gestion de projet et problématiques de production. Le rôle implique une forte exposition aux problématiques de performance et de robustesse en production, avec un environnement nécessitant des temps de réponse en millisecondes. Expertise en C#/.Net avec un fort focus sur l’algorithmie et l’optimisation de code. Déploiement et mise en production via Azure DevOps . Expérience avec les problématiques de latence et performance critique . Bonne compréhension des systèmes financiers, notamment des Framework d’accès aux marchés financiers. Connaissances en MongoDB et Angular pour les solutions de visualisation et de gestion des données. Développement et maintenance d’un Framework robuste et performant. Support technique et fonctionnel auprès des utilisateurs internes. Rédaction des spécifications techniques et documentation. Collecte, normalisation et diffusion des données de marché. Participation aux phases de déploiement et mise en production. Réalisation de tests automatisés pour garantir la qualité du code. Tableaux de bord et rapports d’activité. Suivi mensuel du time-tracking. Spécifications techniques détaillées. Implémentation d’évolutions et de correctifs. Mise en œuvre et gestion des tests automatisés.
Offre d'emploi
Data Engineer Spark Scala Kafka H/F
Contexte : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre Natixis SA servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI Finance (prudentiel notamment) basé sur cette assiette comptable de référence • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Missions : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle
Mission freelance
Project Manager / EM DATA MIGRATION (anglais fluent)
Définir et mettre en place une stratégie de migration des données. Gérer le périmètre des données à migrer pour chaque Go Live (Données de Base - BDR, Données Maîtres - MDR, Données Transactionnelles). Superviser les plans, les KPI, et les rapports de progression à destination du programme. Définir la stratégie de migration des données. Gérer les demandes de changement de périmètre (analyse d’impact, mise à jour du plan, communication). Planifier les activités et fournir des rapports de suivi détaillés via des KPIs. Collaborer étroitement avec le Data Migration Lead du client : Confirmer les responsabilités via RACI. Offrir un soutien continu et renforcer les relations via une approche "One-Team". Coordonner et superviser les activités des contributeurs (fournisseurs IFS, équipes IT, fonctionnelles, Business). Adapter la taille de l’équipe en fonction de la charge de travail. Gérer des profils fonctionnels, techniques, et de développement. Garantir la qualité des livrables (stratégie, GDS, DDS, interfaces Dell Boomi, validation des données). Superviser les Runbooks et leur cohérence avec le Master Plan. Analyser les collections de données, effectuer des réconciliations, et produire des rapports sur l’avancement des charges. Identifier, suivre et proposer des plans de mitigation pour les risques associés à la migration. Organiser la transmission des activités à l’équipe de maintenance après la période d’hypercare. Mettre à jour la base de connaissances (leçons apprises, gestion documentaire sur SharePoint, suivi Jira).
Mission freelance
Consultant (H-F-Y) Senior Data Loss Prevention (DLP)
Nous recherchons un consultant expert en prévention des fuites de données (DLP) pour accompagner notre client dans le déploiement et la configuration d’une solution de DLP. Vous serez responsable de concevoir une feuille de route réaliste tout en mobilisant les parties prenantes internes pour assurer un déploiement efficace et adapté aux besoins spécifiques de l’entreprise. Vos missions : Déploiement et configuration d’une solution majeure de DLP (Symantec, McAfee, Forcepoint, Microsoft Purview, Digital Guardian, etc.). Identification et classification des données sensibles à protéger. Intégration de la solution DLP avec d'autres outils de sécurité (SIEM, IAM, CASB). Conseil sur les protocoles de sécurité réseau (HTTPS, TLS, VPN) et dans des environnements cloud (AWS, Azure, Google Cloud). Élaboration d’une roadmap pragmatique intégrant coûts, efforts techniques et ressources nécessaires. Formation et sensibilisation des parties prenantes à l’usage et au suivi de la solution.
Offre d'emploi
Data Analyst
Au sein de la direction des Opérations, une équipe est dédiée à la définition, la production et l’analyse des indicateurs de performance liés aux processus de back-office pour les activités de banque de détail. Actuellement en pleine transformation, cette équipe doit également assurer la continuité des indicateurs et tableaux de bord déjà en place. Dans le cadre de cette mission, le Data Analyst aura pour responsabilités de : Produire des indicateurs clés : Participer à la production régulière des indicateurs de performance pour le pilotage des processus de back-office. Automatisation : Contribuer à l’automatisation des rapports existants, afin d’optimiser et de rationaliser les processus. Création d'indicateurs et tableaux de bord : Développer de nouveaux indicateurs et tableaux de bord en lien avec les besoins évolutifs de BPCE.
Mission freelance
Sysops big data
la prestation consiste à : Ø Maintenir l’architecture Big Data en utilisant les dernières technologies ad-hoc Ø Participer à l’industrialisation, au déploiement, au maintien des clusters Cloudera existants (Cloudera Manager, HDFS, Yarn, Hive, Ranger, Nifi, Kerberos) Ø Mettre en place les nouveaux outils que notre SI souhaite explorer: Kafka, Iceberg, Impala … Ø Participer à l’exploitation quotidienne des plateformes (vérifier la santé des clusters, mettre à jours mensuellement les serveurs) Ø Gérer la sécurité et l’accès aux clusters Ø Monitorer les plateformes et communiquer sur les besoins futurs Ø Apporter un support technique aux équipes de développement (Data Engineers / Data Scientists) Ø Mener les réflexions sur les évolutions à apporter aux plateformes
Mission freelance
Data Engineer Talend BusinessObjects GCP
Contexte de la mission : La Direction Immobilière Groupe est chargée de la définition stratégique des actifs immobiliers du groupe ainsi de que leur gestion. Au sein de la DSI, le pôle data a pour rôle de mettre à disposition des informations clés destinées aux analyses et reporting de la DIG. Ce pôle souhaite renforcer son équipe avec un Data Engineer afin de maintenir et faire évoluer son patrimoine applicatif data. La mission s'inscrit aussi dans une roadmap de migration à moyen terme vers une nouvelle architecture data GCP. MISSIONS : Les travaux confiés porteront sur la maintenance corrective et évolutive du patrimoine data à savoir : Flux de données : Conception technique, développement, tests, supports recette des jobs Talend Reporting : maintenance des univers BO, création & modifications de rapports BO API Talend ESB : conception et développement de flux temps réel Documentations : élaboration technique, spécifications Compétences recherchées : -Obligatoires : Talend DI, Talend ESB, SAP BusinessObjects, Oracle, Postgre Méthode Agile Scrum -Optionnelles : GCP Expérience nécessaire : 10 ans sur la fonction Méthodologie : Scrum Langue : Français Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l'industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital. Kéoni Consulting aide les entreprises à: Faire la différence Innover et créer Réinventer votre business Satisfaire les clients Gagner en avantages compétitifs Devenir le leader de leur secteur Devenir le leader de votre secteur Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation)
Mission freelance
Consultant (H-F-Y) Senior PMO Data (Studio Dataiku)
Dans le cadre des travaux de modernisation de l’offre Data de notre client, nous recherchons un Chef de Projet / PMO Data Sénior pour piloter la mise en place de notre Data Studio (DataIku) . Ce projet vise à améliorer notre offre d’outillage Data avancé, optimiser les processus internes et renforcer la collaboration entre équipes. Vos missions principales : Piloter l’ensemble du projet de bout en bout, en coordonnant les équipes contributrices pour garantir une collaboration fluide. Élaborer et suivre le respect des budgets et des plannings, en gérant efficacement les ressources. Assurer la gestion des risques et alerter en cas de dérive planning. Fournir des reports réguliers aux parties prenantes sur l’avancement, les risques et les résultats obtenus. Animer les comités de pilotage et assurer le suivi stratégique du projet. Déterminer et valider les solutions en collaboration avec les contributeurs techniques (Tech Lead, architectes, sécurité…). Conduire le changement, en préparant un package de formation et en accompagnant les utilisateurs finaux pour une adoption réussie. Travailler en lien étroit avec le Product Owner pour collecter les feedbacks utilisateurs, mesurer les usages et ajuster la vision produit. Contexte technique et organisationnel : Vous travaillerez avec une équipe pluridisciplinaire (Business Analyst, Data Scientist, Data Engineer, Tech Lead, Architectes, etc.) pour cadrer, fabriquer et déployer une solution mutualisée destinée à plusieurs équipes. Le suivi des besoins métiers, la satisfaction des utilisateurs finaux et la documentation des processus et usages seront au cœur de vos priorités.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?
- Démarrage Freelance - ARE ou ARCE + SASU ou AE
- Urgent Arce subtilité
- Obligé de faire la plonge pour survivre...
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres