Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/YGcDCei1-logo.jpg)
Offre d'emploi
Architecte data cloud azure
Bonjour, Pour le compte de notre client, nous recherchons un architecte data cloud azure. Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci dessous. Livrable n°1 : Cadrage et chiffrage des projets + Lot 1 : Accompagnement au cadrage du besoin auprès de nos clients + Lot 2 : Réalisation d’études et formalisation des architectures envisagées en appui sur les solutions cloud adaptées au besoin + Lot 3 : Contribution au chiffrage global du projet + Lot 4 : Réalisation éventuelle de Proof Of Technologies le cas échéant Livrable n°2 : Conception technique de la solution + Lot 1 : Formalisation des documents standards (DAL, DAT) + Lot 2 : Veiller à la conformité de la solution sur les plans standards technologiques et en phase à la politique de sécurisation du SI. + Lot 3 : Concevoir, développer, déployer et maintenir des reportings construits autour de Power BI en environnement BI Microsoft ; Livrable n°3 : Accompagner la prise en charge du build projet + Lot n°1 : Assurer une passation aux équipes de réalisation + Lot n°2 : Le cas échéant, apporter de l’expertise lors de la phase de build (automatisation…)
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/iXFEe1jz-logo.jpg)
Offre d'emploi
Data Scientist NLP/GenAI (H/F)
NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. LES PLUS DU POSTE Intégré.e dans notre équipe Data Science, votre principale mission sera de prototyper, itérer, et mettre en production des algorithmes en collaboration avec les équipes Produit, les Data Engineers et les équipes de développement. Vos projets seront centrés sur les enjeux du catalogue Marketplace, comprenant le NLP, la Computer Vision et l'utilisation de Generative AI (LLMs customs) à grande échelle. Les sujets que vous traiterez auront un impact significatif sur leurs clients : leur ambition est d'exploiter au mieux leurs données riches et variées pour augmenter leur chiffre d'affaires, optimiser la gestion de leur marketplace et garantir la sécurité des utilisateurs et des transactions. Implémenter des algorithmes qui auront un impact visible sur plus de 500 sites e-commerce/marketplaces dans 40 pays dont certains une volumétrie très importantes (millions de produits, de clients, de commandes par an) Des techniques de pointe variées (modèles multimodaux, fine-tuning de LLM, etc.). Notre client est aujourd'hui l'un des rares acteurs français à avoir des LLM finetunés en production à grande échelle. Une vraie autonomie et responsabilité dans les projets dont vous avez ownership STACK ET OUTILS Python, Tensorflow, Pytorch, Hugging Face, Databricks, Spark, AWS (Amazon Redshift, s3, etc.), SQL, Airflow, Delta Lake. Spécifiques LLM : Autotrain, Unsloth, Galileo, LangChain, Anyscale LES MISSIONS Analyser, préparer les données, prototyper des algorithmes Les mettre en production en collaboration avec les Data Engineers et les équipes de développement Faire des dashboards afin d’illustrer la pertinence des algorithmes et de monitorer la production Présenter les résultats au weekly data science et participer aux sessions de brainstorming de l’équipe Échanger avec les autres équipes pour affiner les cas d’utilisation, l’expérience utilisateur et les modes d’intégration
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-7JTGVU4CfAkwdiTa.jpg)
Mission freelance
DATA ENGINEER ETUDES Ingénieur Data Etudes et développements Finance
Contexte : Support niveau 2. Le consultant Data Engineer SQL au sein du chapter « Data & BI Client - Data Engineering », sera en charge principalement de MISSIONS : - La maintenance évolutive des flux de données • SQL (modélisation, Intégration/transformation de données, calculs d’indicateurs ,…) • Ordonnancement des traitements (via ctrlM) • Flux de données (Fichiers plats, xml, web services, …) • Optimisation SQL - L’impact de la migration vers Windows 11 avec changement de login et de domaine (Outils, Process, Pipelines, …), le développement de fixs (optimisations et améliorations) des process techniques et le support niveau 2. - Réaliser des tests unitaires et participer aux recettes, - Assurer des tâches de support, - Contribuer à la Méthodologie Agile – kanban (Daily meeting, poker planning, rétrospective, ..) , - Rédiger des documentations techniques, - Participer au dispositif d’astreintes.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-oQf1t84qfNG6x205.jpeg)
Offre d'emploi
Développeur Infra (pas data !) Python - Kubernetes H/F
Mise en œuvre d'une offre « Cluster Microsoft SQL AsAservice » sur le Cloud privé : - Développement d' API permettant à nos clients de créer en mode self service des clusters Microsoft SQL En tant que développeur d’ API, vous aurez pour missions principales de : • Contribuer aux actions d'automatisation et de fiabilisation ; • Mettre en place les bonnes pratiques en terme de développement de code. • Traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-Rb1qlzdGmbu0NKuZ.png)
Offre d'emploi
Chef de projet Data Gouvernance
INVENTIV IT est à la recherche de son nouveau chef de projet Data Gouvernance avec qui nous pourrions collaborer sur nos nouveaux projets. Vous maîtrisez parfaitement les sujets de Data Gouvernance et de Data Market place. Vous avez une appétences pour les outils : Collibra, Data Galaxy ou encore EBX Vous avez une vision 360 de la Data : Acculturation Data, Data Quality, Data Lineage ou encore définition des rôles Data Vous êtes capable de mettre en place un projet Data de A à Z sur les sujets de Gouvernance et de market place de la données (Data). Vous êtes Anglophone et êtes à l'aise dans un contexte de travail International (prévoir des déplacements à l'étranger notamment en Allemagne) Vous êtes un profil technico-fonctionnel travaillant en méthode Agile avec une appétence pour la chefferie de projet (animation d'atelier) Collaborons ensemble ! Anglais Animation d'atelier Data Market place Data Gouvernance Outils Data Gouvernance : Collibra, Data Galaxy, EBX Acculturation Data Data Management Data Quality Data Lineage Vernis technique Fonctionnel : Chefferie de projet Confluence : process Méthode Agile
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-Rb1qlzdGmbu0NKuZ.png)
Offre d'emploi
Architecte Data Azure
INVENTIV IT est à la recherche de son futur Architecte Data Azure. Avec 7 ans d'expérience au minimum Profil Technico-fonctionnel. Nous travaillons principalement dans un environnement Azure sur des sujets Big Data & Data Viz. Nous gérons à la fois le Build & le Run des applicatifs. Nous devons avoir une vision 360 des sujets Data : Data Mesh, Data Management, Acculturation Data ... Environnemennt : Azure Data Lake Azure Databricks Azure Synapse Azure Fabric Azure Data Factory Spark / Scala / Python Power BI Snowflake Résumé quelques une de nos missions : Participation à l’évaluation et à la livraison de composants Azure • Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). • Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. • Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. • Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). • Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. • Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-MqKuGTKNTZv94F2e.jpeg)
Offre d'emploi
Data Engineer DevOps Airflow (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Intégration des modèles d’IA · Développement de processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers · Conception des solutions nécessitant l’utilisation de technologies data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données · Travaille avec différents profils data du groupe (Data Scientist, Data Engineer, Data Architect, Data Analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-RVDEx59VXAl1Mt3d.png)
Offre d'emploi
Lead Tech Data Studio & MLOPS - Sénior - Paris
En tant que Lead Tech Data Studio & MLOps Senior, vous serez responsable du cadrage et de la mise en place d'une solution de Data Studio, destinée à servir plusieurs équipes via une offre mutualisée. Vous piloterez les travaux techniques depuis le cadrage initial jusqu'au déploiement, en supervisant également la migration des usages vers cette nouvelle solution. Vos principales missions incluront : Conception et mise en œuvre : Identifier les normes, patterns, et architectures nécessaires pour une utilisation optimale du Data Studio. Évaluation des solutions existantes : Analyser les capacités et limites de la solution Big Data en place, et proposer des alternatives, notamment autour de Kubernetes et du stockage S3. Documentation technique : Élaborer une documentation claire et détaillée sur les choix d'architecture et les processus de mise en œuvre. Supervision d'équipe : Encadrer les équipes techniques, définir des objectifs, et accompagner leur montée en compétence. Implémentation de pipelines : Diriger le développement et la mise en œuvre des pipelines nécessaires au fonctionnement du Data Studio. Adoption de nouvelles technologies : Évaluer et intégrer des technologies innovantes pour renforcer les processus MLOps et améliorer l'efficacité globale. Conformité et stratégie : S'assurer de la conformité des solutions par rapport aux objectifs stratégiques tout en maintenant un équilibre pragmatique. Vous jouerez un rôle clé dans la définition de l'architecture cible en collaboration avec les architectes et parties prenantes, tout en facilitant les prises de décision sur les solutions applicatives.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/7QOxvHuV-logo.png)
Mission freelance
Mission de Project Manager - EM DATA MIGRATION | Expert - 3j/sem Remote - Issy les Mx
Secteur : équipements maritimes TT : 3j/sem Description de la mission de Data Migration Project Manager / EM Description du rôle : Définir et mettre en place la stratégie de migration des données. Définir le périmètre de migration des données pour chaque mise en production en termes de besoins en données (données de base BDR, données maîtres MDR, transactionnelles). Gérer les demandes de changement de périmètre (CR, impact, planification des impacts, communication). Planifier, surveiller les activités et rendre compte de l'avancement à la direction du programme via des KPI. Travailler en étroite collaboration avec le responsable de la migration des données du client : Confirmer les responsabilités (réviser le RACI). Soutenir le responsable de la migration des données du client dans ses fonctions. Renforcer la relation client en utilisant une approche d'équipe unique. Coordonner et surveiller les activités des contributeurs (fournisseur IFS, ressources IT, membres de l'équipe fonctionnelle, entreprise). Planifier les activités, estimer la charge de travail, faciliter l'équipe, rédiger les comptes rendus de réunion (D-STUM, W-STUM, ateliers business, rapports au client et à Capgemini). Gestion des risques (détection, atténuation, etc.). Gestion des personnes : Adapter la taille de l'équipe à la charge de travail. Gérer les profils fonctionnels, techniques et de développement. Projet international. Responsable de la qualité des livrables produits dans son domaine : stratégie de migration des données, GDS, DDS, travail de migration, interfaces Dell Boomi, validation des données, etc. Gérer et exécuter le transfert d'activité pendant l'hypercare à l'équipe de maintenance. Responsable de la mise à jour de la base de connaissances (leçons apprises, gestion des documents SharePoint, suivi JIRA). Surveiller quotidiennement les activités de l'équipe technique avec un suivi des Runbooks, avec une revue critique croisée avec le plan directeur. Une revue plus approfondie ligne par ligne par rapport au plan et aux règles une fois par semaine sera sous votre responsabilité. Relever les défis techniques. Maintenir le plan directeur après une revue hebdomadaire avec l'ensemble de l'équipe de données et le comparer avec le Runbook. La collecte des données doit être remise en question par rapport à la charge effectuée et à la réconciliation effectuée, le statut de la collecte/charge/validation des données par environnement doit être précisément et régulièrement remis en question, contrôlé et renseigné. Revue technique approfondie et catégorisation des résultats/erreurs TC dans Jira.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/AYxXSjeL-logo.jpg)
Mission freelance
Architecte Solution Big Data (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Architecte Solution Big Data (H/F) dans le cadre d'un projet Big Data. Description du poste : Nous recherchons un Architecte Solution expérimenté pour rejoindre notre équipe dédiée à la transformation digitale et aux projets Big Data dans le secteur de la logistique et de la livraison. Le candidat idéal concevra des architectures logicielles robustes et adaptatives pour des solutions de gestion de flux de données à grande échelle, contribuant à optimiser les services de suivi et de gestion d'objets de livraison. Responsabilités : - Concevoir et mettre en oeuvre des architectures système et logicielles adaptées aux besoins des projets Big Data et en ligne avec les exigences d'urbanisme. - Assurer la cohérence et l'homogénéité des solutions logicielles tout en garantissant leur évolutivité et adaptabilité. - Collaborer avec les équipes de développement pour leur communiquer les règles d'architecture et offrir un support technique. - Participer à la définition de l'architecture fonctionnelle des projets en collaboration avec les urbanistes. - Analyser et proposer des améliorations sur les architectures existantes. Compétences requises : - Expérience significative en architecture de solutions Big Data. - Maîtrise des technologies Java, Scala et de frameworks comme Spring Boot. - Connaissance des outils de traitement de flux (Kafka, Spark Streaming, Akka Streaming). - Compétences en bases de données distribuées (Cassandra, Elasticsearch). - Connaissance des environnements de déploiement Docker, Kubernetes et Jenkins. - Compétences en méthodologies agiles (Scrum) pour s'intégrer dans un contexte de développement itératif. Profil recherché : - Niveau : Sénior à Expert en architecture logicielle. - Expérience de collaboration dans un environnement agile. - Capacité à travailler en équipe, à former et guider les développeurs sur les bonnes pratiques. - Autonomie, rigueur et excellent sens de la communication. Conditions de travail : - Localisation : Issy-les-Moulineaux avec possibilité de télétravail partiel. - Disponibilité : Démarrage souhaité début décembre 2024.
Mission freelance
Data Assets Owner IOT and Analytics Anglais courant
Contexte : Dans le cadre de projets stratégiques, l'objectif est de structurer et valoriser les données IoT pour la construction de tableaux de bord performants et l’optimisation des processus métier. La mission inclut l’intégration et l’exploitation de données en temps réel grâce à des technologies comme AWS, Snowflake, SQL, et Qlik, avec une attention particulière sur l’IOT et la visualisation analytique. Missions : Analyse et recueil des besoins métiers : Collaborer avec les équipes métiers pour identifier les cas d’usage liés aux données IoT (exemple : suivi en temps réel de la performance des équipements). Prioriser les besoins en données et définir les règles de gestion associées. Traitement et modélisation des données IoT : Spécifier et documenter les flux de données (par ex., transformation JSON). Élaborer des pipelines pour récupérer et traiter les données IoT en temps réel (AWS, Lambda). Construire des modèles de données pour répondre aux problématiques métiers. Création et gestion des dashboards : Proposer des maquettes sous Excel ou Qlik pour valider les besoins. Implémenter des tableaux de bord analytiques intégrant des règles de gestion claires. Expliquer les formules mathématiques utilisées pour une compréhension partagée avec les utilisateurs. Qualité et gouvernance des données : Garantir la qualité des données en auditant leur fiabilité et leur pertinence. Mettre à jour le dictionnaire des données pour faciliter leur exploitation. Support et formation : Former les utilisateurs sur les outils (Qlik, Excel, DAX) et accompagner l’intégration des solutions proposées. Appliquer des filtres avancés pour résoudre des problématiques liées à Snowflake. Compétences requises : Solide maîtrise des environnements AWS (Lambda, Snowflake) et SQL. Expertise en gestion et transformation des données IoT (analyse JSON). Bonne connaissance des outils BI comme Qlik et DAX. Expérience en modélisation de données (physique et logique). Capacité à expliquer des concepts techniques de manière pédagogique. Profil recherché : Bac+5 en informatique ou domaine similaire. Minimum 5 ans d’expérience en data analytics ou gestion de données IoT. Anglais courant. Autonomie, esprit analytique et aptitude à collaborer efficacement. Environnement de travail : Technologies : AWS, Snowflake, Qlik, SQL. Travail au sein d’une équipe pluridisciplinaire avec des projets impactants sur l’optimisation des processus métier. Opportunité de contribuer à des initiatives innovantes dans le domaine de l’IoT et de l’analytics
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-PvgUw3dspzR19mVH.jpg)
Mission freelance
Consultant (H-F-Y) Senior SAP Master Data Governance (MDG)
Nous recherchons un consultant spécialisé SAP HANA Master Data Governance (MDG) pour accompagner un client dans le secteur de la distribution (industrie CPG/Wholesale). Vous serez responsable de la conception des solutions MDG, de l'intégration avec SAP ECC/S/4HANA et des systèmes non-SAP, et de la mise en place de processus de gouvernance et de conformité. Vous collaborerez avec les parties prenantes pour analyser les processus existants, identifier les lacunes et proposer des améliorations innovantes.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/kGGgH3fq-logo.jpg)
Offre d'emploi
Responsable d'Application Cloud et Data
Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Je vous envoie ce mail car pour un de nos clients situé dans la région parisienne nous recherchons dans le cadre d’une mission idéalement le profil Suivant : Responsable d'application solution CDDP (Customer Data plateform) Vous serez rattaché au manager du pôle et ferez partie d'une équipe composée d’une douzaine de collaborateurs ; 2 Gestionnaires d’application vous seront rattachés. Vous contribuerez aux nombreux projets qui impactent vos Applications. Connaître votre application, le cas échéant votre portefeuille d’applications, pour pouvoir être l’interface avec les chefs de projet, le métier, notre DOSI pour gérer les demandes d’évolution et de projet. Dans le cadre de cette gestion des MEV et des projets : Participer aux phases d'études et cadrage des projets d’évolution de la solution Proposer des solutions grâce à votre expertise fonctionnelle et technique Piloter les travaux de chiffrage des évolutions demandées. Gérer et Piloter les déploiements et les mises à jour de Mediarithmics Rédiger et valider les spécifications fonctionnelles et techniques (ou la piloter avec votre éditeur/intégrateur) Rédiger les contrats d’interface Rédiger les dossiers d’exploitation Établir des diagnostics et piloter les corrections aux dysfonctionnements applicatifs ainsi que sur des problèmes de Data Quality. Vous justifiez d’une expérience d’au moins 5 ans en tant que Responsable Application d’une solution Data, de préférence CDP, ou dans une mission Etudes similaire. De formation supérieure en informatique, vous avez de solides compétences techniques et fonctionnelles, de préférence dans le monde du Retail ou de la Relation Clients. Idéalement, vous avez déjà été exposé à une CDP (Mediarithmics) et vous avez déjà eu l’expérience sur des problématiques de Data Quality. Vous avez les compétences et l’expérience dans les domaines suivants : Connaissance/ Maitrise de Databricks, Power BI, Phyton. Maitrise du requêtage SQL, dans l’analyse des résultats et dans la manipulation des fichiers. OTQL sera un vrai plus. Connaissance des problématiques d’intégration en flux et Web Service Connaissance du cycle de vie d'un projet (cycle en V ou agile) Très bonne connaissance data / cloud obligatoire SQL et python - Confirmé – Impératif/Cdp - Confirmé - Souhaitable Databricks - Confirmé – Souhaitable/PowerBI - Confirmé - Souhaitable Data eng / data science Notions (Secondaire) Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-PvgUw3dspzR19mVH.jpg)
Mission freelance
Consultant (H-F-Y) Senior PMO Data (Studio Dataiku)
Dans le cadre des travaux de modernisation de l’offre Data de notre client, nous recherchons un Chef de Projet / PMO Data Sénior pour piloter la mise en place de notre Data Studio (DataIku) . Ce projet vise à améliorer notre offre d’outillage Data avancé, optimiser les processus internes et renforcer la collaboration entre équipes. Vos missions principales : Piloter l’ensemble du projet de bout en bout, en coordonnant les équipes contributrices pour garantir une collaboration fluide. Élaborer et suivre le respect des budgets et des plannings, en gérant efficacement les ressources. Assurer la gestion des risques et alerter en cas de dérive planning. Fournir des reports réguliers aux parties prenantes sur l’avancement, les risques et les résultats obtenus. Animer les comités de pilotage et assurer le suivi stratégique du projet. Déterminer et valider les solutions en collaboration avec les contributeurs techniques (Tech Lead, architectes, sécurité…). Conduire le changement, en préparant un package de formation et en accompagnant les utilisateurs finaux pour une adoption réussie. Travailler en lien étroit avec le Product Owner pour collecter les feedbacks utilisateurs, mesurer les usages et ajuster la vision produit. Contexte technique et organisationnel : Vous travaillerez avec une équipe pluridisciplinaire (Business Analyst, Data Scientist, Data Engineer, Tech Lead, Architectes, etc.) pour cadrer, fabriquer et déployer une solution mutualisée destinée à plusieurs équipes. Le suivi des besoins métiers, la satisfaction des utilisateurs finaux et la documentation des processus et usages seront au cœur de vos priorités.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-ZSqgyYp4f7G3TbHG.jpg)
Offre d'emploi
Data Engineer - Développement Python/SQL orienté Data
Contexte: Environnement technico-fonctionelle en finance de marché. Cette équipe est en charge: - d'assurer la transparence au sein des marchés mondiaux en stockant, collectant et centralisant les données pre-trade de trading. - de mettre en oeuvre une stratégie complète de gestion des données à l'échelle mondiale. - de produire de multiples reporting pour différents besoins internes, notamment réglementaires. La mission se concentre autour du développement et maintien d'un outil de détection d'abus de marché développé en interne à l'aide du langage de programmation Python.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/mghHamb5-logo.jpg)
Mission freelance
AWS Data Engineer
Les ingénieurs data de l’équipe ont deux missions principales : a. Maintien en condition opérationnelle de la plateforme : Assurer la disponibilité des données et des services de la plateforme Communiquer avec les utilisateurs de la plateforme Répondre aux demandes de données ad hoc ou à l'analyse des anomalies Développer des correctifs et des évolutions de la plateforme Contribuer à la qualité des données et à l’industrialisation de la plateforme b. Conception et développement de services et de pipelines de données performants et fiables : Mettre en place des flux d’acquisition et d’exportation de données Effectuer des modélisations de données Développer des pipelines de transformation Réaliser les tests unitaires et d'intégration Veiller à la qualité des développements et au respect des standards via les revues de code Gérer les dépendances entre les traitements et les ordonnancer Réaliser les déploiements dans tous les environnements Maintenir et enrichir la documentation de la plateforme
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres