Trouvez votre prochaine offre d’emploi ou de mission freelance DAT à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant Senior Anonymisation de données
Bonjour, Nous recherchons un consultant senior en projet d’anonymisation de données et ayant un profil IT et faisant preuve d'une grande autonomie. La durée de la mission est de 6 mois sur Paris. Début de la mission : sous quinzaine Bonnes connaissances RGPD car le cadrage doit se faire en relation avec les DPO Prérequis : avoir déjà cadré et piloté un projet d’anonymisation de données dans le monde banque / assurance ou de santé avec un focus sur les données de tests. Responsabilités principales : ? Fournir des conseils d'expert sur la conformité de données, avec un accent sur les techniques et meilleures pratiques d?anonymisation des données. ? Développer et mettre en ?uvre des stratégies d?anonymisation pour garantir que les données personnelles soient efficacement anonymisées en conformité avec les exigences RGPD. ? Effectuer des évaluations régulières et des audits des activités de traitement des données pour identifier des pistes d'amélioration et assurer une conformité continue. ? Collaborer avec des équipes pluridisciplinaires pour intégrer les pratiques d?anonymisation dans les flux de traitement des données. ? Concevoir et dispenser des programmes de formation pour sensibiliser les collaborateurs à la conformité de données et aux techniques d?anonymisation. ? Suivre les évolutions des réglementations en matière de protection des données. ? Préparer et maintenir une documentation détaillée des processus d?anonymisation et des activités de conformité.
Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75
Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Offre d'emploi
Data Engineer Airflow (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Les missions : · Compréhension des besoins métiers · Maintenance et évolution de ces automates et micro-services · Développement de processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers · Travaille avec différents profils data du groupe (Data Scientist, data engineer, Data Architect, data analyst) · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
Administrateur téléphonie ATEM-MDM- N4
CONTEXTE Objectif global : Pilote de flotte téléphonie mobile MISSIONS : Les principales missions du service sont : - le pilotage du parc des lignes mobiles du Collectif (environ 10 000 lignes) - le pilotage de l’offre de gestion de flotte mobile des établissements ayant adhérés à l’offre d’infogérance (environ 15 000 matériels / lignes) - la facturation en relation avec les Opérateurs Pilotage du parc des lignes mobiles du Collectif Les principales missions côté Collectif consistent : - à l’analyse, au contrôle et la vérification de la qualité des données saisies dans l’outil ATEM par les Supports de niveau 1 - à la fourniture de rapports et d’indicateurs aux établissements permettant le suivi de leur ligne par cet de la consommation de leurs lignes mobiles - à l’accompagnement des métiers dans leurs questions / demandes - à participer à différents projets en fonction des besoins métiers - Spécificité : 1 Global Pilotage de l’offre de la gestion de flotte mobile des établissements (Banque Populaire et Caisse d’Epargne) ayant adhérés à l’offre et assurer la gestion du parc de téléphones mobiles de nos clients en collaboration avec les autres membres de l'équipe Les principales missions consistent : - au suivi de la prestation de gestion opérationnelle de la flotte mobile (gestion des terminaux et des lignes mobiles) - au suivi d’activité du prestataire (suivi des incidents, respect des SLA, suivi des irritants, …) via différents comités - au conseil auprès des clients (analyse et optimisation des factures, obsolescence, …) - au développement de l’offre (présentation aux nouveaux clients, mise en œuvre, application des contrats, …) En commun ces 2 missions sont réalisées en constante relation avec les Opérateurs (y compris opérateur étranger) : - participation à l’élaboration ou au renouvellement des contrats avec les opérateurs - vérification et analyse de la facturation Opérateurs La personne qui rejoindra l’équipe devra être polyvalente sur l’ensemble des missions du service et pourra s’appuyer sur les experts de l’équipe. Les outils : ATEM MDM Service Now Portails Opérateurs Contrainte forte du projet : Maitrise du pilotage d'une flotte mobile et des outils associés (ATEM, MDM ou similaires, outil de facturation)
Offre d'emploi
BUSINESS ANALYST DATA - 5 ans d’expérience
💼 Poste : BUSINESS ANALYST DATA - 5 ans d’expérience 🏭 Secteurs stratégiques : Banque 📍Localisation : IDF 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le prestataire recherché intégrera l’équipe Data , répartie entre Paris et Bangalore. Cette équipe a en charge la gestion du datawarehouse utilisé pour le pilotage commercial, financier, risque et Conformité. Elle est aussi porteuse des principes Data à appliquer dans les projets de la BU, sur la Data Quality ou la Protection des données. 🤝 objectifs de la mission : le prestataire contribuera au programme de transition en priorité, ainsi qu’au support des sujets transverses de la filière Data. Les principales missions du poste seront : • Recueil de besoins, spécifications et validation des développements Datawarehouse & Reporting réalisés dans l’équipe • Homologation des évolutions avec le métier et les autres entités • Accompagnement des filiales de la BU sur les évolutions du Datawarehouse et de la filière Data • Support de l’équipe dans les activités de Data Management, notamment le pilotage des usages Data • Contribuer aux pratiques agiles de l’équipe (slicing, priorisation par la valeur…) et accompagner le métier dans la transformation agile
Offre d'emploi
Data engineer (DATABRICKS/Palantir)
Spécialisé dans le secteur digital, l'entreprise recherche activement un data engineer pour renforcer ses effectifs sur son site de Paris. Description détaillée Nous recherchons un(e) ingénieur(e) de données pour construire, livrer et maintenir des produits de données (pipelines de données, services, APIs...). Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Les technologies utilisées pour le développement sont les suivantes : Databricks pour le pipeline de données Palantir Foundry pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroite collaboration avec les équipes produites pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à collaboration avec les équipes de produits pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à : Le pipelining de données au sein de plusieurs produits ou entre eux Les capacités d'analyse et de stockage pour l'exploration des données, la science des données, la BI Le calcul parallèle sur de grands volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance et de la documentation d'artefacts de données ou de fonctionnalités (pipelines de données, services de données, API...) en suivant des modèles de pointe (architecture médaillon, gitflow). L'ingénieur en données doit. : Etre orienté vers la résolution de problèmes et avoir un forte capacité d'analyse Etre autonome et rigoureux dans sa manière d'aborder les défis techniques Conseiller sur l'architecture des flux de données de bout en bout Collaborer avec diverses parties prenantes (propriétaires de produits, propriétaires de solutions, analystes de solutions de données, développeurs, responsables techniques, architectes) pour fournir des artefacts de données dans un esprit d'équipe. Profil recherché: + Au moins 3 ans d'expérience Tâches : Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Compétences techniques : Databricks, Palantir Foundry, Python, SQL, DataViz : - Expert - Impératif MSDevOps, Jenkins, Artifactory, Container Registry : - Expert - Impératif Parallélisation, technique de programmation distribuée : - Confirmé - Important Deltalake, medaillon archi, blobStorage, fileshare - Expert - Important Langues : Anglais courant (impératif)
Mission freelance
Directeur de projet Sénior - Obsolescence RedHat 7
Dans le cadre du chantier de remédiation de l'obsolescence du patrimoine de serveurs Linux Red Hat d'un de nos clients nous sommes à la recherche d'un Directeur de Projet pour assurer la direction du projet. Les tâches seront : Elaborer un processus industriel du traitement de l'obsolescences qui définisse les rôles des acteurs tels que prévu dans le dispositif présenté à la direction Construire la planification globale du traitement de l'ensemble des applications avec les acteurs projets et les responsables d'applications Organiser avec le pilotage projet l'intégration des travaux dans notre cadre de fonctionnement agile Mettre en place la gouvernance du projet et son pilotage afin d'en assurer la réussite Veiller à une bonne compréhension des enjeux et objectifs par toutes les parties prenantes au projet Suit le budget, assure le pilotage du planning, des risques en tenant compte de toutes les contraintes et du contexte Piloter la mise en œuvre des tableaux de bord de pilotage du projet. Piloter la réalisation des travaux par les équipes CATS, et participe au pilotage de l'équipe centrale projet avec le Directeur de projet CAGIP Identifier les incidents et difficultés des équipes et propose des solutions de remédiations. Préparer et anime les comités de pilotage en présence des décideurs Assurer le reporting et la communication au directeur du programme Modernisation du SI, aux sponsors du programme et COMEX Est garant de la tenue des engagements du programme.
Mission freelance
INGENIEUR DEVELOPPEUR DATA SCIENCE AWS
CONTEXTE Le client cherche un developpeur back-end permettant d'intégrer un modèle de traitement du langage naturel (LLM) à un backend sur AWS. Cette solution doit permettre de déployer des outils conversationnelles et d’analyse de texte en temps réel, tout en bénéficiant des infrastructures d’AWS telles que Lambda pour l’exécution sans serveur, S3 pour le stockage de données massives et EC2 pour des instances dédiées à la puissance de calcul. Le modèle LLM devra interagir avec des microservices backend via des API REST, orchestrés avec le services API Gateway et gérés à travers SageMaker pour le déploiement des modèles d'apprentissage automatique, assurant ainsi une gestion efficace du cycle de vie des modèles en production. L'objectif est de disposer d'une architecture robuste, évolutive et optimisée en termes de coûts. MISSIONS • Developpement et maintien des API backend basé sur AWS • Connection des algorithmes de traitement de Languauge (LLM) au Backend et la construction de Lambda et d’API REST • Concevoir et mettre en œuvre des algorithmes efficaces et évolutifs • Rester à jour sur les tendances de l'industrie et les meilleures pratiques pour garantir un code de haute qualité et des performances optimales. • Contribuer aux revues de code et fournir des commentaires constructifs aux membres de l'équipe.
Mission freelance
Expert Hadoop
-Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop -Vérification de la bonne application des normes et des standards -Force de de proposition, étude, analyse et mise en œuvre de solutions pour améliorer l’outillage utilisateurs, optimiser les performances et la résilience du Duster -Etude d’impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop, -Prise en compte de l’écosystème : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheurs/Grafana Expertise Hadoop de niveau 3 : -Configuration du Cluster Cloudera en fonction des besoins identifiés -Optimisation des traitements Support : -Accompagnement des équipes de développement -Assistance auprès des équipes : optimisation des traitements, Prise en main de l’outillage mis à disposition, chargement des données -Transmission de savoir-faire via la rédaction de documentations et transfert de connaissances Savoir être : -Coordination et pilotage des chantiers en collaboration avec les différents services DSI -Autonomie pour la prise en charge des sujets et travail en équipe -Capacité à s’adopter en fonction des différents interlocuteurs
Offre d'emploi
Data Product Manager H/F
Chez Ozitem, nous accompagnons les entreprises dans leur transformation digitale, notamment au travers de notre expertise sur les solutions d’infrastructures & de cloud ???????? Entreprise de taille humaine et pérenne depuis plus de 30 ans, l’entreprise affiche une croissance régulière depuis notre création et un chiffre d’affaires de 46 Millions d’euros en 2023. Ce sont 400 Ozitémiens, ingénieurs et consultants qui évoluent sur trois sites en France : Levallois (92), notre siège-social, Toulouse (31) et Lyon (69), ainsi qu’à l’international au Vietnam (Hô Chi Minh). ????? ???? Avantages : • RTT • Tickets restaurants • Participation • CSE • 75% Transport Possibilité de contrat freelance. En tant que membre de l'équipe Data As a Service Customer, vous mènerez des évaluations /études dans le segment d'affaires HPS (High Performance Solutions) et participerez à l'évaluation de la qualité des données à la phase d'exécution du projet. • Organiser l'étude et recueillir les besoins de toutes les parties prenantes • Comprendre l'ambition, les enjeux et les objectifs de l'entreprise • Organiser et diriger des ateliers avec les entreprises • Recueillir toutes les données nécessaires à l'étude • Documenter l'architecture fonctionnelle • Modélisation des données / conception des couches métiers (Silver layer) • Organiser les contributeurs du Data As a Service (Architecte Technique, Ingénieurs Data & BI) • Documenter la valeur de la solution • Préparer le budget et la planification de la construction et de l'exécution • Formaliser les propositions finales de « Go to project ».
Offre d'emploi
Administrateur COLLIBRA
Résumé Administrateur technique de Collibra Contexte Assurer l'administration technique de Collibra Détails 1 Administrateur Technique Collibra : - Maintenance technique - Scripts maison pour copier les métadonnées de Mega vers Collibra - Mise en place d’API d’Ares et revue d’habilitation - Création des workflows RGDP - - ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------
Mission freelance
Tech-Lead/Dév Data AWS (H/F) - IDF
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Un Tech-Lead/Dév Data AWS (H/F) Un profil senior (10+ ans d’expérience) est recherché pour le département Solutions Data (Data Engineering) La mission consistera à : Conception et Développement : Participer au design technique des solutions logicielles et à la recherche de solutions techniques. Prendre en charge une partie des développements. Encadrement et Qualité : Accompagner les autres développeurs (coaching, optimisation de code). Collaborer avec l'architecte data pour l'intégration dans le SI. Assurer la qualité des produits logiciels.
Mission freelance
Ingénieur DevOps Kubernetes Terraform (H/F)
L’équipe XXX est responsable des deux services XFactory et XConfiguration pour le maintien en condition opérationnelle et le développement des templates d'OS serveur linux RedHat/CentOS du cloud privé interne de la banque En tant qu’un ingénieur DevOps précisément Ops. - Assurer le maintien et le bon fonctionnement de ces deux services précédemment cités en amont et de contribuer à leur amélioration - Amélioration des outils et les processus d'installation et d'administration des serveurs RedHat/CentOS - Gestion des incidents, des problèmes et des évolutions des produits développés et maintenus par l'entité. - Assistance pour les entités de développement dans la définition de leurs architectures techniques en prenant en compte leurs besoins et contraintes tout en respectant les standards et les critères de sécurité. Différentes taches ont été réalisées pour atteindre ces objectifs parmi lesquelles nous avons : - Automatiser la création des ressources via les ressources Terraform de la plateforme, des scripts pythons et ansible pour la configuration système des serveurs de ces deux services (XFactory et XConfiguration). - Mettre en place des scripts de pipeline Jenkins pour le déploiement en pré-prod et en prod des nouvelles versions de nos services. - Déploiement en ‘’blue/green’’ avec les processus de rollback intégrés au niveau des pipelines Jenkins - Mettre en place un système d’alerting, de suivi et de monitoring de nos services via Prometheus et des dashboards en utilisant Grafana et Kibana - Automatiser certaines tâches via des images dockers et des cronjobs kubes Environnement technique : Docker, Bash, Linux, Python, CentOS, Rhel, Jenkins, Kubernetes, Prometheus, Grafana, Kibana, Ansible
Mission freelance
Data analyst / Développeur BI Tableau, Power BI et Dataiku
En tant que Data analyst / développeur BI sur les outils Tableau, Power BI et DataIKU au sein du département Gouvernance de la donnée de la DSI, Vous serez amené à intervenir sur les projets suivants : Tableau de bord de pilotage de l’activité des différentes directions Analyse de la qualité de la donnée et construction de sources de données Demandes ponctuelles de rapports décisionnels Vos missions principales seront : Rédaction des spécifications techniques de développement des rapports Développement, recette et mise en production des rapports et de analyses de données Contribution à l’administration des plateformes Tableau, PowerBI et DataIKU. Livrables : Documentation autour des solutions mises en œuvre par projet métier, Documentation autour des sources de données utilisées, Présentation de l’activité métier sous forme d’indicateurs de performance et/ou de tableaux de bord
Mission freelance
EXPERIENCE RETAIL - Data Analyst / Analytics Engineer - PowerBi (F/H) - Anglais fluent
Notre client, acteur international du luxe, cherche un consultant Data Analyst / Analytics Engineer - PowerBi pour renforcer son équipe. Descriptif de la mission: Besoin : Accompagner les équipes métiers du portefeuille dans leur besoins en Analytics & Reporting Soit via leur dashboards existants (support incidents, enhancement, optimisation…), Soit via le projet replatforming (audit de l'existant, gap analysis, maquette to be, developpement, recette…) L'accompagnement passe aussi en grande partie par l'animation transverse (cross-équipes): newsletter, comité pilotage, expert session, BI office hours, training. Expertise & séniorité: De 3 à 5 ans d'expé sur des jobs dans la Data Au moins 2 ans d'expérience en tant que Data Analyst ou Analytics Engineer Autres éléments : Présence sur site obligatoire à minima 2 jours / semaine Besoin pour 1 an au moins, renouvelable Skills : Technical skills: 50% data technical Maitrise des techniques Analytics & Insights (statistics & mathematics), ML is a plus Maitrise des techniques de Modélisation de données Maitrise de PowerBI Connaissance du fonctionnement d'un DWH Capacité d'audit, gap analysis et de formulation de recommandations pour optimisation (performance, vélocité) et efficacité (adéquation besoin <> solution, proposition) Connaissance des applications de la Suite office (SharePoint, Forms, Planner, Power Automate, …) is a plus 50% business / fonctionnel Capacité à restituer de manière simple un sujet data complexe Capacité de communication à différentes audiences (managers ou collaborateurs, experts data ou non) Excellentes capacités d'expression (écrit et oral) Soucis du détail et de l'esthétisme, UX design oriented Compréhension des enjeux Retail et/ou Luxe Fluent in French, good level in English Soft skills Analytical and synthetic mindset Priorisation et prise de recul Force de proposition, proactivité, et curiosité Autonomie et responsabilité Ecoute fine et empathie Compétences / Qualités indispensables: Analytics & Insights,PowerBI, Connaissance du fonctionnement d'un DWH ,Modélisation de données, Capacité d'audit, gap analysis, Fluent english, Expérience en retail (un gros plus) Compétences / Qualités qui seraient un +: Machine Learning Connaissance des applications de la Suite office (SharePoint, Forms, Planner, Power Automate, …)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- consultant changer secteur activité ? de la banque PO généraliste
- situation compliquée fin de mission pression client comment gèrer ?
- création association ou auto-entrepreneur
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Résidence principale / logement de fonction
- galère à trouver une mission