Trouvez votre prochaine offre d’emploi ou de mission freelance SIG (Systèmes d'Information Géographique) à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Architecte solutions data
🎲 LES MISSIONS : Au sein de la DSI et plus particulièrement de la cellule de l’Architecture et de l’Innovation composée d'architectes vous travaillerez conjointement avec les équipes IT (architectes, data analyst, chef de projets) mais aussi les équipes métiers (RH, finance etc.). Vous travaillerez sur la partie datalake / data warehouse pour ensuite traiter les données et les mettre à disposition des différents services en proposant des outils et Dashboards adéquats, mais aussi sur la gouvernance de données. Vos missions seront les suivantes : Participer avec les architectes référents à la Design Authority sur le domaine data Assurer la veille d’architecture et de solution applicative Contribuer à l'alignement du SI avec la stratégie de la Branche et du Groupe et être un relais de l’architecture d’entreprise Accompagner les études du domaine, de l’opportunité à la mise en exploitation en s’appuyant sur les différents experts fonctionnels et techniques Proposer, formaliser et promouvoir les patterns Enrichir et maintenir le Cadre de Référence d’Architecture et la Cartographie du SI Evangéliser les bonnes pratiques en termes d’architectures Mise en place d'une stratégie de gouvernance de données (Qualité, Sécurité, Traçabilité, Conformité) Garantir la conformité des solutions développées au regard du RGPD (Identification des données, traçabilité, consentement...)
Offre d'emploi
Chef de Projet DATA
Chez K-LAGAN , nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, continuez de lire...🔍 📎Nous sommes à la recherche d'un-e chef de projet DATA (h/f) pour renforcer nos équipes, sur un projet ambitieux chez un de nos clients, secteur assurances à Paris, IDF, France. 🤖Fonction : Agir comme un référent pour les données de référence, maîtriser leurs définitions, volumétries, domaines d’application, flux entrants & sortants Cartographier et organiser les données pour rendre leur exploitation optimale, tout en s'assurant du respect des exigences et contraintes de traitements qui leur sont liées ; Définir et piloter la mise en œuvre dans les délais impartis les process relatifs aux données : création/ingestion, maintenance, modification, standardisation & nettoyage Contrôler la pertinence et la qualité des différentes demandes, les analyser et piloter/réaliser les modifications des données en s’assurant de la cohérence globale et en maîtrisant les impacts Définir et mettre en place les outils & méthodes permettant de contrôler la cohérence des données, leur qualité, et leur juste mise en application Investiguer les problèmes de données et s’assurer de la mise en place d’actions correctives pérennes Élaborer une stratégie de gestion des données en tenant compte des orientations business et des actifs de données existants Gérer la relation avec le(s) prestataire(s) de données et s’assurer de la qualité des données & services contractualisés ainsi que du respect des SLA Participer à l’évangélisation et la formation des utilisateurs du patrimoine de données en s’adaptant à leurs différents niveaux de connaissance et maitrise des outils Identifier et notifier le responsable de la sécurité des incidents détectés. Assurer le respect des politiques et procédures du système de gestion de la sécurité de l'information. Maintenir le devoir de confidentialité des tâches effectuées dans l'organisation. Prévenir, détecter et analyser les vulnérabilités liées à la sécurité de l'information. Informer et rendre compte à la haute direction sur les enjeux liés à la cybersécurité.
Offre d'emploi
skiils recherche sont Business analyst IA generative
. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client.
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Product Owner - Compliance H/F
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Numérique, notre Tribu spécialisée dans le domaine du développement et du digital. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Digitale. Contexte de la mission : Notre client recherche un(e) Product Owner pour intervenir, dans un contexte Agile, sur le projet de création d'une nouvelle application d'évaluation du risque opérationnel : RCSA. Descriptif de la mission : -> IT Product Owner : - Animation des ateliers de récolte du besoin auprès du Métier Compliance et des utilisateurs - Gestion du backlog - Préparation des comités de pilotage avec le métier - Pilotage et coordination de l'équipe de Business Analysts et développeurs - Contribution à l'architecture technique et arbitrage des choix de développement - Réalisation des recettes fonctionnelles -> Pilotage et coordination de projets - Réalisation du macro-chiffrage du projet - Maîtrise des enjeux, coûts et risques du projet - Maintien d'un suivi régulier et synthétique Les livrables attendus sont : Support de comité de suivi, Roadmap, Backlog produit, user stories (en collaboration avec les BA), stratégie de tests, cas de tests, PV de recette.
Offre d'emploi
Ingénieur Infrastructures & Cloud Azure SysOps H/F
Dans le cadre de notre croissance, nous recrutons un(e) Ingénieur Infrastructures & Cloud Azure (SysOps). Le poste est basé à Paris (possibilité de télétravail selon la mission). Votre rôle s'articule autour de différents axes : Vous serez responsable de l'administration transversale des technologies. Vous disposez donc d'une expertise sur l'administration de systèmes Linux et Windows Server, ainsi que de bonnes connaissances sur les bases de données et sur la partie middleware (Tomcat, bases de données courantes telles que PostgreSQL, MariaDB, MS SQL). Vous avez une compréhension globale de tous les sujets relatifs à l'infrastructure (systèmes, automatisation, etc.) et une connaissance approfondie de Microsoft Azure, Azure DEVOPS, Azure Active Directory (Azure AD), PowerShell et Hyper-V. Missions Principales : - Dépannage des incidents de bout-en-bout : Intervenir en cas d'escalade pour résoudre les incidents complexes (niveau 3). - Analyse de compatibilité et tests : Réaliser des analyses de compatibilité et des tests lors des mises à jour majeures, des évolutions et des correctifs. - Conseil technologique : Fournir des recommandations et des conseils sur les technologies utilisées, notamment dans le cadre de la gestion de la RUN Infrastructure. - Communication et reporting : Assurer la communication, la rédaction de rapports et l'escalade vers les équipes de niveau L4. - Planification et exécution des changements majeurs : Planifier, examiner et exécuter les changements complexes. - Gestion des problèmes : Gérer de manière proactive et réactive les problèmes rencontrés. - Amélioration continue des services : Suivre et mettre en oeuvre les lignes directrices pour l'amélioration continue des services. - Activités de type projet : Participer à des projets spécifiques en lien avec l'infrastructure, en intégrant des compétences en pilotage de projet. - Point d'escalade pour les équipes L2 et L3 offshore : Servir de point de contact pour l'escalade des problèmes des équipes offshore.
Mission freelance
Responsable d’équipe d’Assistance Informatique de proximité
CONTEXTE Dans son activité quotidienne, la DSI assure l’Assistance Informatique de proximité à l’ensemble des 600 collaborateurs .Pour réaliser son objectif qui est de de maintenir et d’améliorer la qualité de service, la DSI offre une mission de Responsable d’équipe d’Assistance Informatique de proximité. MISSIONS : - Prendre en charge l’animation de l’équipe Assistance Informatique en place composée de 4 techniciens support - Réaliser un diagnostic, sur l’organisation actuelle qui permet aujourd’hui de couvrir la mission d’Assistance Informatique de proximité - De proposer des actions d’amélioration afin de faire progresser l’équipe en efficacité et afin de garantir la pérennité du niveau de qualité service attendu - Mener la transformation de l’organisation à partir des propositions qui auront pu être validées - Porter par délégation l’engagement Assistance Informatique de la DSI, vis-à-vis de la direction métier Le responsable de l’équipe Assistance Informatique devra avoir entre 5 et 10 ans d’expériences minimum sur une activité de même nature
Mission freelance
Architecte Solutions DATA
Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Consultant HPC (High Performance computing) et Data engineering / Slurm
Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Expert Systèmes et Sauvegarde (F/H)
📑 CDI (52K-57k) / Freelance ( 500-560€) / Portage Salarial - 🏠 2 à 3 jours de télétravail / semaine - 📍 Paris - 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge dans l’administration des infrastructures de sauvegarde ? CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Administrateur/trice Infrastructure de Sauvegarde pour intervenir chez un de nos clients du secteur bancaire . Administration et gestion des infrastructures de sauvegarde Rubrik , Spectrum Protect , DataDomain et NetApp . Activités de Build/Run N3 : mise en place (Build), maintenance et support (Run) des infrastructures. Expertise Rubrik impérative : vous interviendrez en tant que référent sur cette solution. Gestion des incidents N3 : analyse, diagnostic et résolution des incidents complexes. Participation aux projets de conception (Design) : réalisation des POC, contribution à la définition des nouvelles architectures techniques. Veille technologique et proposition d'améliorations continues pour optimiser les performances des infrastructures. Coordination des équipes techniques lors de l’installation et du paramétrage des solutions de sauvegarde. Localisation : Paris - IDF, avec possibilité de télétravail (2 à 3 jours/semaine). Type de contrat : CDI – Freelance – Portage Salarial. Rémunération : 52k-57k € négociable selon profil. TJM : 500-560€ pour les freelances. Si vous êtes prêt(e) à relever ce défi et à contribuer à des projets stimulants dans le domaine de la sauvegarde, n'hésitez pas à postuler dès maintenant ! 🚀
Offre d'emploi
Business Analyst - Data
Dans le cadre d'un projet client dans le secteur bancaire – mise en place de reporting à destination de l’équipe Pilotage Commercial du groupe - nous aurions besoin de recruter un Buisness Analyst 6-9 ans d’expérience. Vos principales missions seront d’intervenir sur les phases de conception, spécification et recette DSI / métier (mise à disposition des jeux de données, validation des cas de tests, analyse des résultats, …) Softskill : • Excellentes capacités d’intégration, de facilitateur et de pilotage de projets. • Excellentes capacités rédactionnelles et de présentation orale. • Coordination, rigueur, sens du service et du dialogue. • Capacité d’initiative et force de proposition. • L'anglais courant est impératif pour ce poste.
Mission freelance
PRODUCT OWNER DATA
Profil recherché : Product Owner orienté technique / data Issu.e d'une formation bac+5 avec une expérience et/ou connaissance prononcée dans le domaine de la data, vous serez rattaché.e au hierarchiquement au responsable du domaine. Vous serez amené.e à vous approprier les différents processus d'ingestion et de traitement automatisé des données entrantes s. En tant que Product Owner, vous serez le garant de la vision produit en étroite collaboration avec le Tech Lead et le Product manager de l'équipe pour définir les nouvelles évolutions ou corrections à apporter dans un contexte SAFe. Vos principales missions s'articuleront autour des axes suivants : - mise en place d'ateliers collaboratifs avec le métier pour définir les nouvelles règles à appliquer - rédaction des user stories et Features - validation (test) des user stories et Tests E2E - préparation des sprints planning - Cadrage de besoins métiers en collaboration avec le PM et métiers - restitution du travail effectué par l'équipe à chaque sprint (via la sprint review) - etc Un background technique et/ou data est primordial pour ce poste.
Offre d'emploi
Data Scientist (H/F)
Nous recherchons pour notre client, grand compte, un Data Scientist confirmé pour une mission longue durée Notre client figure parmi les principaux gérants d'actifs mondiaux assurant la gestion active d'actions, d'obligations et de taux, la gestion passive de fonds indiciels ainsi que la gestion d'actifs non liquides (actifs immobiliers et dettes privées). Prérequis : Data Science : Apprentissage automatique et analyse de données Pratiques MLOps Déploiement de packages Python PySpark Pratiques LLMs LLMOps Rigoureux, organisé, Proactif
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.