Trouvez votre prochaine offre d’emploi ou de mission freelance Nosql à Paris
TechLead expert JAVA / NOSQL SWIFT Concentrator

La mission concerne le développement et le maintien d’une application internationale dédiée à la gestion des instructions de règlement-livraison de titres pour des clients institutionnels. Cette application, critique dans le traitement des opérations de marché, est utilisée dans plusieurs régions du monde et nécessite une forte fiabilité. Le rôle inclut l’analyse des besoins, la mise en œuvre de nouvelles fonctionnalités, le suivi des évolutions ainsi que le support technique, dans un contexte de collaboration avec des équipes réparties à l’échelle mondiale.
PO Technique Kafka

En quelques mots Cherry Pick est à la recherche d'un "PO Technique Kafka" pour un client dans le secteur du Luxe Description 📌 Descriptif du Poste Nous recherchons un Product Owner Technique avec une solide expertise en Kafka et DocumentDB pour piloter la maintenance évolutive d’un outil s’appuyant sur Kafka. Ce rôle implique une forte interaction avec les développeurs et architectes , ainsi que l’animation de la roadmap et des cérémonies Agile . Le candidat idéal est un profil technique expérimenté en Kafka et intégration de flux Kafka Stream en Java , ayant évolué vers un rôle de PO . 🎯 Objectifs et Livrables Piloter la maintenance évolutive de l’outil basé sur Kafka et DocumentDB Gérer le backlog et rédiger les User Stories Animer les cérémonies Agile et assurer la coordination entre les équipes techniques Accompagner la roadmap de l’application Analytics Data Échanger avec les équipes de développement et d’architecture pour garantir la bonne intégration des flux Kafka 📌 Démarrage : ASAP 📌 Durée : Long terme
Développeur Java / Angular
Dans le cadre d’un projet stratégique de transformation IT à l’international, nous recherchons un Développeur Java / Angular expérimenté pour renforcer l’équipe de développement. Vous interviendrez sur un programme majeur d’harmonisation des outils IT entre plusieurs filiales à l’étranger, en capitalisant sur les outils du groupe. L’objectif : développer des modules applicatifs robustes, maintenables et évolutifs tout en participant à la refonte d’un SI complexe. Vos principales missions : Développement de nouvelles fonctionnalités et maintenance évolutive Revue de code, conception de modules complexes, bonnes pratiques Amélioration continue (refactoring, optimisation, fiabilisation) Force de proposition sur les aspects techniques et fonctionnels Veille technologique et partage de bonnes pratiques
Chef de projet archivage électronique confirmé F/H

Sens du service et satisfaction client te définissent ? Pilotage, coordination et gestion sont tes maîtres mots ? Envie de prendre en main des projets de bout en bout ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer la Direction des Opérations d’Archivage Electronique afin de prendre en charge la conception et la mise œuvre de solutions sur des projets d’archivage électronique. Ton quotidien sera rythmé par : La gestion des projets de A à Z : définition du périmètre et des objectifs avec le client, planification du projet budgétisation et suivi du projet L’accompagnement, le suivi et l’animation du projet auprès du client La validation de la conformité de la solution (coût, qualité, délai et risques) La remontée des alertes et la proposition de solutions de remédiation La coordination des contributeurs internes ou externes Le paramétrage des solutions Le contrôle de la qualité des outils ou des paramétrages nécessaires La conception et la validation de la documentation projet La recette et la valider tous les jalons contractuels du projet jusqu’à sa clôture La réalisation d’un bilan du projet La préparation et la réalisation des formations utilisateurs La participation aux tests d’évolutions des solutions L’intervention lors des audits internes ou externes
Data Engineer AWS

Je suis à la recherche d'un Data Engineer expérimenté avec un fort accent sur AWS pour rejoindre une équipe en pleine expansion pour l'un de nos clients. Rôle : Data Engineer AWS Lieu: Paris Durée: 6 mois - extensible Travail Hybride - 3j par semaine remote Date de début : Mars/Avril Responsabilités : Développer le pipeline d'ingestion de données Nettoyage des données industrielles et autoamte Gérer la documentation Travailler avec le PO pour comprendre les besoins de l'entreprise Suivi et maintenance de la production
Expert technique Oracle - Minimum 10 ans d'exp

Propulse IT recherche pour un de ses clients un consultant Oracle expérimenté. Le client souhaite renforcer son pôle de compétence base de données et serveur d'application (middleware) avec un expert ayant des compétences et une expérience sur les différentes SGBD (PostgreSQL, Microsoft SQL Server, Oracle) et sur les serveurs d'application (Oracle 10gAS, 11gAS, …, Tomcat) afin de l'assister sur les projets d'évolution de briques. Voici un exemple des projets en cours de réalisation par l'équipe : • Participation à la mise en oeuvre d'une chaine CI/CD de delivery d'infrastructure OnPrem • Évolution des socles techniques (PostgreSQL version 14, Oracle version 19c, SQL Server version 2017) • Mise en œuvre des solutions de haute disponibilité Oracle DataGuard, Microsoft SQL Server AlwaysOn, PostgreSQL Patroni. • Etude de mutualisation de ressources : Oracle Exadata. • Mise à disposition d'un SGBD NoSQL : MongoDB. L'estimation de la répartition des tâches à réaliser dans le cadre de la prestation s'articule de la manière suivante : - Ingénierie bases de données/serveur d'application : 60-70% - Support N3 : 20-25% - Conduite technique de projet : 10-15% Les projets identifiés à ce jour dans le cadre de la prestation est : • Mise en place de de l'évolution Oracle Forms/reports D'autres projets sont susceptibles de s'ajouter à cette liste, en fonction des besoins de l'équipe. Livrables attendus : • Rédaction des dossiers d'architecture, d'exploitation, d'installation • Rédaction des modes opératoires à destination des différents acteurs projets et des équipes de Production • Compte rendu des ateliers de travail et des réunions réalisées dans le cadre des projets • Compte rendu de l'activité mensuelle
🎯 Senior Data Analytics Engineer (H/F/NB)

🚀 Rejoignez une scale-up où la data est au cœur des décisions stratégiques ! Notre client est une plateforme digitale reconnue qui accompagne les consommateurs dans leurs choix de services du quotidien. Leur mission ? Aider les utilisateurs à faire des économies concrètes, tout en rendant leur expérience simple, fluide et transparente. Dans un contexte de forte croissance, l’équipe Data recherche un·e Senior Data Analytics Engineer pour contribuer à la refonte et à la valorisation de la plateforme de données à l’échelle de l’entreprise. 🧑💻 Votre mission En lien direct avec l’équipe Data Engineering, vous contribuerez à la conception, à la structuration et à l’industrialisation des pipelines de données au service de toute l’entreprise. Vos principales responsabilités : Modéliser et structurer les données dans le Datalake (BigQuery, Firestore, CloudSQL…) Définir et mettre en œuvre les bonnes pratiques de Data Governance (Data Catalog, référentiels…) Collaborer avec les équipes Produit, Marketing, Tech & BI pour démocratiser l’usage de la donnée Optimiser les performances des traitements (analyse de requêtes SQL/NoSQL, refacto…) Contribuer à la montée en compétence des équipes sur les sujets data 🛠️ Exemples de projets : Refonte complète de la data plateforme Construction d’un Référentiel Client Unique Mise en place de data pipelines scalables et maintenables Déploiement d’un dispositif de data management d’entreprise
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performances Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
DEVELOPPEUR MULESOFT SENIOR

Lieu : Paris, 3 à 4 jours de TT par semaine | Durée : Longue | Disponibilité : ASAP Contexte et mission Nous recherchons un Développeur Mulesoft Senior pour intervenir sur des projets d’intégration et d’optimisation de flux de données chez un client du secteur du luxe basé à Paris. Vous serez responsable de la conception, du développement et du déploiement des solutions d’intégration basées sur Mulesoft, en assurant la performance et la sécurité des flux. Responsabilités • Concevoir et développer des solutions d’intégration avec Mulesoft • Optimiser et maintenir les flux d’intégration existants • Assurer la conformité des développements aux standards Mulesoft • Réaliser des tests unitaires et d’intégration • Collaborer avec les équipes IT pour assurer une intégration fluide avec les systèmes existants • Participer aux revues de code et apporter des recommandations techniques Compétences requises • Expérience confirmée sur la plateforme Mulesoft (Anypoint Platform) • Maîtrise des patterns d’intégration (ETL, ESB, API-led connectivity) • Bonne connaissance des protocoles d’échange (REST, SOAP, JMS, FTP, etc.) • Expérience avec les bases de données SQL et NoSQL • Connaissance des environnements cloud et DevOps (Docker, Kubernetes, CI/CD) • Sensibilité aux enjeux de performance et de sécurité Profil recherché • Expérience de 5 ans minimum sur Mulesoft • Capacité à travailler en mode agile (Scrum, Kanban) • Autonomie, réactivité et esprit d’équipe • Forte capacité à résoudre des problèmes complexes et à proposer des solutions innovantes
integrateur logiciel - Editeur

Mission principale Le consultant en intégration de progiciel est responsable de l'intégration technique de solutions logicielles (progiciels) au sein du système d'information de l'entreprise. Il s'assure que l'architecture mise en place, basée sur des technologies modernes telles que PostgreSQL, MongoDB, des API REST, et des principes d'architecture avancée comme CQRS, Event Sourcing (ES), et Domain-Driven Design (DDD), réponde aux besoins fonctionnels et techniques des utilisateurs tout en optimisant la performance et la scalabilité des systèmes. Responsabilités et tâches principales Analyse des besoins fonctionnels et techniques : Collaborer avec les parties prenantes pour recueillir les besoins métiers, et traduire ces besoins en spécifications techniques claires, en tenant compte de l'architecture des données et des flux d'informations (utilisation de CQRS et Event Sourcing pour les systèmes complexes). Conception et personnalisation de solutions techniques : Concevoir et personnaliser les solutions d'intégration en intégrant les principes de Domain-Driven Design (DDD), afin d’assurer une architecture modulaire et évolutive, adaptée aux besoins spécifiques du client. Gestion des bases de données : Implémenter des solutions de stockage et de gestion des données en utilisant PostgreSQL pour les données relationnelles et MongoDB pour les données non structurées, en garantissant l’intégrité des données et des performances optimales. Développement et gestion des API REST : Concevoir et implémenter des API REST pour assurer l'intégration fluide entre les différents systèmes, tout en garantissant la sécurité, la scalabilité, et la performance des échanges. Intégration et déploiement de l'architecture CQRS/ES : Mettre en place une architecture basée sur CQRS et Event Sourcing, en séparant les lectures des écritures pour améliorer la performance des systèmes et offrir une scalabilité efficace. Tests d’intégration et validation : Élaborer et exécuter des tests d'intégration en environnement de pré-production pour valider l’interopérabilité des différents composants logiciels et garantir la qualité des intégrations réalisées. Accompagnement de la mise en production et support technique : Assurer la mise en production des solutions intégrées en coordination avec les équipes techniques et fournir un support technique post-production pour résoudre rapidement les incidents et maintenir la stabilité du système. Formation et accompagnement des utilisateurs : Fournir des formations techniques sur l’utilisation des nouvelles solutions, y compris les spécificités des architectures CQRS/ES et des bases de données NoSQL, pour faciliter l'adoption par les utilisateurs finaux et les équipes techniques. Rédaction de documentation technique : Documenter les choix d'architecture, les configurations des bases de données, les flux d'API, ainsi que les processus de mise en production, pour assurer un suivi complet du projet et faciliter la maintenance future.
développeur .net/angular/azure/aws/mangodb

Développer et maintenir des applications, en traduisant les cas d'utilisation en solutions fonctionnelles. Concevoir, développer et livrer du code de haute qualité et évolutif, conformément aux meilleures pratiques en matière de codage, de sécurité et de tests. Collaborer étroitement avec les parties prenantes, les analystes et les autres équipes informatiques afin de garantir l'adéquation des solutions aux besoins des utilisateurs et aux objectifs du projet. Fournir des estimations de charge de travail, identifier les goulots d'étranglement et proposer des solutions d'amélioration continue. Tenir à jour la documentation technique en anglais et former les membres de l'équipe. Travailler avec une pile technologique moderne comprenant C#, .NET Core, Angular, SQL, MongoDB, Azure et les API REST. Contribuer activement à l'évolution de l'architecture système, Finops Suite jouant un rôle central dans la migration en cours de notre système de réservation (de Meteor vers Orchestrade). Compétences techniques requises : Maîtrise de C#, .NET Core, Angular et SQL. Expérience des bases de données NoSQL (MongoDB de préférence). Connaissance des plateformes cloud (Azure) et du développement d'API RESTful. Familiarité avec les pratiques de TDD (Test-Driven Development). Une expérience avec des technologies front-end modernes comme AG Grid est un plus. Compétences générales : Ouverture d’esprit et capacité d’adaptation à une architecture en constante évolution. Excellentes compétences en résolution de problèmes et capacité à travailler de manière autonome et en équipe. Capacité à gérer efficacement les changements de contexte et la charge de travail. Une connaissance fonctionnelle des produits classiques, du cycle de vie des transactions et des appels de marge est un plus. Ce que nous offrons : Un rôle central dans un projet à enjeux élevés au sein des domaines Finance et Back-Office Des opportunités de travailler avec des technologies de pointe et d’évoluer dans un environnement dynamique. Une culture collaborative où l’innovation et l’amélioration continue sont essentielles. Remarque importante : Nous savons que le candidat ne maîtrisera pas simultanément C#, Angular, Azure, AWS, MongoDB, SQL, les microservices, la finance, etc. Cependant, nous nous concentrerons principalement sur les compétences en C# (compétences avancées en C# requises), le raisonnement logique du candidat et sa capacité à travailler pour combler le fossé technologique.
DEVELOPPEUR API SENIOR

DEVELOPPEUR API SENIOR Lieu : Paris, 3 à 4 jours de TT par semaine | Durée : Longue | Disponibilité : ASAP Contexte et mission Dans le cadre du renforcement de nos équipes IT pour un client du secteur du luxe basé à Paris, nous recherchons un Développeur API Senior pour développer et optimiser des services d’intégration et de communication entre applications. Vous interviendrez sur des projets stratégiques et serez garant de la qualité et de la performance des API développées. Responsabilités • Concevoir, développer et maintenir des API RESTful et SOAP • Optimiser les performances et la sécurité des services • Intégrer des solutions API avec des systèmes tiers • Documenter les API et assurer leur conformité aux standards (OpenAPI, Swagger, etc.) • Travailler en collaboration avec les équipes DevOps et d’architecture • Assurer une veille technologique et proposer des améliorations Compétences requises • Maîtrise des langages de programmation : Java, Python, Node.js ou .NET • Expérience avec des frameworks d’API : Spring Boot, Express.js, Flask, etc. • Bonne connaissance des protocoles REST, SOAP et GraphQL • Expérience avec des outils de gestion des API (Postman, Swagger, Apigee, etc.) • Maîtrise des bases de données SQL et NoSQL • Compétences en sécurité des API (OAuth, JWT, certificats SSL) • Expérience avec les architectures microservices et cloud (AWS, Azure, GCP) Profil recherché • Expérience de 5 ans minimum en développement d'API • Capacité à travailler en mode agile (Scrum, Kanban) • Autonomie, rigueur et esprit d’équipe • Bonne capacité d’analyse et de résolution de problèmes
Développeur Fullstack - PHP .NET
Vous intégrerez un projet d'industrialisation d'une solution visant à extraire les clauses de contrats complexes. Les développements devront utiliser les standards suivants : ❖ Partie « Front End » ✓ Application de type « Single Page Application » (SPA) ✓ Technologies : PHP, .NET, React, Vue.js, Blazor Suez recommande fortement d’utilisation du .NET pour une intégration dans son SI ❖ Partie « Back End » ✓ Technologies : Libre ✓ Expérience souhaitée en Python (FAST API) ✓ Type de base de données : SQL (PostgreSQL, MySQL, AzureSQL), NoSQL
Développeur back RUBY
Au sein de la Direction Produits & Technologies, nous recherchons un Développeur Ruby (H/F) pour participer activement à la modernisation et à l’évolution des outils et applications bancaires. Vous serez intégré(e) à une équipe technique dynamique et évoluerez dans un environnement favorisant l’ouverture d’esprit et la polyvalence technologique. L’écosystème applicatif repose principalement sur Ruby, mais nous encourageons également l’adoption de nouvelles technologies en fonction des besoins des projets. Vos Principales Missions : Développement & conception : Analyse des besoins, conception et développement d’applications robustes en Ruby, rédaction de documentation technique. Architecture & évolution technologique : Définition des architectures, mise en place de microservices (Ruby on Rails, Spring Boot), intégration de nouvelles technologies. Qualité & optimisation : Tests unitaires, revues de code, application des principes TDD, SOLID, Clean Code, optimisation des performances. Collaboration Agile : Travail en équipe avec les Product Owners, UX/UI designers, DevOps, participation aux rituels Agiles. Maintenance & support : Correction d’anomalies, veille technologique et réglementaire, amélioration de la résilience des applications. Environnement technique Maîtrise de Ruby dans un environnement de production. Connaissances en architecture microservices et en API REST. Expérience sur des bases de données SQL (PostgreSQL, MySQL) et NoSQL (MongoDB, Redis). Familiarité avec les outils DevOps et CI/CD (Docker, Kubernetes, GitLab CI, Jenkins). Bonnes pratiques en tests unitaires et tests d’intégration. Connaissances des méthodologies agiles et des outils associés (Scrum, Kanban, Jira, Confluence).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Nosql
Data scientist
Le / La data scientist utilise les bases de données NoSQL pour stocker et analyser de grandes quantités de données non structurées, ce qui permet une exploration flexible et des analyses avancées.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresArchitecte de base de données
L'architecte de base de données conçoit des solutions NoSQL pour répondre aux besoins de stockage de données massives, en optimisant la structure et les performances des bases non relationnelles.
Explorez les offres d'emploi ou de mission freelance pour Architecte de base de données .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le / La développeur·euse data intègre des bases NoSQL dans les pipelines de traitement des données pour gérer des volumes élevés et des schémas de données flexibles.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresIngénieur·e R&D
L'ingénieur·e R&D explore et implémente des technologies NoSQL pour créer des solutions innovantes, particulièrement dans les systèmes distribués et les applications big data.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e R&D .
Découvrir les offres