Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
developpeur Big Data
Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe 4 à 5 années d'expérience sont attendues sur le rôle au minimum. Expertise Spark, quelque soit le langage de prédilection (Java, Scala, Python). Défini/challenge les solutions et architectures techniques permettant le traitement de volumes importants de pipelines de données suffisamment sécurisés et lisibles Intervient auprès des architectes et urbanistes pour la préparation des dossiers techniques Anime les équipes Data sur toutes les étapes du traitement de la donnée Assure la bonne prise en compte des recommandations du CTO Nex’Us Maîtrise des solutions de stockage de données Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données Maîtrise des outils de gestion de code et de déploiement projet Maitrise des fondamentaux de l’agilité Maîtrise des solutions de stockage de données Maîtrise avancée des langages structurés Maîtrise avancée des technologies du Big Data permettant le traitement et la manipulation de données Expertise Spark Oracle
Mission freelance
Architecte BigData/Hadoop
Contexte : Vous intégrerez le service DBAs & Socles de la direction technique pour une mission de pilotage et de mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop afin de répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Description : Évolution des architectures techniques : - Mise en place des principes directeurs sur l’utilisation du cluster Cloudera; - Vérification de la bonne application des normes et des standards; - Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster; - Étude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop; - Prise en compte de l’écosystème DSI : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; Expertise Hadoop de niveau 3 : - Configuration du cluster Cloudera en fonction des besoins identifiés; - Optimisation des traitements ; Support : - Accompagnement des équipes de développement; - Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances;
Offre d'emploi
INGENIEUR OPS RUN; CI/CD AWS/Azure; ITSM; Confluence
Assurer le lien avec entre la prod et les DevOps des projets et CDP Gérer toutes les phases de la mise en production des applications : Utiliser et Maintenir le Delivry de l’infrastructure cloud (services IaaS (Infrastructure As A Service), PaaS, ...) des projets via Terraform Configurer les composants applicatifs / services dans les environnements de production Utiliser les outils de livraisons continues du groupe (usine logicielle PIC/PDC) pour le déploiement des feautures en production Garantir le bon fonctionnement des applications en production et leurs évolutions. Gérer la disponibilité, de la sécurité et de l’évolution du socle avec selon les préconisations du schéma directeur et des architectes Mettre en œuvre les procédures d’exploitation (sauvegarde, automatisations, etc.) Etablir les documents techniques (contribution au DAT (Dossier d'Architecture Technique) / DEX) Superviser les applications avec l’outil de monitoring Groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents, mise en place de nouvelles sondes au besoin) ;
Offre d'emploi
Développeur Python React AWS
L'équipe supervise la maintenance et l'évolution des nombreux systèmes de trading qui permettent de participer à toutes sortes d'activités de marché. Les applications logicielles permettent d'effectuer au jour le jour les opérations nécessaires à la bonne gestion de ses activités. L'objectif du service est d'intégrer une personne supplémentaire à l'équipe chargée de gérer le backlog des applications en rédigeant, en suivant et en testant les User Story et en définissant les priorités. Les applications sont toutes développées en interne et écrites en Python en utilisant Redis, Celery, Flask et FlaskAdmin, SQL-Alchemy, PostgreSQL, Pandas, Timescale DB, React et elles sont hébergées sur AWS.
Offre d'emploi
Consultant Data Gouvernance Collibra
Nous un recherchons un Data Manager - Consultant Data Gouvernance étant spécialisé en Gouvernance de données. Maîtrisant la Data Management et la Data Visualisation. Dans le cadre de la gestion et de la mise en gouvernance des données d'une Plateforme Data. Accompagnement des Uses Cases Data pour la définition de leur architecture data au sein de la plateforme dans le respect du paradigme du Data Mesh ; Identification, modélisation et documentation des Data-as-a-products exposés par chaque domaine de données ; Animation et contribution aux ateliers avec les correspondants RGPD (relais DPO) ainsi que les MOA pour l’identification et la classification des données sensibles et des données à caractère personnel ; Catalogage et taggage des données de couche Bronze dans le gestionnaire des métadonnées ; Accompagnement pour la prise en main de l’outil COLLATE (Open Metadata) par les ingénieurs de données afin d’effectuer le taggage des métadonnées de leurs domaines data respectifs conformément aux règles data management ; Participation aux cadrages des fonctionnalités techniques relatives au Data Management : gestion des schémas de données, gestion des contrats d’interface, minimisation des données, framework d’exposition des données … Conception et développement d’une newsletter Data Management sous forme d’un tableau de bord Power BI pour suivre l’évolution des principaux KPIs du patrimoine de données de la plateforme. Environnement Technique : Data Engineering : Databricks Data Storage & DB : AWS S3 Data Visualisation : Microsoft Power BI Data Management : OPEN METADATA, COLLIBRA, Data Galaxy / Data Catalog
Offre d'emploi
Architecte technique cloud H/F
[Contexte] L'entité a pour mission de définir l’architecture des services délivrés et opérés en lien avec les Opérations ainsi que la définition et le pilotage de la roadmap de transformation et initiatives transverses. [La prestation consiste à contribuer à/au(x)] La définition des architectures et des Services associés - L'assistance aux entités en tant qu'architecte Technique Infrastructure - Support aux architectures en respectant les principes de sécurité mis en place - La documentation des architectures, principes et bonnes pratiques - Déploiement des architectures [Les livrables attendus sont] - Etudes d'Architectures - Roadmap des Service sa - Principes de sécurité - Documentation des architectures (DAT), - Document de bonnes pratique
Offre d'emploi
Technical Lead
🚀 Nous recrutons un(e) Lead Tech ! 🚀 Pour l'un de nos client qui évolue dans un environnement en pleine expansion, vous serez au cœur de la conception, optimisation, et développement d'une plateforme numérique innovante Dans le cadre de cette croissance, nous recherchons un(e) Lead Tech pour structurer et renforcer leur équipe technique. 🎯 Votre mission : Piloter l'architecture technique et l'infrastructure de la plateforme. Gérer l’infrastructure AWS et assurer les bonnes pratiques DevOps (CI/CD). Travailler sur l'optimisation et la performance de la plateforme ( PHP Symfony, Angular ). Encadrer une équipe de développeurs (back-end, front-end, full-stack). Accompagner l'équipe dans sa montée en compétences. Proposer des évolutions techniques et participer au développement de nouvelles fonctionnalités. Si vous souhaitez relever ce challenge, n’hésitez pas à postuler ! 💼 Contrat : CDI Télé travail : 2 jours par semaine Localisation : Région Bordelaise
Offre d'emploi
Développeur - Big Data | Spark (H/F)
📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.
Offre d'emploi
Product Owner Bi
Rattaché au Responsable du pôle BI, vous serez en charge du projet de refonte des reporting BI du pôle. Vous serez l’interface entre les utilisateurs des différents métiers (Commercial, Marketing, Contrôle de Gestion), le Data Office et la DSI. Vous interviendrez, sur la nouvelle plateforme, à la fois sur le support des applications existantes et sur le développement de nouvelles applications. Dans un contexte complexe et en construction, avec beaucoup d’interlocuteurs, vous devrez faire preuve d’un très bon relationnel . Vos missions sont : Ø Gérer le Backlog du chantier : l’initialise, le suit et l’améliore Ø Identifier les risques et propose des solutions pour les mitiger Ø Recueillir les besoins et rédige les User Stories avec les utilisateurs : maquettes, règles de gestion Ø S’assurer de la production de la documentation utile Ø Identifier et cartographie les sources de données nécessaires aux rapports Ø Réaliser les études de qualité de données et les dictionnaires de donnée BI Ø Etre le garant de la traduction des données en indicateurs et axes d’analyse métiers : mapping des données et règles de gestion Ø Superviser la performance du chantier au travers des KPIs fonctionnels et techniques Ø Assurer la cohérence fonctionnelle et technique du chantier Ø Rédiger les manuels utilisateurs Ø Etre disponible pour les utilisateurs, le Data Office et les data engineers Ø Etre responsable de la communication : o Participer à la définition de la stratégie de communication vers les utilisateurs o Organiser une boucle de feedback utilisateur en amont des projets o Communiquer sur le Produit et mettre en avant les équipes
Offre d'emploi
Consultant Data Gouvernance - Chefferie de Projet
Au sein de notre Data Fabric, Nous recherchons un Consultant Data Gouvernance orienté Chefferie de projet. Un profil Smart ayant un vernis technique et une réelle expertise en Gouvernance de données (3 ans d'XP minimum). Environnement : Data Catalog / Data Galaxy / Collibra / Le poste est en rythme Hybride. Des déplacements en Allemagne sont à prévoir (prise en charge par l'entreprise) Contexte : Gestion et mise en gouvernance des données d'une plateforme Data Définition,mise en œuvre et gestion du Cadre de Gouvernance des données Gestion & Chefferie de projet des sujets de Gouvernance Accompagnement des Uses Cases Data pour la définition d'architecture (Data Mesh) Identification, modélisation et documentation des Data-as-a-products Animation et contribution des données Catalogage et taggage des donnée Accompagnement pour la prise en main des différents outils de Data Gouvernance par l'ensemble des équipes Participation aux cadrages des fonctionnalités techniques relatives au Data Gouvernance & Management Conception de solutions de Gouvernance Formalisation d’une méthodologie de catalogage des données Construction d’un modèle de métadonnées (métamodèle) sur-mesure Définition des indicateurs de suivi de l’implémentation du Cadre de Gouvernance des données Développement d’un tableau de bord de pilotage Elaboration d’un plan de communication sur le Cadre de Gouvernance des données et proposition de supports de communication adaptés pour chacune des cibles retenues (métiers, IT et Data).
Mission freelance
Développeur backend NodeJS PROFIL START UP
Je recherche pour une startup un profil confirmé/senior backend NodeJS. Toutes vos missions : ·Assurer toutes les étapes du développement du produit (conception, développement, test/qualité, déploiement) ·Participer à l’évolution de notre stack technique (architecture, librairies, tests, performance, monitoring, etc.) ·Travailler en collaboration avec les autres membres de l’équipe technique, ainsi que l’équipe produit (méthodes agiles) ·Assurer une veille technologique adaptée aux besoins de l’entreprise
Mission freelance
Data Engineer (Python/AWS)
Il est garant de l’accès qualitatif aux sources de données. Il s’assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …) QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données
Offre d'emploi
Data Engineer Python/Spark
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.
Mission freelance
Développeur Node (React ou Angular)
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, mongo, postgre, kafka, bucket S3
Mission freelance
Inégrateur d'exploitation (H/F)
Dans le cadre d'un besoin exprimé par mon client dans le domaine des mutuelles basé à Nancy, vous allez rejoindre une équipe d'ingénieurs au sein d'un domaine, vos missions principales au sein de cette équipe seront : - Gestion des incidents de niveau 2 : Exploiter les chaînes applicatives au quotidien dont vous aurez la charge Analyser et résoudre des incidents batch, de monitoring, applicatif - Gestion des mises en production : S’assurer que les nouvelles versions sont déployées sans encombre en environnement Hors Prod et Prod Être garant du respect des processus - Automatisation des procédures : mettre en place des flows d'automatisation sur les actions récurrentes identifiées. - Amélioration continue : Êtes-vous prêt à repousser les limites du possible ? Bien, parce que nous cherchons à toujours nous améliorer - Astreintes : Selon le périmètre et la montée en compétence, des astreintes pourront être demandées. Vous allez évoluer dans un environnement technique où les compétences et les connaissances suivantes seront appréciées. Précisions, nous ne parlons pas de compétences d’administration spécifiques. - OS : Linux, AIX, Windows - Language : Shell, SQL, Ansible - Outils de CI/CD : Cloudbees, Gitlab - Ordonnanceur de production - Base de données : Oracle, PostgreSQL, SQL Server, MariaDB en majorité. - Autres compétences : Drupal, Wordpress, Openshift, AWS Travail en équipe : Indispensable. Une première expérience dans l'installation et l'exploitation d'applications serait fortement appréciée.
Offre d'emploi
Développeur Fullstack AWS
Nous cherchons une expertise en développement Full Stack pour apporter les évolutions demandées par le métier pour notre application. Le développement initial a été réalisé par une entité qui a créé un POC. Notre objectif est de passer en mode production, de monter une équipe et de poursuivre ce qui a été initié. Nous avons plusieurs objectifs pour ce projet : Comprendre et répondre aux enjeux métiers Travailler en étroite collaboration avec notre ingénieur technique AWS Utiliser efficacement Jira et Confluence pour la gestion de projet Livrer une version du projet d'ici mi-mai 2025 Compétences Techniques : Front-end : ANGULAR (Framework Javascript), NgRx Back-end : Java 17 Spring Boot, PostgreSQL DevSecOps et CI/CD : Jenkins, GitLab CI, Gitflow Cloud : AWS Outillage de gestion de projet : JIRA, Confluence, Teams, SharePoint Compétences Humaines : Goût pour le travail en équipe Forte autonomie Sens de la communication Rigueur Force de propositions Expériences Professionnelles : +7 ans d'experience professionnelle Collaboration avec plusieurs équipes (DEV, métier, exploitant) en agilité Télétravail : 2 jours par semaine.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.