Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
TechLead DevOps
Anglais : Courant Localisation : Issy Les Moulineux 2 jours de TT par semaine Au sein de l'équipe Infrastructure et Architecture, vous contribuerez à l'amélioration continue de notre infrastructure logicielle et de nos solutions d'hébergement pour les systèmes Core Group IT, en utilisant des technologies de pointe telles que Kubernetes, Kafka et des bases de données répliquées. Curieux d’apprendre de nouvelles technologies et doté de solides compétences en résolution de problèmes, vous collaborerez avec les équipes Agiles Infrastructure et SRE pour concevoir et implémenter les composants on-premises utilisés par les applications Geopost. Vous assurerez également le transfert de connaissances avec l’équipe SRE sur les systèmes développés. Les principales activités et responsabilités sont : - Participer aux cérémonies de l'équipe (Daily, Sprint Planning) ; - Concevoir et mettre en œuvre des composants d'infrastructure répondant aux besoins des applications ; - Participer aux revues de code ; - Documenter et maintenir les solutions techniques ; - Résoudre les problèmes système au fur et à mesure qu'ils surviennent ; - Mesurer la performance des systèmes mis à jour ou nouvellement installés. Exigences Techniques - Infrastructure : Kubernetes, Kafka, Redis, Apache Reverse Proxy, Ha Proxy,... ; - Continuous Delivery & Deployment: Git, Gitlab CI, Maven, Terraform, Ansible, Vault ; - CI/CD : Gitlab/Terraform/Vault ; - Solid Programming Language : Ansible/Python/Shell/Java ; - Database : PostgresQL, MariaDB, Cassandra, MongoDB, …
Offre d'emploi
Data Analyst H/F
En tant que Data Analyst , vous jouerez un rôle crucial dans la réalisation de projets d'analyse de données complexes. Il s’agira notamment de : Collaborer avec les clients pour comprendre leurs besoins en matière d'analyse de données et formuler des recommandations appropriées Concevoir et mettre en œuvre des pipelines d'analyse de données pour collecter, nettoyer et transformer des ensembles de données massifs provenant de diverses sources Effectuer des analyses statistiques avancées pour identifier des tendances, des modèles et des insights significatifs Développer des tableaux de bord interactifs et des rapports personnalisés pour présenter les résultats de manière claire et concise aux parties prenantes internes et externes Participer à l'élaboration et à l'amélioration des processus et des méthodologies d'analyse de données au sein de l'agence
Mission freelance
Administrateur BDD H/F
Nous recherchons un "Administrateur BDD, DB2, z/OS H/F pour le compte de notre client spécialisé dans le domaine des assurances, près de Montpellier (34). Il s'agit d'une mission de 12 mois avec évolution possible en CDI chez le client final, avec 2-3 jours de télétravail possible par semaine. Missions: Assister les équipes Exploitation / DEV dans l’analyse des problèmes, aide à la résolution Suivre et contrôler les performances des applications. Suivi, développement et maintenance de chaînes techniques. A l’écoute des évolutions de DB2 Garant du respect des normes et standards de production Sollicité sur la partie projet.
Mission freelance
Implémentation de Splunk Observability
Missions Principales : Conduire l’implémentation de Splunk Observability : Assurer la mise en place et l’optimisation de Splunk Observability, en respectant les meilleures pratiques de l'industrie. Proposer des recommandations et des ajustements stratégiques pour maximiser les performances et l'efficacité de l'outil. Force de proposition : Fournir des conseils et être force de proposition pour identifier les ajustements et les configurations les plus adaptés aux besoins du client. Contribuer activement aux discussions stratégiques sur les améliorations potentielles de l’implémentation Splunk Observability. Mise en œuvre opérationnelle : Prendre en charge certaines configurations et déploiements directement dans Splunk Observability. Participer à l'intégration des solutions proposées, notamment en ce qui concerne le monitoring et les agents OTEL (OpenTelemetry). Support CI/CD : Aider à la mise en place de pratiques de CI/CD pour optimiser le déploiement des agents OTEL. Mettre en œuvre les meilleures pratiques pour une intégration continue et un déploiement efficace, garantissant une surveillance en temps réel et fiable. Compétences Requises : Expérience en Implémentation Splunk Observability : une expertise avérée dans la mise en œuvre de Splunk Observability est requise, avec une bonne connaissance des best practices. Certification Splunk Observability : indispensable si le candidat ne dispose pas d’une expérience en Splunk Observability. Maîtrise de Splunk Core : solide expérience sur la solution Splunk classique pour assurer une intégration fluide. CI/CD & OpenTelemetry (OTEL) : des compétences en CI/CD, particulièrement en déploiement des agents OTEL, seront un atout majeur pour ce poste. Force de proposition et autonomie : capacité à identifier des solutions et à les implémenter, avec un sens aigu de l’initiative et une approche proactive.
Mission freelance
Senior Data Engineer / DataOps h/f
Notre client, leader mondiale dans le secteur de l'industrie pharmaceutique, recherche un consultant en freelance dans le cadre d'une mission de longue durée. L' équipe IA, Digital & Data Factory fournit des solutions innovantes pour les soins aux patients, et établit une culture axée sur les données pour responsabiliser nos équipes et soutenir les décisions stratégiques. Dans ce contexte, le Data Engineer Senior / professionnel DataOps est responsable de la conception, de la mise en œuvre et de la maintenance d'une infrastructure et de pipelines de données robustes tout en assurant des pratiques DevOps optimales. Il/Elle applique son expertise en ingénierie à l'ensemble de la pile de données à des fins multiples, telles que : 1. Concevoir et maintenir des pipelines de données évolutifs, y compris le développement et l'optimisation des flux de travail ETL à l'aide d'Airflow pour le traitement et l'analyse automatisés des données 2. Mettre en œuvre des systèmes de contrôle de la qualité des données et de surveillance de diverses sources de données 3. Gestion de l'infrastructure en tant que code (IaC) à l'aide de Terraform et orchestration des pipelines CI/CD via CircleCI 4. Création et maintenance de lacs de données à l'aide des services AWS (S3, Glue...) pour soutenir les initiatives d'analyse et de ML 5. Assurer un déploiement sécurisé et conforme des solutions de données dans les environnements cloud 6. Collaborer avec des équipes transverses pour optimiser l'accessibilité des données et intégrer diverses sources de données à l'aide de bases de données SQL/NoSQL
Mission freelance
Consultant Data / BI
Nous recherchons pour notre client, un consultant Data pour accompagner les équipes métier. Missions : Recueil des besoins opérationnels auprès des directions Produits (CP, acheteurs, chefs de groupes, directeurs), de la direction Appro Rédaction du besoin Formalisation du besoin en user story Définition des indicateurs : règles de calcul détaillées, règles d’agrégation Identification / qualification des sources de données nécessaires pour enrichir le modèle existant (coordination équipes IT + Data Factory) Suivi de la mise en œuvre par Data Factory (daily notamment) Recette : plan de recette, réalisation, accompagnement des référents métiers pour recette métier finale Support des équipes métiers à la mise en œuvre et au-delà Garant de la cohérence (ou des justifications d’écarts) de ces indicateurs avec l’existant (patrimoine Microstrat, Qlick View notamment) et avec les autres projets fortement consommateurs de données Rédaction de livrables Plan de recette et réalisation de la recette Support aux utilisateurs
Offre d'emploi
Ingénieur BIGDATA / KAFKA/Flink
Spécialisé dans le secteur bancaire, l'entreprise recherche activement un ingénieur bigdata KAFKA/ MongoDB ou Flink pour renforcer ses effectifs. En tant qu' Ingénieur Big Data , vous serez responsable de la conception, du développement et de la gestion des solutions basées sur Kafka et MongoDB pour les plateformes Big Data de BNP Paribas. Vous interviendrez sur des projets stratégiques nécessitant une gestion efficace des données à grande échelle, tout en garantissant la fiabilité et la performance des systèmes de traitement des flux de données. Concevoir et déployer des architectures distribuées à haute performance pour la gestion de flux de données en temps réel à l’aide de Kafka . Développer et maintenir des bases de données NoSQL, principalement MongoDB , pour stocker et interroger des volumes massifs de données. Optimiser les environnements Kafka pour assurer la scalabilité et la résilience des systèmes. Participer à l'intégration de solutions Big Data dans les pipelines de traitement de données existants et nouveaux. Implémenter et optimiser les flux de données en temps réel avec Kafka Streams , en garantissant la robustesse des pipelines. Superviser les systèmes en place et analyser les performances des flux de données pour assurer leur continuité et leur efficacité. Mettre en place des outils de monitoring et de gestion des erreurs pour garantir une gestion proactive des incidents. Gérer les environnements MongoDB , y compris l’installation, la configuration, les sauvegardes, et la restauration. Optimiser les performances des bases de données en gérant l'indexation, la fragmentation et les partitions pour garantir un accès rapide aux données. Assurer la sécurité des données dans MongoDB en implémentant des contrôles d’accès, des audits et des politiques de chiffrement des données. Travailler en collaboration avec les équipes infrastructure, développement et métier pour comprendre les besoins et proposer des solutions techniques adaptées. Fournir un support technique de niveau 2/3 pour les environnements Kafka et MongoDB, incluant la résolution des incidents critiques. Participer à la rédaction de la documentation technique et au transfert de compétences au sein des équipes.
Mission freelance
Data ESG - Asset Management - Analyst
Notre client, un Asset Manager, recherche un Business Analyst (H/F) dans le cadre d'une longue mission. Le besoin se situe au sein de l’équipe IT DATA CORE, rattachée à la DSI qui est composée d’environ 10 personnes : 5 développeurs, 4 business analyst et 1 responsable d’équipe L’objectif de la mission est d’intervenir comme business analyste sur tous les sujets liés à la donnée, que ce soit la partie support (flux avec nos partenaires) ou la partie projet (sujets : outil de contrôle de la donnée, référentiel produit, règlementation, moteur interne ESG et labélisation, calcul d’indices ESG, gestion des flux abus de marché, évolutions diverses sur le SI). Au-delà des compétences fonctionnelles liées à la data dans le domaine de l’asset management, des compétences techniques sont requises (niveau confirmé) pour faire des requêtes en base de données ou des analyses poussées dans les applications du SI. Missions : - Intervenir sur les sujets de business analysis : analyse du besoin, rédaction de spécifications fonctionnelles / technique, tests… - Être force de proposition sur les évolutions concernant les applications gérées dans l’équipe - Gérer les sujets d’évolution et de support en mode agile avec l’équipe de développement - Suivre la réalisation de chaque ticket jusqu’à la mise en production - Mise à jour de la documentation interne concernant les évolutions (dictionnaire de données, mapping…) - Analyses d’impacts et bonnes intégrations dans le SI
Offre d'emploi
SUPPORT Conservation de titres
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le support s'occupe du traitement des demandes clients (entreprises, investisseurs, personnes morales) à travers les différents canaux de communication (outils de ticketing, mails, téléphone). Le processus de gestion des demandes inclut la prise en charge, le traitement et la réponse au client. Les demandes sont de nature variée : accès aux services, habilitations, paramétrages, assistance utilisateur, formation utilisateur. Par ailleurs, elle intervient dans le cadre des incidents de production par une détection proactive et en déclenchant des communications clients. L'équipe support intervient sur toutes les applications de la tribu: portail d'accès aux applications clientes, applications métiers. L'équipe est constituée de 10 personnes intervenant à tous les niveaux (support L1/L2) en Français et en Anglais. L'environnement est anglophone avec des clients internationaux et des équipes internes en France et en Inde. Dans le cadre de la transformation de du département, l'équipe support a pour vocation à s'intégrer au sein des Features Teams. Dans ce cadre la prestation consiste à contribuer à/au(x) : 1. Support L1/L2 sur toutes les applications de la tribu CLI 2. L'assistance des applications à nos clients externes via des DEMO 3. Support en cas d'incident 4. Suivi des anomalies : prise en charge, analyse, transmission aux Features Teams 5. Sanity check post-opérations
Mission freelance
H/F Architecte DATA.
Contexte de la mission : Cette mission intervient pour le compte d'un client du secteur de l'automobile, basé en région lyonnaise. Nous sommes à la recherche d'une prestataire Architecte Data, dont la mission sera de veiller à ce que les produits fournis par l’équipe soient alignés sur l'architecture cible mondiale du groupe. Le prestataire, architecte de données Azure, doit avoir une bonne compréhension globale des services disponibles dans la pile Azure Analytics. Il assumera le rôle de chef de file technique et discutera avec les parties prenantes de l'entreprise et de l'architecture d'entreprise. La mission implique une collaboration étroite avec le DPO, l'analyste de données, l'ingénieur de données et le scientifique de données de l'équipe stable, mais aussi avec la communauté des architectes. Tâches à réaliser : Assurer le leadership technique, participer aux efforts de développement et représenter l'ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes pour superviser le processus de gestion des données et fournir des conseils et des orientations aux équipes de développement. Être responsable de la conception et de la documentation de la solution Prendre en charge la définition et la possession de l’architecture de données évolutive de bout en bout, tout en prenant en compte l'architecture d'entreprise et les normes du secteur. Développer, documenter et maintenir des modèles de données logiques et physiques. Définir et soutenir l'architecture de bout en bout pour toutes les livraisons de l'équipe stable New Services Configurer l'architecture et la documentation afin de garantir que l'architecture de livraison soit conforme à l'architecture d'entreprise du groupe et à la stratégie de données du groupe Soutenir l'équipe stable sur les initiatives New Services : Tableau de bord des émissions de CO2 Surveillance des camions E-Mob Tableau de bord des services pour piloter les activités de service commercial Faire partie de l'équipe de maintenance pour assurer la continuité des processus commerciaux
Mission freelance
Dataiku
Nous recherchons pour un de nos clients basés en IDF, un consultant DATAIKU pour une mission freelance (longue visibilité) La solution Data RH vise à collecter, structurer et exposer le patrimoine Data RH de l’ensemble du périmètre de collaborateurs : groupe mère et services financiers, sur un périmètre fonctionnel évolutif. Cette solution Data a été concrétisée par un premier chantier qui consiste à implémenter des rapports en utilisant Dataiku mode low code No code. Il s'agit d'importer manuellement les données issues de fichiers Excel et de traduire les traitements Excel en flux dataiku pour produire les reporting. L'équipe en charge des opérations monte en compétences et ne dispose pas de suffisamment de bande passante pour implémenter les rapports dans les délais souhaités. Elle souhaite donc se faire accompagner d'un intervenant en mesure de prendre en charge certains rapports . Mission : - Automatiser dans DATAIKU un reporting mensuel de projection des effectifs et frais de personnel. Ce reporting sera le résultat de consolidations, traitements et contrôles de référentiels, de données prévisionnelles de recrutement et de données financières. (i.e. Transformer un reporting Excel/VBA en reporting réalisé à partir de Dataiku) - Selon l’avancement, automatiser d’autres reporting RH au sein de DATAIKU, issus du modèle de données en construction. TACHES : Implémentation et automatisation du flux DATAIKU Assurer les traitements de contrôles et consolidation des données (référentiels, données collaborateurs) Rédiger la documentation projet et guide d'utilisation Compétences techniques : Excel/VBA Code Dataiku Nocode / Lowcode
Offre d'emploi
Expert Fircosoft H/F
L'expert Fircosoft aura en charge : Pilotage des travaux placés sous sa responsabilité jusqu’à la mise en production Expertise sur la Lutte contre le Terrorisme (Expertise Technique Fircosoft) Analyse des expressions de besoin Elaboration des spécifications détaillées (ateliers de travail avec l’intégrateur, l’éditeur et les contributeurs internes). Réception MOE des travaux placés sous sa responsabilité Contribution à la mise en production en lien avec les équipes de production Maintien de l’état de l’art dans son domaine d’expertise, veille technologique (Fircosoft). Environnement : Fircosoft FFF, FSK, FOL, FMF, FMM, FML Fircosoft (Feed Batch, Multiplexer, Requester, DBClient) Drivers Easysoft AIX 7.1 / ksh WAS 8.5 VM IAAS x86 VM RHEL 7.x MQSeries Oracle 12C (avec l'option RAC ou en Dataguard) Transfert CFT VS BIP-IP F5 Java/JEE
Mission freelance
DBA ORACLE 9
Nous recherchons pour un de nos clients basés en IDF, un DBA Oracle pour une mission freelance (longue visibilité) Nous cherchons un profile expert de production technologie Oracle avec de fortes connaissances sur la haute disponibilité RAC,ASM , EXACC et physical dataguard sur les os Linux, Solaris, AIX , et de fortes compétences de tunnig/performances sont également nécessaires. Nous sommes sur un poste d'Adminisdtrateur de production Oracle, le profil doit etre autonome et opérationnel La mission est basée en IDF Longue visibilité Démarrage ASAP
Mission freelance
Consultant PowerBI pour Projet Supplychain
PROPULSE IT recherche un Consultant Power BI pour développer et déployer un dashboard PowerBI accompagnant le renforcement de la gouvernance d'optimisation des stocks (domaine de la supplyChain et plus particulièrement l'optimisation des valeurs d'exploitation des stocks). Un POC pour l'identification des stocks a été réalisé et nécessite d'être fiabilisé et amélioré. La prestation couvre les activités suivantes : •Traduction des besoins en termes techniques •Développement itératif de l'outil PowerBi (premier MVP sous 3 semaine puis enrichi) •Documentation opérationnelle et technique du livrable •Accompagnement du déploiement donc environnements
Offre d'emploi
Développeur Backend Javascript/Node.js
Dans le cadre d’une mission en régie pour l’un de nos clients situé sur Bordeaux, nous recherchons un Développeur Javascript/Node.js Dans une équipe de 10 personnes, le développeur aura pour mission de développer et de maintenir une application core business - Etudier, analyser et conceptions de nouveaux modules. - Développer de nouvelles fonctionnalités - Participer à la mise en production (Tests et recette). - Partage des bonnes pratiques de développement - Création de nouvelles API REST - Faire évoluer le modèle de données - Création/modifications de pipelines d'intégration
Offre d'emploi
Data Analyst Senior
Contexte : • En plein transformation digitale, notre client cherche à évoluer vers une organisation Data Centric. • La mise en œuvre d’une Data Platform contribue à cette démarche en permettant d’avoir une vision globale du patrimoine de données. • Le consultant jouera un rôle essentiel, il doit analyser le besoin métier au sein des différents projets, modéliser les Objets Métier d’entreprise et spécifier techniquement la structure et les flux permettant d’implémenter ces Objets au sein de la Data Platform. Activités principales : • Recueillir, analyser et synthétiser les besoins métiers en termes de données via l’animation d’ateliers de travail • Analyse technico-fonctionnelle du besoin métier afin d’identifier les règles d’extractions, de consolidation et d’exposition des données • Modéliser les Objets d’entreprise en respectant les standards, en tenant compte du modèle actuel et en le challengeant • Travailler collaborativement avec les différents intervenants (Product Owner, experts data, experts métier, développeurs, architectes, etc.) • Être garant de la modélisation de la Data Platform et s’assurer du respect des standards par l’ensemble des acteurs • Participer à l’acculturation de la modélisation des données d’entreprise au sein du Groupe Compétences techniques : • Forte appétence data et vision globale (flux de données, architecture des briques applicatives, urbanisation de données, NoSQL etc.) • Expertise en SGBD (requêtes SQL / Modèle relationnel de données, etc.) • Compréhension des enjeux métiers et des problématiques associées • Bonne connaissance des méthodes agiles (Safe, Scrum, Backlog …) • Connaissance du cloud et notamment Azure serait un plus • Une expérience dans les outils de reporting (Power BI, BO …) • Model conceptuel de données • UML
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.