Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
DevOps Cloud Network (AWS ou GCP, Terraform et Python)
L'équipe Core Network du client a pour mission de combiner le network avec les pratiques DevOps dans le but de rationaliser les opérations, améliorer l'automatisation, développer la collaboration et délivrer des services réseaux toujours plus fiables et scalables. Au sein de cette équipe, vous aurez pour mission de contribuer à la livraison de fonctionnalités techniques sur les composants réseaux. Voici quelques exemples de tâches portées par ce poste : - Contribuer techniquement aux engagements de l’équipe dans la livraison de fonctionnalités. (Activités de Build pilotées au travers des rituels Scrum) - Participer régulièrement aux activités en maintien en condition opérationnelle de nos composants réseaux - Automatiser par le développement nos solutions d'infrastructure réseau. - Participer au Run sur les modules, scripts, automates developpés par l'équipe - Participer aux différents projets d'innovations et d'améliorations du réseau dans l';équipe. - Proposer et mettre en œuvre des améliorations et des solutions innovantes (Build & Run) Mission localisé à Paris, Lille ou Lyon. Domaine de responsabilité / Composants techniques sur lequel vous interviendrez : AWS & GCP Cloud VPC Management - VPC, Endpoint, NCC, TransitGateway, SharedVPC, PSC, PrivateLink Cloud segmentation - VPC Inspection, Security groups, PrivateLink, VPCEndpoints Cloud Egress Filtering - Fortinet, Squid Cloud Transit - Routeurs Cisco, AWS DirectConnect, GCP partners Interconnect, Cloud routers) IP Management - IPAM Netbox, Infoblox, RFC1918 Backbone réseau - Bandwith On-Demand, BGP, OSPF, Juniper External partners connectivity - VPN IPSEC, SSL, ZTNA Private DNS - Route53, CloudDNS, Infoblox Processus : 1 entretien Go - No Go
Mission freelance
Data Engineer Spark/Scala F/H
Nous recherchons un(e) Data Engineer spécialisé(e) en Spark et Scala pour rejoindre notre équipe Data. Vous contribuerez à la conception, au développement, et à l’optimisation des pipelines de données à grande échelle, ainsi qu’à l’implémentation des meilleures pratiques de gestion et de traitement des données. Concevoir, développer et maintenir des pipelines de données scalables et robustes en utilisant Spark et Scala. Intégrer et transformer des données provenant de différentes sources (bases de données, fichiers, APIs, etc.). Assurer la qualité, la performance et la sécurité des flux de données. Participer à l’optimisation des performances des traitements Big Data. Collaborer avec les équipes Data Science, BI et Développement pour répondre aux besoins des projets. Implémenter les meilleures pratiques en matière de gestion des données et d’architecture. Surveiller et résoudre les incidents liés aux flux de données en production. Compétences techniques : Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée). Solides compétences en conception et optimisation de flux ETL. Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL. Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP). Connaissance des écosystèmes Hadoop et des frameworks Big Data.
Mission freelance
AMOA Data - Référentiels Tiers - Secteur Banque
Nous recherchons un consultant AMOA Data pour accompagner l’un de nos clients, une banque de financement basée à Paris, dans le cadre d'un projet de transformation des processus de gestion des données. La mission porte sur la mise en œuvre d'un catalogue de données et l’amélioration de la qualité des données des référentiels tiers dans les domaines Finance et Risques. Rôles et responsabilités : - Représenter le programme dans les instances DATA et assurer une interface fluide avec les parties prenantes. - Participer au projet d’outillage du dictionnaire de données : Migrer le dictionnaire de données Finance et Risques de son format actuel (Excel) vers l’outil cible (Data Galaxy). Créer et implémenter un dictionnaire de données pour d'autres directions actuellement non documentées. - Finaliser le processus de mise à jour et validation du dictionnaire pour le domaine Finance et Risques (incluant le RACI et le mode opératoire) et soutenir la mise en œuvre opérationnelle. - Qualité des données : Diagnostiquer et résoudre les points bloquants existants, gérer la mise en qualité des données (cadrage, identification des données critiques, définition des règles cibles), et former les parties prenantes pour garantir une adhésion durable aux bonnes pratiques. Compétences requises : - Expérience en AMOA dans le secteur bancaire, avec une spécialisation en gestion de données et référentiels tiers. - Maîtrise des processus de migration et d'implémentation de dictionnaires de données, idéalement avec Data Galaxy. - Capacité à gérer des projets de qualité de données : analyse, remédiation, et conduite du changement. - Excellente capacité de communication et compétences en formation pour fédérer et accompagner les équipes. Détails : Lieu : Paris Date de démarrage : Mi-novembre 2024 Durée : 2 ans (1 an renouvelable) Télétravail : 2 jours par semaine Engagement : Temps plein Type de contrat : Freelance
Offre d'emploi
DevOps (h/f)
Nous recherchons un Ingénieur DevOps passionné(e) par l’automatisation et les technologies cloud pour rejoindre notre équipe dynamique. Vous travaillerez sur des projets innovants, optimiserez les pipelines CI/CD, et contribuerez à la stabilité et à la scalabilité de nos environnements. Développer, déployer et maintenir des pipelines CI/CD pour assurer un déploiement continu. Collaborer avec les équipes de développement pour intégrer les outils DevOps dans le cycle de vie des applications. Gérer l’infrastructure cloud (AWS, Azure, GCP) et en assurer l’optimisation. Implémenter des outils de monitoring et de logs pour garantir la stabilité des services. Automatiser les processus pour réduire les interventions manuelles. Participer à l’élaboration des bonnes pratiques de sécurité et de conformité.
Offre d'emploi
Data Engineer
Dans le cadre de son plan stratégique, une entreprise internationale poursuit son développement en exploitant la donnée et les APIs pour apporter davantage de valeur à ses clients et partenaires, notamment sur le marché du crédit à la consommation. Pour relever ces défis, l'équipe IT renforce ses compétences en mobilisant des experts capables d’intervenir sur des domaines variés : Datawarehouse, Datalab, Sécurité Financière, Automobile, Risques, etc. L’objectif est de structurer et faire évoluer les solutions techniques tout en accompagnant les entités locales dans leurs projets. MISSIONS PRINCIPALES : Participation à l’industrialisation du socle technologique Data & API : - Mise en œuvre et évolution des capacités techniques ; - Création de composants génériques pour faciliter le développement ; - Amélioration et migration vers de nouveaux socles (Snowflake, AWS) ; - Support aux équipes locales (IT) en phase de cadrage et de build. Expertise technique : - Analyse des besoins métiers et proposition de solutions adaptées ; - Veille technologique et alignement des solutions avec les normes techniques ; - Documentation des assets pour garantir leur maintenance et réutilisation. Développement et support : - Développement de composants facilitant les flux de données (Talend, Java, Python…) ; - Gestion du support technique niveau 3 ; - Suivi des migrations et optimisation des processus. Monitoring et amélioration des flux Datawarehouse : - Mise en place d’un système de monitoring centralisé ; - Suivi des performances des outils et des bases de données (Vertica, Oracle, Snowflake). ACTIVITÉS ET LIVRABLES : - Référent technique pour plusieurs applicatifs ; - Support technique pour les outils DevOps (GitLab, Jenkins, Kubernetes, etc.) ; - Coordination avec les sous-traitants et validation des livrables ; - Reporting et suivi des projets auprès des équipes et des responsables.
Mission freelance
un consultant SAP Quantum
Je recherche pour mon client un consultant SAP Quantum : Les principales responsabilités seront : Travailler au sein de l'équipe de support et de maintenance pour résoudre des tickets d'évolution ou d'incidents, soutenir les utilisateurs finaux, et suivre tous les tickets liés à Quantum via Service One. Effectuer certaines activités en tant que membre du projet pour suivre les livrables principaux du projet (mise à jour de Quantum/migration vers le cloud (AWS)), en assurant la livraison du projet dans les délais, les tests, etc. Être le principal point de contact pour le support avec les utilisateurs clés comme DT T&ITC. Connaissances fonctionnelles des processus Quantum : Contrats, paiements, intégration des relevés bancaires dans Quantum, réconciliation des comptes, gestion de trésorerie, reporting, analyses, taux, statistiques, etc. Trésorerie globale – processus FX, gestion des risques, etc. Support centré sur la clôture mensuelle (D4), personnalisation, gestion des données de base et reporting pendant l'installation/des requêtes. Connaissance des interfaces Quantum (Reuters, Bloomberg, 360T, Finastra, pour l'importation des taux et des contrats). Connaissance de l'intégration des taux de change (FIXING) dans Quantum et SAP SFTP, FileZilla, ainsi que des langages de scripts, Citrix AG, planification des tâches, Crystal Reports, connaissances en Analytics, configuration des tâches et suivi des traitements. Connaissance des formats de fichiers de paiement MT101, etc. Coordination des mises à jour nécessaires de FIS et exécution des tests de routine associés (SSO, certificats, etc.). Travailler dans SAP sur les interfaces Quantum – analyse des écritures comptables. Préparer et effectuer des tests individuels en IT pour valider les changements effectués par FIS (évolutions).
Mission freelance
Ingénieur de Production Openshift/ AWS/ XLDeploy/ XLRelease/ Control M / anglais opérationnel (H/f)
Nous recherchons pour le compte de notre client dans le domaine bancaire, un ingénieur de production confirmé ayant des compétences avancées sur Openshift et AWS ainsi que sur XlRelease et XLdeploy Maintien en conditions opérationnelles du SI Suivi des incidents et des demandes Suivi des migrations techniques Description détaillée : Missions : -Garantir la disponibilité des ressources techniques -Analyser et corriger les incidents en niveaux 2 et 3 -Participer activement aux processus de mise en production et de développement logiciel en relation avec les Opérateurs Editeurs et fournir un support opérationnel aux équipes projets -Mettre en œuvre des solutions techniques de résolution d’incidents. Réaliser des diagnostics pour identifier les causes de dysfonctionnement, propose et met en œuvre des corrections et des solutions de "back-up". -Maintenir en condition opérationnelle les applications du système d’information dans un objectif de qualité, de productivité et de sécurité. -Analyser les risques opérationnels et les impacts clients de son domaine de responsabilité -Assurer la gestion des environnements (définition des besoins, validation des environnements de développement et de recette, suivi) -Assurer un rôle de conseil, d’assistance, d’information, de formation et d’alerte en matière d’intégration (définition des composants du SI, pilotage de la mise en œuvre et garantie du niveau de qualité requis). -Participer à la définition des exigences d’exploitabilité sur son domaine de responsabilité et assurer, si nécessaire, l’interface des experts des autres domaines et gérer les échanges avec les fournisseurs. -Participer à la fiabilisation, la sécurisation et l’optimisation de la sécurité sur son domaine de responsabilité -Proposer des solutions innovantes pour améliorer les performances de son domaine d’activité -Garantir le bon niveau de qualité de service en cohérence avec les exigences des contrats de services (SLA) sur son domaine de responsabilité Vous serez intégré au dispositif d'astreinte de l'équipe 24/24 7/7. Spécificités pour les tests techniques : - Prise de connaissance du changement et de son contexte technique - Complète le plan de tests proposé - Prépare les infrastructures de tests - Valide les documents et les procédures à destination de la production - Réalise les différents tests techniques - Analyse les résultats - Contribue au diagnostic en cas de dysfonctionnement - Rédige les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production - Constitue ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures - Effectue le reporting vers le Responsable Intégration - Contribue à l'amélioration continue - Industrialise les tests techniques récurrents (automatisation, outillage?)
Offre d'emploi
Data Analyst (H/F)
🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.
Mission freelance
DATA SCIENTIST SENIOR - IA GENERATIVE
Le Data Scientist Senior sera en charge du développement de modèles IA avancés, en se concentrant sur le traitement du langage naturel (NLP) pour l'analyse, la compréhension et la génération de textes. Il interviendra également sur le traitement d’images, en créant des modèles capables d’interpréter et d’exploiter des données visuelles complexes. De plus, il concevra et déploiera des solutions d'IA générative, incluant les modèles de langage massifs (MLM), les systèmes de récupération augmentée par génération (RAGs), ainsi que les chatbots documentaires.
Mission freelance
EXPERT SPLUNK OBSERVABILITY – Freelance - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk observability. MISSIONS TYPES : 1) Audit et cadrage : Évaluer l'existant en termes de supervision et observabilité. Proposer des améliorations pour la collecte et l'analyse des données de logs, métriques et traces. 2) Implémentation et configuration : Mettre en place les solutions Splunk Observability (SignalFx, Infrastructure Monitoring, APM). Intégrer les sources de données des systèmes cloud, conteneurs (Docker/Kubernetes), et infrastructures traditionnelles. 3) Création de dashboards et alertes : Développer des tableaux de bord personnalisés pour les équipes opérationnelles et les décideurs. Configurer des alertes proactives basées sur des seuils dynamiques et des tendances. 4) Formation et transfert de compétences : Accompagner les équipes internes dans l'utilisation optimale de Splunk Observabilité. Définir les bonnes pratiques en termes de monitoring et d'analyse. 5) Amélioration continue : Participer à la résolution des incidents critiques en exploitant les données d'observabilité. Mettre en place des solutions automatisées pour améliorer la disponibilité des systèmes.
Offre d'emploi
EXPERT SPLUNK OBSERVABILITY – CDI - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk observability. MISSIONS TYPES : 1) Audit et cadrage : Évaluer l'existant en termes de supervision et observabilité. Proposer des améliorations pour la collecte et l'analyse des données de logs, métriques et traces. 2) Implémentation et configuration : Mettre en place les solutions Splunk Observability (SignalFx, Infrastructure Monitoring, APM). Intégrer les sources de données des systèmes cloud, conteneurs (Docker/Kubernetes), et infrastructures traditionnelles. 3) Création de dashboards et alertes : Développer des tableaux de bord personnalisés pour les équipes opérationnelles et les décideurs. Configurer des alertes proactives basées sur des seuils dynamiques et des tendances. 4) Formation et transfert de compétences : Accompagner les équipes internes dans l'utilisation optimale de Splunk Observabilité. Définir les bonnes pratiques en termes de monitoring et d'analyse. 5) Amélioration continue : Participer à la résolution des incidents critiques en exploitant les données d'observabilité. Mettre en place des solutions automatisées pour améliorer la disponibilité des systèmes.
Mission freelance
FREELANCE – Tech Lead Data (H/F)
Notre client basé à Avignon (84) est à la recherche d’un Tech Lead Data (H/F) freelance pour participer au maintien et à la modernisation d’une plateforme Data Cloud et d’une plateforme sécurisée C3. MISSIONS Au sein d’une équipe agile de 7 personnes, vous serez amené à : · Développer des rapports de visualisation de données sous PowerBi · Développer les traitements de données · Contribuer à la définition de la stratégie technique Data du projet · Développer des uses cases métier ENVIRONNEMENT TECHNIQUE · PYTHON · SQL · Azure Data Factory ou AWS Glue · Apache Nifi / Databricks, · Oracle, PowerBI
Mission freelance
Tech Lead - Splunk Observability F/H
METSYS est un intégrateur de solutions Cloud, Cybersécurité et Microsoft. Pour l'un de nos clients grands-comptes fortement reconnu dans son secteur, nous recherchons un.e Tech Lead ayant une expérience solide sur la technologie Splunk Observability (F/H), pour un démarrage début janvier 2025. Dans ce cadre-là, vous aurez notamment en charge les missions suivantes (liste non exhaustive) : 1. Conception et mise en œuvre : o Concevoir et mettre en œuvre la solution Splunk Observability dans un environnement hybride on prem/cloud AWS ; o Définir les bonnes pratiques et assurer leur application pour garantir un déploiement optimal ; 2. Intégration : o Intégrer Splunk Observability avec des systèmes d’information existants (infrastructures, conteneurs, microservices) ; o Configurer des tableaux de bord, des alertes et des métriques clés pour la supervision en temps réel des systèmes et applications ; 3. Accompagnement : o Transférer les compétences aux équipes internes et assurer leur montée en compétence sur l'utilisation de Splunk Observability ; o Produire une documentation claire et exhaustive sur les travaux réalisés ; 4. Support et suivi : o Assurer le support et résoudre les incidents liés à la solution Splunk Observability ; o Participer à la résolution de problèmes complexes impactant la supervision des systèmes.
Offre d'emploi
Ingénieur Système et Réseau - Cloud
Opportunité de mission pour un(e) Ingénieur Système et Réseau à Paris. Dans le cadre du renfort de son équipe, mon client recherche à se renforcer avec un(e) consultant(e) disposant de bonnes expériences cloud. Au cours de cette mission, vos tâches seront : Vous êtes chargé de la disponibilité de nos infrastructures, En contact avec les experts métiers, vous appréciez effectuer des investigations au niveau des incidents et des problèmes, Vous participez à l’automatisation des tâches et des actions des équipes Support, Vous êtes un acteur de la conformité opérationnelle et sécuritaire des Services, Vous avez à cœur de comprendre et de maîtriser l'écosystème d'infrastructures complexes. Stack technique : Cloud computing, IaaS, PaaS Services cloud tels que AWS, GCP, Azure, Virtualisation, stockage, réseaux. Outil : Terraform, AWS Cli Suivi de qualité et de conformité Profil souhaité : Diplômé(e) d'un Master en informatique, vous possédez une bonne expérience professionnelle dans l'ingénierie d'infrastructure. Passionné(e) par le cloud, vous avez le sens de la qualité de service et appréciez de travailler en équipe. D'un naturel curieux, vous êtes intéressé à approfondir vos connaissances des couches très basses et très hautes. Contrat : Freelance Salaire : Package entre 55 000€ et 70 000€ Lieu : Saint-Cloud (+ télétravail) Secteur : Services Bonne journée !
Mission freelance
Data Science / Python / Dataiku
Nous recherchons un profil expert pour une mission en Data Science – Python, avec une forte expertise technique et une bonne compréhension du domaine bancaire. Objectifs de la mission : Contribuer aux activités suivantes : Maîtrise de l’environnement Python, Git, et PySpark. Utilisation experte de Dataiku pour des projets analytiques et opérationnels. Application de la modélisation statistique et du Machine Learning (ML) à des cas concrets. Création de solutions avancées en reporting et data visualisation adaptées au domaine bancaire. Livrables attendus : Développement et maintenance évolutive de modèles ML robustes. Participation aux comités de suivi pour le monitoring des modèles avec les marchés concernés. Gestion complète des produits data, y compris : Contribution aux modélisations ML et aux études analytiques. Gestion de projet de bout en bout : planification, reporting, propositions de valeur, et documentation technique. Compétences et technologies requises : Expertise en Python et outils connexes (Git, PySpark). Solide expérience avec Dataiku. Connaissances approfondies du domaine bancaire. Maîtrise des techniques de modélisation, de Machine Learning, et de data visualisation. Capacité à gérer des projets complexes, incluant coordination et documentation technique.
Mission freelance
Senior Backend Software Engineer - Zurich (Switzerland)
Ingénieur logiciel back-end senior (CISO Operations) Description du poste Nous recherchons un ingénieur logiciel back-end senior qualifié pour rejoindre notre équipe CISO Operations. Vos tâches principales: Concevoir, développer et maintenir des API RESTful optimisées pour les environnements cloud Intégrer diverses API et sources de données tierces dans notre plateforme tout en adhérant aux normes de sécurité et de confidentialité des données Mettre en œuvre des fonctionnalités de reporting de sécurité, telles que la journalisation, le suivi des vulnérabilités et la surveillance de la conformité dans les plateformes cloud Collaborer avec l'équipe de vulnérabilité pour identifier et atténuer les vulnérabilités et garantir les meilleures pratiques de sécurité des API Développer des solutions de stockage de données basées sur le cloud et garantir la gestion sécurisée des données, le cryptage et les contrôles d'accès Optimiser la logique côté serveur pour les performances et l'évolutivité du cloud Exploiter les outils natifs du cloud pour améliorer les fonctionnalités d'API et de sécurité Mettre en place des systèmes de surveillance et d'alerte pour garantir les performances, la sécurité et la disponibilité des services back-end Documenter les flux de travail des API, les politiques de sécurité et les processus d'intégration dans un environnement cloud Restez à jour avec les meilleures pratiques de sécurité du cloud et les technologies en évolution
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.