Trouvez votre prochaine offre d’emploi ou de mission freelance RADIUS (Remote Authentication Dial-In User Service) à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur DevOps
Au sein d'une grande banque française basée à paris, vous rejoindrez une équipe DevOps. En tant qu'ingénieur DevOps vous contribuerez à la configuration et à l'outillage des chaînes CI/CD et assiterez les entités de développement dans la gestion des différents environnements (développement, test, UAT, intégration, production). L'entité évolue sur des environnements on premise avec des requêtes de déploiement sur cloud AWS. Dans ce cadre la prestation consiste à contribuer à : La mise en place des chaines CI/CD on prem La mise en place et la maintenance des outils (Jenkins, Sonar...) Déploiment de VM dans le cloud on prem Mise en place du Monitoring automatique (elasticsearch , kibana,..) Mise en place des alerts sur l'infra et sur l'indisponibilité des services/composants Monitoring de production L'installation et à la configuration Kubernetes et Docker La création et à la maintenance des différents environnement techniques avec les entités de développement Support aux entités de développement dans leur utilisation de ces différents environnements L'intégration des chaines on prem et des chaines déployées sur AWS Environnement techniques (Excellent niveau requis) : Ansible Terraform Docker Git Environnement techniques (bon niveau requis) : Kubernetes / Helm CI Jenkins / GitHub Shell SQL ELK Environnement techniques (c'est un plus) : Traefik & Squid Java / Nodejs
Mission freelance
Prestation de développement K8S / Terraform
Nous recherchons pour notre équipe franceinfo, une prestation de développement senior avec de fortes compétences autour de l’administration système, des pratiques devops et surtout une très bonne connaissance de Terraform. Le prestataire devra disposer d’une expérience back (PHP et/ou JS) avec des expertises détaillées dans la réponse, et notamment sur Docker/Kubernetes/Terraform pour le cloud privé et public (Azure, AWS). La prestation consistera à assurer la coordination entre les équipes de développement et les équipes ops. Elle pourra aiguiller les développeurs à mieux mettre en œuvre la configuration Cloud, la CI/CD, les bonnes pratiques de scalabilité et de sécurité pour travailler plus efficacement. La prestation consistera également à expliciter, accompagner et documenter les évolutions techniques. EXPERTISES TECHNIQUES INDISPENSABLES A LA REALISATION DE LA PRESTATION : - Expérience back : PHP et/ou JS - Expertises sur Docker/Kubernetes/Terraform - Expérience en environnement agile (scrum ou kanban) - Expérience Terraform/Azure - Expérience Terraform/AWS - Expérience en documentation technique (évolutions techniques) - Environnement technique : Cloud/Debian/Apache/Nginx/Varnish/CDN/PHP/JS Il sera nécessaire de détailler les expériences et de mettre en avant l’adéquations de celles-ci avec le besoin exprimé.
Mission freelance
Expert Microsoft SQL Server
Nous sommes à la recherche d'un(e) : 📌Expert Microsoft SQL server Les activités qui vous seront confiées sont : - Modélisation des données, concevoir des modèles de données multidimensionnels (OLAP) et tabulaires. - Conception de rapports, définir la structure et le contenu des rapports. - Conception de flux de travail ETL (Extract, Transform, Load), planifier l'extraction, la transformation et le chargement des données. - Développement de packages SSIS, créer des packages pour l'intégration et la transformation des données. - Assurer le support technique et la maintenance des solutions déployées.
Offre d'emploi
Développeur Node / AWS (h/f)
Nous recherchons un Développeur Node.js expérimenté, avec une expertise dans l’utilisation d’ AWS et le développement d’API , pour renforcer notre équipe. Vous participerez à la conception et au développement d’applications backend robustes, scalables, et à haute disponibilité, en vous appuyant sur les services cloud d’AWS et en suivant les meilleures pratiques d’architecture API. Concevoir, développer et maintenir des API RESTful performantes et évolutives en Node.js . Utiliser les services d' AWS pour l’hébergement et le déploiement des applications (Lambda, API Gateway, S3, DynamoDB, etc.). Collaborer avec les équipes frontend et backend pour assurer une intégration fluide entre les services. Implémenter des solutions basées sur des architectures microservices. Participer aux revues de code et à l’amélioration continue des processus de développement. Optimiser les performances des API et garantir leur sécurité (authentification, autorisation, chiffrement). Surveiller et déboguer les incidents de production. Participer à la mise en place d’une infrastructure CI/CD pour le déploiement continu des API.
Offre d'emploi
Data Engineer SSIS SSRS - C# .NET
Contexte : Nous sommes à la recherche d'un ingénieur de données senior pour développer et fournir des solutions à l'équipe Autohedging d'eFX. Excellente connaissance de SQL Server (SSIS, SSRS) combinée à de bonnes compétences en C# .Net. La connaissance et l'expertise de Python ou d'autres langages de script serait un avantage. La mission comprendra : - Effectuer des tâches de développement de données - Développement et livraison de tableaux de bord - Développer des relations de collaboration avec les collègues de l'IT et de l'entreprise Liste des tâches : - Concevoir, créer, tester et documenter des SQL, des packages et des programmes, nouveaux ou modifiés, à partir de spécifications commerciales fournies. - Traiter, nettoyer et vérifier l'intégrité des données utilisées pour l'analyse. - Effectuer des analyses ad hoc et présenter les résultats de manière claire, en sélectionnant et en intégrant tous les outils et cadres Big Data nécessaires pour fournir les capacités requises. - Développer des outils de reporting et des tableaux de bord visuels et interactifs dans une variété de technologies. Traduit avec (version gratuite)
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Mission freelance
LEAD TECHNOLOGIQUE
Le consultant sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique. Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux. Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille. Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation. Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum. S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant. Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab. Participer à la définition et à l’amélioration des processus de l’équipe Conception et mise en place d’architectures SI complexes. Documentation (Diagramme de flux etc). Design logiciel. Expérience requise en environnement Cloud PaaS, IaaS (Amazon). Très bonnes compétences en développement backend et mise en place d’APIs + REST. A l’aise avec le Data processing / engineering. AWS (S3/API Gateway/Lambda/IAM, DynamoDB ou Cognito ou RDS). Terraform (bon niveau demandé). Python 3 (bon niveau demandé). SQL (particulièrement jointures). Linux (niveau intermédiaire). Bases de Data Science. Librairie Python Boto3 (AWS). Git. ANGLAIS REQUIS
Mission freelance
Data Engineer python / spark / AWS / Dataiku
La DSI a besoin de renfort IT dans l'équipe Data Product, afin de DEVELOPPER et délivrer des besoins de segmentation client. Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée.
Mission freelance
Platform Engineer AWS
La landing zone AWS est la plateforme regroupant de nombreuses applications/produits (500) et comptes (1000) dans le cloud de notre client du secteur de l'énergie. Afin de rendre la plateforme scalable, de développer de nouvelles features et de maintenir l'existant, notre client est à la recherche de cinq Platform Engineer pour une mission d'une durée de 2 ans. Les profils recherchés doivent maitriser les aspects suivants : - Design - IAC - CI/CD - Déploiement - Migration - Network - Cybersécurité - Identité - Rôle - SRE (monitoring) - Scalabilité - Event driven - Anglais professionnel (présentations ponctuelles devant une 100aine de collaborateurs) Ainsi que les compétences techniques suivantes : - IAM - Lambda - Python - Terraform - Terragrunt - CDKTF - Typescript - Bash - Github Actions - Services Managés - FinOps - Postman La mission est disponible avec 2 jours de TT par semaine à Paris centre.
Mission freelance
Expert Sécurité AWS
Contexte: Une partie des applications de notre client sont hébergées sur le Cloud AWS et doivent donc être migrées dans un environnement Cloud Public AWS « équivalent ». MISSIONS La mission demandée vise à prendre en charge l’accompagnement à la migration des applications : Assurer la sécurité durant la phase de migration selon un processus de migration et de contrôle (préalablement définis) ; Garantir la conformité des applications migrées vis-à-vis des règles de sécurité de l’entreprise ; au besoin proposer des adaptations lorsque nécessaire ; Adapter l’écosystème Cloud Public cible afin d’accueillir les applications à migrer dans des conditions de sécurité optimales Tâches à réaliser : Design de solutions de sécurité Réalisation d’études sécurité Réalisation d’analyses de risques Préparation, organisation et animation d’ateliers de travail Réalisation et/ou mise à jour de documentation technique Rédaction et/ou mise à jour de référentiels de sécurité Participation à la comitologie Cloud Public de l’entreprise
Mission freelance
Consultant Cybersécurité PKI
En tant que Consultant Cybersécurité PKI , vous interviendrez sur une mission d'audit et de migration dans le cadre de la gestion des infrastructures à clés publiques (PKI) d'une entreprise, en lien avec des HSM (Hardware Security Modules) de type Luna Cloud. Vous devrez assurer la bonne configuration des HSM Luna en collaboration avec deux serveurs PKI (Autorité de Certification Racine - ACR et Autorité de Certification Déléguée - ACD) sur AWS. Votre mission inclura également la facilitation de la migration des PKI de Microsoft Certificate Authority (MSCA) vers HSM Luna, l'assistance à la gestion des backups des clés, ainsi que la validation et la mise à jour de la documentation technique liée aux infrastructures PKI. 1. Configuration des HSM Luna Cloud et PKI sur AWS : Configurer et s'assurer du bon fonctionnement des HSM Luna Cloud en lien avec les serveurs PKI (ACR et ACD) hébergés sur AWS. Vérifier la connectivité et l'interaction entre les composants PKI et les HSM pour garantir la sécurité des clés cryptographiques. 2. Migration des PKI de MSCA vers HSM Luna : Superviser et effectuer la migration des PKI existants depuis Microsoft Certificate Authority (MSCA) vers les nouveaux HSM Luna Cloud . S'assurer que toutes les clés et certificats sont correctement transférés et que la continuité du service est assurée. 3. Backup et Sécurisation des Clés : Réaliser des sauvegardes sécurisées des clés cryptographiques conformément aux meilleures pratiques en matière de gestion des clés et des HSM. Mettre en place un processus de restauration des clés en cas de besoin. 4. Test et Validation de la Nouvelle Configuration : Réaliser des tests exhaustifs de la nouvelle infrastructure pour valider son bon fonctionnement (performance, sécurité, continuité de service). Identifier et résoudre les éventuels problèmes techniques rencontrés après la migration et la configuration. 5. Mise à Jour de la Documentation Technique : Mettre à jour l'ensemble des documents techniques (HLD - High-Level Design, LLD - Low-Level Design, DEX - Detailed Design, etc.) en fonction des changements et de la nouvelle architecture. Fournir un rapport détaillé des modifications effectuées et des configurations validées.
Offre d'emploi
Devops AWS
Participation à la construction et au support (Incident/Support/Changement standard) de la plateforme AWS Landing Zone en collaboration avec les ingénieurs DevOps de l'équipe Développement des services d'infrastructure dans un environnement Infra as Code (Terraform/TerraGrunt) Intégration des développements dans une chaine d'intégration et déploiement continu (GitHub) Documentation des procédures opérationnelles (Runbooks) Participation aux activités de Design en amont des phases de construction
Mission freelance
Ingénieur Data (Snowflake)
En partenariat avec un cabinet de conseil partenaire de Snowflake, GloComms recherche un ingénieur de données senior doté d'une vaste expérience et d'une solide expérience dans Snowflake. Poste : Ingénieur Data Snowflake Durée : Projet de 12 mois Lieu : France Remote: Oui - Déplacements occasionnels dans l'un des bureaux de nos clients à Paris ou à Lyon Date de début : Octobre Contrat : Freelance (Portage Salarial, Autoentrepreneur, SASU) Principales responsabilités : Vous concevrez, construirez et installerez des systèmes de gestion de données hautement évolutifs Maintiendrez et testerez l'infrastructure de données et fournirez un support si nécessaire Contribuerez à la migration de l'on-prem vers Snowflake Collaborerez étroitement avec les autres Data Scientists pour créer et améliorer le produit du client Contribuer aux meilleures pratiques en matière de données au sein de l'équipe et de l'entreprise Profil du candidat idéal : 6+ années d'expérience professionnelle en ingénierie des données et au moins 2+ années avec Snowflake Idéalement, avoir déjà travaillé sur des projets de migration vers Snowflake Vaste expérience du langage de programmation avec Python, SQL ou Java Connaissances/expérience solides des principes de l'architecture des données et des couches de la plateforme de données Expérience supplémentaire également sur 1 ou plusieurs outils ETL/ELT dans Talend ou Informatica Une expérience dans le cloud est un plus (AWS, Azure ou GCP) Anglais courant
Offre d'emploi
Développeur Java DevOps (FH)
Vous interviendrez pour le compte d'un grand groupe bancaire international, au sein du département IT Compute dédié aux salles de marchés Produits Structurés & Dérivés sur Actions . L'équipe est en charge du développement d'une plateforme de calcul des risques de contrepartie (RWA for CCR) reposant sur un nouveau framework stratégique (Firebird) , hébergé sur des clouds externes (GCP et AWS). L’environnement est agile et DevOps, avec une approche globale et internationale (Paris, Londres, Hong Kong, New York). Responsabilités : Participer au développement des composants Java sur la chaîne de calcul RWA pour la gestion des risques de contrepartie. Améliorer la performance, la stabilité et la scalabilité des composants. Collaborer à l'intégration et à la gestion des services sur GCP avec une possibilité d'évolution vers AWS . Assurer la mise en place des tests , la mise en production et la rédaction de la documentation. Fournir un support applicatif et participer aux astreintes . Passer une part importante du temps sur l’ analyse des besoins , la maintenance , le monitoring des plateformes et les tests .
Mission freelance
AI/Cloud/DevOps Engineer
Dans le cadre de ces développements notre client souhaite renforcer son équipe usine logicielle, la mission est la suivante : Travailler sur des sujets de migration de solution « on-premise » vers le cloud ; Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; Assurer l’intégration dans les architectures cible : configurer les plateformes, industrialiser les architectures, définir les accès aux ressources et les optimiser ; Assister à l’élaboration de solutions et leurs optimisations ; Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative Rédiger les documents techniques et des livrables projets ; Améliorer les architectures actuelles Transférer la connaissance et la compétence aux internes
Offre d'emploi
DATA INGÉNIEUR - DEVOPS BIG DATA / AWS
💼 Poste : DATA INGÉNIEUR - DEVOPS BIG DATA / AWS 🏭 Secteurs stratégiques : Banque 🗓 Démarrage : ASAP 💡 Contexte /Objectifs Digital and Data Services est la DSI transverse au service de la Filière IT et des Métiers. Elle est en charge des fondations digitales : fondations IT (gestion d'identité, outils Filière IT), capacités data (socle Big Data), référentiels Groupe, capacités digitales standards. Au sein de l'entité, le service est en charge de la plateforme et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management, urbanisation des architectures de données. Dans ce cadre, le service avec ses partenaires souhaite développer l'utilisation du datalake sur cloud publique MS Azure (ADLS GEN2 / SYNAPSE) et AWS (S3) et l'interopérabilité avec le datalake On Premise. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La définition des moyens cibles dans le respect des engagements pris suivant respectant le besoin métier et déployable en production - La mise en place et le support des environnements de production et intégration - L'industrialisation (principes d'infra as code) Environnement agile. 🤝 Livrables attendus: - Validation de la faisabilité technique - Mise en œuvre de la solution. - Support des demandes clients sur les environnements de production et integration. - Automatisation des demandes récurrentes et mise à disposition de self service ou API à destination des clients. 🤝 Expertises spécifiques : • Amazon Web Services ( AWS ) • Ansible • Compétences en développement (Shell unix, Perl, PHP, Python, git, github) • Continuous Integration • Docker • Java • Jenkins • JIRA • OpenShift • Spark • Stockage Scality (Ring)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.