Trouvez votre prochaine offre d’emploi ou de mission freelance Web analytics
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Développeur Java DevOps (FH)
Vous interviendrez pour le compte d'un grand groupe bancaire international, au sein du département IT Compute dédié aux salles de marchés Produits Structurés & Dérivés sur Actions . L'équipe est en charge du développement d'une plateforme de calcul des risques de contrepartie (RWA for CCR) reposant sur un nouveau framework stratégique (Firebird) , hébergé sur des clouds externes (GCP et AWS). L’environnement est agile et DevOps, avec une approche globale et internationale (Paris, Londres, Hong Kong, New York). Responsabilités : Participer au développement des composants Java sur la chaîne de calcul RWA pour la gestion des risques de contrepartie. Améliorer la performance, la stabilité et la scalabilité des composants. Collaborer à l'intégration et à la gestion des services sur GCP avec une possibilité d'évolution vers AWS . Assurer la mise en place des tests , la mise en production et la rédaction de la documentation. Fournir un support applicatif et participer aux astreintes . Passer une part importante du temps sur l’ analyse des besoins , la maintenance , le monitoring des plateformes et les tests .
Mission freelance
AI/Cloud/DevOps Engineer
Dans le cadre de ces développements notre client souhaite renforcer son équipe usine logicielle, la mission est la suivante : Travailler sur des sujets de migration de solution « on-premise » vers le cloud ; Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; Assurer l’intégration dans les architectures cible : configurer les plateformes, industrialiser les architectures, définir les accès aux ressources et les optimiser ; Assister à l’élaboration de solutions et leurs optimisations ; Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative Rédiger les documents techniques et des livrables projets ; Améliorer les architectures actuelles Transférer la connaissance et la compétence aux internes
Mission freelance
LEAD TECHNOLOGIQUE
Le consultant sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique. Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux. Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille. Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation. Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum. S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant. Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab. Participer à la définition et à l’amélioration des processus de l’équipe Conception et mise en place d’architectures SI complexes. Documentation (Diagramme de flux etc). Design logiciel. Expérience requise en environnement Cloud PaaS, IaaS (Amazon). Très bonnes compétences en développement backend et mise en place d’APIs + REST. A l’aise avec le Data processing / engineering. AWS (S3/API Gateway/Lambda/IAM, DynamoDB ou Cognito ou RDS). Terraform (bon niveau demandé). Python 3 (bon niveau demandé). SQL (particulièrement jointures). Linux (niveau intermédiaire). Bases de Data Science. Librairie Python Boto3 (AWS). Git. ANGLAIS REQUIS
Mission freelance
Platform Engineer AWS
La landing zone AWS est la plateforme regroupant de nombreuses applications/produits (500) et comptes (1000) dans le cloud de notre client du secteur de l'énergie. Afin de rendre la plateforme scalable, de développer de nouvelles features et de maintenir l'existant, notre client est à la recherche de cinq Platform Engineer pour une mission d'une durée de 2 ans. Les profils recherchés doivent maitriser les aspects suivants : - Design - IAC - CI/CD - Déploiement - Migration - Network - Cybersécurité - Identité - Rôle - SRE (monitoring) - Scalabilité - Event driven - Anglais professionnel (présentations ponctuelles devant une 100aine de collaborateurs) Ainsi que les compétences techniques suivantes : - IAM - Lambda - Python - Terraform - Terragrunt - CDKTF - Typescript - Bash - Github Actions - Services Managés - FinOps - Postman La mission est disponible avec 2 jours de TT par semaine à Paris centre.
Offre d'emploi
DATA INGÉNIEUR - DEVOPS BIG DATA / AWS
💼 Poste : DATA INGÉNIEUR - DEVOPS BIG DATA / AWS 🏭 Secteurs stratégiques : Banque 🗓 Démarrage : ASAP 💡 Contexte /Objectifs Digital and Data Services est la DSI transverse au service de la Filière IT et des Métiers. Elle est en charge des fondations digitales : fondations IT (gestion d'identité, outils Filière IT), capacités data (socle Big Data), référentiels Groupe, capacités digitales standards. Au sein de l'entité, le service est en charge de la plateforme et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management, urbanisation des architectures de données. Dans ce cadre, le service avec ses partenaires souhaite développer l'utilisation du datalake sur cloud publique MS Azure (ADLS GEN2 / SYNAPSE) et AWS (S3) et l'interopérabilité avec le datalake On Premise. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La définition des moyens cibles dans le respect des engagements pris suivant respectant le besoin métier et déployable en production - La mise en place et le support des environnements de production et intégration - L'industrialisation (principes d'infra as code) Environnement agile. 🤝 Livrables attendus: - Validation de la faisabilité technique - Mise en œuvre de la solution. - Support des demandes clients sur les environnements de production et integration. - Automatisation des demandes récurrentes et mise à disposition de self service ou API à destination des clients. 🤝 Expertises spécifiques : • Amazon Web Services ( AWS ) • Ansible • Compétences en développement (Shell unix, Perl, PHP, Python, git, github) • Continuous Integration • Docker • Java • Jenkins • JIRA • OpenShift • Spark • Stockage Scality (Ring)
Offre d'emploi
Architecte Data & Solution
🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.
Offre d'emploi
Administrateur Linux - AWS (EKS)
Nous recherchons un(e) Administrateur Linux AWS EKS expérimenté(e) pour rejoindre une équipe dynamique et contribuer au développement des infrastructures cloud de notre client. En tant qu'expert(e) Linux et AWS, vous serez responsable de la conception, de la mise en œuvre et de la maintenance de nos clusters Kubernetes sur Amazon EKS. Gestion des clusters EKS : Installation, configuration et optimisation des clusters Kubernetes sur AWS EKS. Administration Linux : Gestion et maintenance des nœuds du cluster, installation de packages, résolution de problèmes. Automatisation : Développement de scripts et d'outils pour automatiser les tâches récurrentes et améliorer l'efficacité. Sécurité : Mise en place et maintien de mesures de sécurité robustes pour protéger les environnements Kubernetes. Monitoring : Surveillance des performances des clusters et des applications déployées. Collaboration : Travail en étroite collaboration avec les équipes de développement pour faciliter le déploiement des applications.
Mission freelance
Ingénieur Data (Snowflake)
En partenariat avec un cabinet de conseil partenaire de Snowflake, GloComms recherche un ingénieur de données senior doté d'une vaste expérience et d'une solide expérience dans Snowflake. Poste : Ingénieur Data Snowflake Durée : Projet de 12 mois Lieu : France Remote: Oui - Déplacements occasionnels dans l'un des bureaux de nos clients à Paris ou à Lyon Date de début : Octobre Contrat : Freelance (Portage Salarial, Autoentrepreneur, SASU) Principales responsabilités : Vous concevrez, construirez et installerez des systèmes de gestion de données hautement évolutifs Maintiendrez et testerez l'infrastructure de données et fournirez un support si nécessaire Contribuerez à la migration de l'on-prem vers Snowflake Collaborerez étroitement avec les autres Data Scientists pour créer et améliorer le produit du client Contribuer aux meilleures pratiques en matière de données au sein de l'équipe et de l'entreprise Profil du candidat idéal : 6+ années d'expérience professionnelle en ingénierie des données et au moins 2+ années avec Snowflake Idéalement, avoir déjà travaillé sur des projets de migration vers Snowflake Vaste expérience du langage de programmation avec Python, SQL ou Java Connaissances/expérience solides des principes de l'architecture des données et des couches de la plateforme de données Expérience supplémentaire également sur 1 ou plusieurs outils ETL/ELT dans Talend ou Informatica Une expérience dans le cloud est un plus (AWS, Azure ou GCP) Anglais courant
Offre d'emploi
Développeur web + AWS (H/F)
Chez un opérateur Télécoms au sein de l'équipe de développement applicatif (mobile, tablette, consoles, TV). L'objet de la mission consiste à mutualiser le code et les environnements (AWS) des devices, afin d'optimiser les coûts et la qualité délivrée au client. Analyse du code. Développement des mutualisations. Gestion des différences (wrapping). Adaptation de l'environnement AWS à la cible. Développement de code applicatif. Documentation des travaux d'analyse et de développement.
Offre d'emploi
Transversal DBA Timescale
Les applications sont toutes développées en interne et écrites en Python en utilisant Redis, Celery, Flask et FlaskAdmin, SQL-Alchemy, PostgreSQL, Pandas, Timescale DB et elles sont hébergées sur AWS. Compétences : TimescaleDB: design, optimization, chunking, compression policies, fine tunning, monitoring, backup/restore Postrgresql RDS: design,optimization, monitoring, backup/restore AWS: RDS, S3 Design and implement high availability with Patroni Database environment management - production, acceptance, development Database version management with Alembic Compréhension de systèmes d’informations complexes, des process business et de développement Expression écrite et orale claire, concise, adaptée aux interlocuteurs Qualité relationnelle et collaboration effective
Offre d'emploi
Ingénieur DevOps AWS
Entre 20 et 30 applications : - Hébergement hybride : sur site (Equinix) et Cloud public (Azure/AWS) - Répartition des systèmes : 90 % Linux, 10 % Windows (IIS) - Front-end : Apache, Nginx, IIS - Middleware : Tomcat - Back-end : Postgres, Oracle - Sur le Cloud : EC2, RDS, ELB, ALB, Beanstalk - Outils d’ordonnancement : Crontab, Rundeck, "Automator" - Utilisation de Docker pour certaines applications - Sauvegardes gérées via Rubrik - Langages de script : Shell, Groovy, SQL - CI/CD : Jenkins pour certaines applications (pipeline en cours d’implémentation sur d’autres) - Infrastructure as Code (IaC) avec Terraform (déploiement en cours pour généralisation) - Automatisation des déploiements avec Ansible et Jenkins - Versionning via Gitlab (Gitlab-CI bientôt mis en place) - Artifactory pour la gestion des livrables - Monitoring avec Datadog - Documentation : Confluence et SharepointDéveloppement des applications : - Par des éditeurs externes (ex. : Janua) - Par un centre de services (ex. : Sopra)Principales responsabilités et réalisations : - Support de niveau 3 - Lead sur l’intégration applicative - Référence Ops pour la DSI de notre client - Gestion des mises en production et exploitation, ainsi que la recevabilité des solutions - Optimisation des systèmes : monitoring, sécurité, redémarrages automatiques, patch management - Garant de la disponibilité des solutions hébergées - Conseil et études de projets - Rédaction de procédures techniques - Intégration continue et déploiement continu via Jenkins - Tutorat d’un collaborateur en reconversion vers un poste OpsProjets en cours : - Migration du pipeline CI/CD vers Jenkins - Transformation DevOps sur plusieurs applications - Standardisation et optimisation du monitoring sur diverses applications - Automatisation des déploiements, changements, et opérations récurrentes en run
Offre d'emploi
ARCHITECTE D'INFRASTRUCTURE
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La définition des architectures et des Services associés L'assistance aux entités (architecture Technique Infrastructure) Assistance aux architectures en respectant les principes de sécurité mis en place La documentation des architectures, principes et bonnes pratiques Déploiement des architectures Les livrables attendus : Etudes d'Architectures Roadmap des Services Principes de sécurité Documentation des architectures (DAT), HLD Document de bonnes pratiques
Offre d'emploi
DATA INGÉNIEUR - DEVOPS BIG DATA / AWS
💡 Contexte /Objectifs : Dans ce cadre la prestation consiste à contribuer à/au(x) : La définition des moyens cibles dans le respect des engagements pris suivant respectant le besoin métier et déployable en production La mise en place et le support des environnements de production et intégration L'industrialisation (principes d'infra as code) Environnement agile. Livrables : Les livrables attendus sont : Validation de la faisabilité technique Mise en œuvre de la solution. Support des demandes clients sur les environnements de production et intégration. Automatisation des demandes récurrentes et mise à disposition de self-service ou API à destination des clients.
Offre d'emploi
Cloud AWS & DevOps Enginner | Data Engineer
Au sein de l'unité Plateform Data. Projet : Mise en place des infrastructures et livraison des principales briques techniques nécessaires au fonctionnement d’un cas d’usage dans un environnement cloud Build de l’infrastructure sur la plateforme data Provisionnement des ressources des cas d’usage dans databricks et AWS via Terraform Mise en place des pipelines CI/CD pour le déploiement d’infra Attribution et gestion des habilitations via les groupes dans databricks Assurer le maintien en conditions opérationnelles et l'évolution de l’infrastructure Migration des données depuis le OnPrem vers la zone de landing sur S3 Ingestion des données depuis la landing zone vers les différents coffres data (bronze, silver, gold) dans les catalogues databricks Supervision des jobs d’ingestion à travers les dashboards DataDog Résolution des incidents d’infra et pipelines MCO plateforme On Prem Traitement des demandes ponctuelles concernant l’ajout d’users, d’espace hdfs Maitrise Spark / Scala Rythme Hybride
Offre d'emploi
AMOE Technico-Fonctionnel
Nous recherchons un AMOE Technico-Fonctionnel orienté Oracle ayant une réelle expérience TMA et projets. Au sein de l’équipe MOE, la prestation attendue est une Assistance à Maîtrise d'Œuvre. Assurer la maintenance corrective, perfective et évolutive de l’application Mobile de maintenance et l’application Pilotage des Interventions ; Assurer la maintenance corrective, évolutive et perfective de l’application AGoRA sur la partie GMAO. Contexte et compétences : Développements Oracle (SQL, procédures stockées) et shell Connaissances de Digital Works Advanced Connaissances solides des API REST et SOAP Expérience TMA et projets exigés Gestion de configuration logicielle : Git/Jenkins Connaissances Unix (shell, crontab) Prendre en charge des sujets de maintenance corrective et perfective Analyse des expressions de besoins métier et/ou techniques (proposition d’implémentation et/ou adaptation, impact, charges, délais) sécurité Prendre en charge des sujets de maintenance évolutive Organiser et suivre les développements ; Gérer les environnements de développements ; Suivre les fiches Mantis (anomalies, évolutions) dans l'analyse, la qualification et le suivi de résolution ; Ecrire des DAT Elaborer des plans de bascule Suivre les réalisations ou réaliser les évolutions ; Accompagner le(s) titulaire(s) dans l’élaboration de la solution ou élaborer la solution Analyser et négocier ou réaliser les devis ; Réceptionner et installer les livraisons ; Réaliser les tests techniques ; Accompagner les recettes ; Livrer les modules, évolutions et correctifs en production conformément aux processus qualité ; Garantir le maintien en conditions opérationnelles les environnements AGORA ainsi que leurs performances ; Participer à la réalisation de tests de performance. Assister la MOA Rendre compte de l’avancement et du Reste A Faire Contrôler la qualité des prestations et garantir le niveau de service de l’unité. Assurer le backup des autres MOE durant leurs absences. Installer le SI Agora sur de nouveau environnements Coordonner techniquement les projets MOA Mise en œuvre des adaptations (développement, paramétrage, tests) sur EAM v11.1, incluant les adaptations sur les interfaces existantes ou la réalisation de nouvelles interfaces Les petits + : Connaissance Oracle application serveur (IAS 1012) Savoir organiser, animer des comités et rédiger les CR associés Connaissances AWS GMAO INFOR EAM 11 et supérieure (v12 Saas) Paramétrages, spécifiques, (JSP, javascript, flex) Interfaçages, rapports, web services Connaissances métiers sur les fonctions de Maintenance, Stock et achat
Offre d'emploi
Data Engineer Java / Python / Scala / AWS
Le prestataire travaillera en tant que Data Engineer sur les différents systèmes de gestion de données, et devra supporter les développements sur les différentes plateformes dans les meilleurs délais (time to market), tout en garantissant leur qualité. Le rôle impliquera notamment les activités suivantes : - Maintenance évolutive et corrective sur le périmètre applicatif actuel - Définition et chiffrage des architectures et solutions cibles en réponse aux besoins de l'entreprise. - Définition et mise en œuvre de PoCs pour valider les solutions proposées. - Rédaction des spécifications techniques et du dossier d'architecture. - Développement de processus d'ingestion de données dans AWS. - Définition et diffusion des meilleures pratiques de développement - Développement de services de récupération de données stockées dans AWS/S3. - Gestion du cycle de développement, de l'infrastructure et des mises en production (DevOps). - Accompagnement des utilisateurs dans la prise en main des nouvelles fonctionnalités. Le contexte L'outil est basé sur un SGBD Postgresql et une couche de collecte de données Java. Le second outil repose sur une base de données Cassandra avec une ingestion via des automates écrits principalement en Python. Dans les deux cas, les données sont récupérées via une API .Net. Un site web en Angular et un addin Excel en .Net permettent aux utilisateurs de consulter/manipuler les données. Les données de ces bases opérationnelles sont synchronisées avec le datalake amazon afin d'alimenter les processus d'analyse de données qui utilisent la pile technique AWS.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.