Trouvez votre prochaine offre d’emploi ou de mission freelance Nginx
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer DevOps Airflow (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Intégration des modèles d’IA · Développement de processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers · Conception des solutions nécessitant l’utilisation de technologies data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données · Travaille avec différents profils data du groupe (Data Scientist, Data Engineer, Data Architect, Data Analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
EXPERT GCP ENGINEER
Titre du poste : Expert GCP Engineer Durée du contrat : 12 mois (avec possibilité de prolongation) Lieu : Télétravail complet (bureaux à Londres et Paris) Présentation : Nous recherchons un Expert GCP Engineer pour rejoindre une initiative de transformation cloud menée par une grande banque. Ce rôle est essentiel pour concevoir, implémenter et optimiser des solutions basées sur GCP, répondant aux exigences strictes du secteur bancaire en matière d'évolutivité, de sécurité et de performance. Responsabilités principales : Concevoir et implémenter une infrastructure GCP pour soutenir des applications bancaires critiques, tout en respectant les meilleures pratiques de l'industrie et les normes de conformité (ex. : RGPD, DORA). Développer et gérer des infrastructures en tant que code ( IaC ) avec Terraform , garantissant des déploiements cohérents et reproductibles. Optimiser les configurations réseau sur GCP, notamment la conception de VPC , la connectivité hybride ( Cloud VPN , Interconnect ) et les politiques IAM. Assurer une haute disponibilité et une tolérance aux pannes des services bancaires en utilisant des outils GCP tels que Cloud Load Balancer , Cloud Monitoring et Cloud Operations Suite . Collaborer avec les équipes de sécurité pour mettre en œuvre des mesures de sécurité avancées , incluant le chiffrement, les configurations de pare-feu et la gestion des accès. Automatiser les pipelines CI/CD avec Cloud Build ou Jenkins , pour déployer efficacement des applications basées sur des microservices. Surveiller et résoudre les problèmes des services GCP ( BigQuery , Cloud Functions , Pub/Sub ) afin de garantir les performances attendues. Fournir une documentation détaillée et transférer les connaissances aux équipes internes pour renforcer leur maîtrise des bonnes pratiques sur GCP. Compétences clés : Expertise approfondie de Google Cloud Platform (GCP) avec une expérience pratique sur Compute Engine , Kubernetes Engine (GKE) et BigQuery . Maîtrise de Terraform et Git pour l’automatisation de l’infrastructure. Expérience confirmée en réseaux GCP , incluant Cloud NAT , Cloud Armor et IAM . Compétences avancées en scripting ( Python ou Bash ) pour l’automatisation et la création d’outils personnalisés. Solide compréhension des technologies de containerisation telles que Docker et orchestration avec Kubernetes. Connaissance des cadres de conformité bancaire (ex. : PCI DSS , RGPD ). Exigences : Expérience avérée dans la livraison de solutions GCP au sein d'environnements à grande échelle et fortement réglementés. Excellentes compétences analytiques et de résolution de problèmes avec une attitude proactive. Capacité à travailler de manière autonome et à produire des résultats en télétravail. Atouts : Expérience des architectures multi-cloud (ex. : Azure, AWS). Certifications telles que Google Professional Cloud Architect ou Google Professional Data Engineer .
Offre d'emploi
Data engineer F/H
Et si vous deveniez consultant chez nous ? Mais d’abord, c’est quoi un consultant ? Evidemment, c’est un collaborateur qui accompagnera nos clients dans la réalisation de leurs projets innovants. Mais être consultant chez OTTEO, c’est aussi être un ambassadeur, qui participera à l’évolution et à la croissance de la société ! Votre 1er projet Vous rejoindrez notre client dans le retail, et travaillerez sur un produit dédié à la performance ! Ce produit permet de saisir, stocker, calculer et transmettre les données de performance et d’objectifs à tous les acteurs métiers qui pilotent l’activité. Votre mission principale sera de répondre aux besoins métiers en mettant à disposition des données de qualité , essentielles pour un pilotage efficace de l’activité. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini ! Vous intégrerez une équipe agile de 10 personnes (un proxy PO, un Scrum Master et des Data Engineers) qui pratique l’agilité en Scrum depuis un an. Vos missions : Participer à la conception des environnements de qualification, de production, d’architecture applicative et des processus de mise en production. Développer l’intégration des données, leur exposition et leur transmission en garantissant l’implémentation du produit et des solutions apportées. Construire les environnements de qualification et de production selon les pratiques de l’entreprise. Implémenter la surveillance du produit et réaliser les tests unitaires. Présentation et validation des livrables par le métier. Mettre en production et assurer le bon fonctionnement de la production en gérant les incidents/problèmes. Collaborer, c’est aussi : Documenter les solutions et réaliser une veille technologique régulière. Accompagner les équipes et favoriser l’échange de connaissances. ENVIRONNEMENT TECHNIQUE : Intégration et flux de données : Talend, Shell Base de données : BigQuery, PostgreSQL, Teradata DataViz : DataStudio Autres : Firestore, Cloud Functions GCP, Git
Offre d'emploi
Software Engineer JAVA- Secteur du tourisme - Aix-en-Provence (H/F)
Au cœur de la région sud, notre entreprise, leader européen de la vente de voyage en ligne, nous recherchons un(e) Ingénieur en Développement Java. Notre mission est d'offrir à nos membres des expériences d'évasion uniques à des tarifs exclusifs. Nous nous appuyons sur l'audace, la passion et l'innovation pour maintenir notre position de leader. Rattaché(e) au CTO et intégré(e) dans notre dynamique équipe de développement, vous jouerez un rôle crucial dans la maintenance, le développement et l'optimisation de nos sites et applications. ## Missions ### Principales : - Conception et développement de nouvelles fonctionnalités pour nos sites et applications en Java. - Maintenance évolutive et corrective des applications existantes, garantissant la haute qualité et la performance. - Participation active aux phases de test, d'intégration, et au processus d'amélioration continue de nos solutions. ### Annexes : - Collaboration étroite avec les équipes produit et UX/UI pour la définition des besoins et l'amélioration de l'expérience utilisateur. - Veille technologique constante pour proposer et intégrer les dernières innovations dans nos projets. ## Avantages - Salaire attractif selon expérience. - 2 jours de télétravail par semaine, avec possibilité de condensation en semaines complètes. - Campus moderne dans un environnement naturel exceptionnel. - Accès à notre salle de sport, terrain de Padel et activités Bien-être. - Remises sur vos voyages, pour vous, votre famille et vos amis. ## Pourquoi nous rejoindre ? Vivre une aventure entrepreneuriale au sein d'un leader du marché, où innovation et ambition sont les clés de notre succès. Travailler dans un lieu unique où vos projets auront un impact direct sur des millions d'utilisateurs. Évoluer dans un environnement multiculturel et pluridisciplinaire, riche d'opportunités de croissance professionnelle et personnelle. Nous sommes engagés dans des projets porteurs de sens qui contribuent à notre développement et au bien-être de notre communauté. Chez nous, vous aurez l'occasion de construire un écosystème unique, de relever des défis ambitieux et de vous épanouir au quotidien.
Mission freelance
DevOps Engineer Cloud & Infrastructure
Le DevOps sera responsable de : La conception d'une infrastructure cloud hybride sécurisée. Le développement d'outils en Python et de pipelines CI/CD. La maintenance de l'infrastructure et l'amélioration continue des outils de supervision et de sécurité. Responsabilités Principales : Architecture cloud hybride et clusters Kubernetes. Automatisation des déploiements (incluant le matériel). Plateforme de collecte de données et sécurité intégrée. Création d'outils en Python. Définition de pipelines CI/CD. Mise en place de workflows Git (branches, versioning). Intégration d'outils de conformité et de sécurité. Automatisation des déploiements et gestion des serveurs. Optimisation des clusters Kubernetes et des serveurs Linux. Gestion des runners GitLab CI. Renforcement des outils de supervision (Prometheus, Grafana) et sécurité. Technologies et Outils : Cloud : AWS, Kubernetes. Automatisation : Terraform, Saltstack, Ansible. Développement : Python. Supervision : Prometheus, Grafana, ELK. CI/CD : GitLab, GitLab CI. Conteneurs : Docker.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Senior Cloud Devops Engineer
Senior Cloud DevOps Engineer Objectives of the position: At our unit \"Data Foundation - Big Data Management\" we aim to offer organizations a robust and scalable solution for managing and deriving insights from vast quantities of data. By utilizing Azure's PaaS components, our platform streamlines the deployment and handling of Big Data workloads, empowering our clients to make data-driven decisions and propel business expansion. Our team is accountable for the creation and upkeep of the Big Data platform built on Azure PaaS components EDL (Enterprise Data Lake). We collaborate intensively with stakeholders to comprehend their needs and devise solutions that fulfill their expectations. The team is also in charge of guaranteeing the platform's scalability, dependability, and security, and for staying abreast with the newest technologies and trends in the big data domain About the Job: We are seeking a highly motivated and detail-oriented candidate who will be responsible for the Azure Enterprise Data Lake Infrastructure and is able to maintain/scale the platform in an ambitious team. Your main responsibilities include: * To make sure that the platform is optimally maintained through monitoring, performance measurements, and automation. * Develop continuous deployment and monitoring solutions. * Together with us, empower and improve our DevOps culture mindset. * Development and deployment of infrastructure as code (Terraform) and using Azure DevOps. * CI/CD - develop, test and automate pipelines (Azure DevOps, Jenkins, Github Actions) * Continue learning new technologies and evaluating new tools. * Design the implementation of our cloud strategy and automation technologies in the context of CI / CD, Azure, Python and Spark - automate everything. * Monitoring of our cloud environment with focus on availability, performance, and security. * Incident/Change/Problem Management - Continual Service Improvement. * Ensure BASF compliance and security guidelines on our platform. * Patch management of cloud infrastructure. * Creation and implementation of Backup and Recovery concepts. * Manage and monitor 3rd party tickets for supplier support. * Demonstrate fluent communication skills in English (spoken and written). Internal Our main requirements: * Bachelor's degree in computer science, Information Technology, Engineering, Business, or related fields. * Minimum 3-4 years' related working with cloud infrastructure and familiarity with Big Data concepts. * Experience in Azure, Python and Terraform. * Experience operating and troubleshooting production environments, including monitoring, alerting & log analysis. * Experience in securing cloud environments and implementing best practices in regards of cyber security. * Experience with development and deployment of infrastructure as code (Terraform or similar tools) and using Azure DevOps. * Experience with installation and usage of monitoring tools (DataDog or similar tools). * Working flexible and agile (Scrum knowledge appreciated) with a DevOps mindset. Beneficial further knowledge: * Ideally, backed up by vendor certifications (e.g. Microsoft, Linux). * Team player with strong interpersonal, written, and verbal communication skills. What's in it for you: - A secure work environment because your health, safety and wellbeing is always our top priority. - Flexible work schedule and Home-office options, so that you can balance your working life and private life. - Learning and development opportunities - 23 holiday days per year - 5 days of adjustment - 2 cultural days - A collaborative, trustful and innovative work environment - Being part of an international team and work in global projects - Relocation assistance to Madrid provided
Mission freelance
Data Engineer / Data Analyst
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz Compétences attendues : - Expériences dans la data - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais Mission basée sur la métropole lilloise avec télétravail hybride
Offre d'emploi
Senior Cloud Devops Engineer
Senior Cloud DevOps Engineer Objectives of the position: At our unit \"Data Foundation - Big Data Management\" we aim to offer organizations a robust and scalable solution for managing and deriving insights from vast quantities of data. By utilizing Azure's PaaS components, our platform streamlines the deployment and handling of Big Data workloads, empowering our clients to make data-driven decisions and propel business expansion. Our team is accountable for the creation and upkeep of the Big Data platform built on Azure PaaS components EDL (Enterprise Data Lake). We collaborate intensively with stakeholders to comprehend their needs and devise solutions that fulfill their expectations. The team is also in charge of guaranteeing the platform's scalability, dependability, and security, and for staying abreast with the newest technologies and trends in the big data domain About the Job: We are seeking a highly motivated and detail-oriented candidate who will be responsible for the Azure Enterprise Data Lake Infrastructure and is able to maintain/scale the platform in an ambitious team. Your main responsibilities include: * To make sure that the platform is optimally maintained through monitoring, performance measurements, and automation. * Develop continuous deployment and monitoring solutions. * Together with us, empower and improve our DevOps culture mindset. * Development and deployment of infrastructure as code (Terraform) and using Azure DevOps. * CI/CD - develop, test and automate pipelines (Azure DevOps, Jenkins, Github Actions) * Continue learning new technologies and evaluating new tools. * Design the implementation of our cloud strategy and automation technologies in the context of CI / CD, Azure, Python and Spark - automate everything. * Monitoring of our cloud environment with focus on availability, performance, and security. * Incident/Change/Problem Management - Continual Service Improvement. * Ensure BASF compliance and security guidelines on our platform. * Patch management of cloud infrastructure. * Creation and implementation of Backup and Recovery concepts. * Manage and monitor 3rd party tickets for supplier support. * Demonstrate fluent communication skills in English (spoken and written). Internal Our main requirements: * Bachelor's degree in computer science, Information Technology, Engineering, Business, or related fields. * Minimum 3-4 years' related working with cloud infrastructure and familiarity with Big Data concepts. * Experience in Azure, Python and Terraform. * Experience operating and troubleshooting production environments, including monitoring, alerting & log analysis. * Experience in securing cloud environments and implementing best practices in regards of cyber security. * Experience with development and deployment of infrastructure as code (Terraform or similar tools) and using Azure DevOps. * Experience with installation and usage of monitoring tools (DataDog or similar tools). * Working flexible and agile (Scrum knowledge appreciated) with a DevOps mindset. Beneficial further knowledge: * Ideally, backed up by vendor certifications (e.g. Microsoft, Linux). * Team player with strong interpersonal, written, and verbal communication skills. What's in it for you: - A secure work environment because your health, safety and wellbeing is always our top priority. - Flexible work schedule and Home-office options, so that you can balance your working life and private life. - Learning and development opportunities - 23 holiday days per year - 5 days of adjustment - 2 cultural days - A collaborative, trustful and innovative work environment - Being part of an international team and work in global projects - Relocation assistance to Madrid provided
Mission freelance
Data Engineer
Description du poste : Nous recherchons un Data Engineer freelance passionné et expérimenté pour rejoindre notre équipe dynamique. Vous travaillerez sur des projets innovants en utilisant des technologies de pointe telles que Hive, Hadoop, Dataiku, et Unix/Linux. Responsabilités : Concevoir, développer et maintenir des pipelines de données robustes et évolutifs. Optimiser les requêtes Hive pour améliorer les performances des traitements de données. Gérer et administrer des clusters Hadoop pour assurer une disponibilité et une performance maximales. Intégrer et automatiser des flux de travail dans Dataiku DSS pour des analyses avancées. Collaborer avec les équipes de data science et d’ingénierie pour implémenter des solutions de données efficaces. Assurer la sécurité et l’intégrité des données sur des systèmes Unix/Linux.
Offre d'emploi
Site Reliability Engineer (SRE)
Votre 1er projet : Vous accompagnerez notre client, entreprise historique de la région. Celle-ci est en cours de déploiement d’une nouvelle stack technique est à besoin de votre expertise. Votre intégrerez une équipe en charge du bon déploiement de cette stack et veillerez à gérer en parallèle l’ancienne qui est toujours en production. En tant que Production Expert, vous pourrez vous attendre non seulement à assumer la responsabilité de l'ensemble des questions de production de l'écosystème (monitoring, alerting, ...) mais aussi à aider à concevoir la meilleure expérience d'offre pour nos clients. Vos missions : · Mettre en place les mesures préventives et correctives pour assurer une haute disponibilité et fiabilité des applications. · Analyser, diagnostiquer et faire corriger des dysfonctionnements applicatifs ; · Fournir et mettre à la disposition des différentes équipes les KPIs et Metrics permettant de suivre en temps réel l’état “full stack” des applications (du front à l’infra ..). · Créer des logiciels, scripts, outils pour faciliter la gestion de la production et du support et pour automatiser toutes sortes de tâches. · Documenter les connaissances et les procédures opérationnelles · Répondre aux incidents, résoudre les dysfonctionnements et gérer les escalades · Leader les comptes rendus d’incidents de production (via des Post mortem par exemple), pour optimiser les cycles de développement et les cycles de vie des incidents. · Assurer le transfert et le partage de connaissances auprès des équipes de développement afin de contribuer à leur autonomie. · Assurer la prise en charge et le traitement des remontées utilisateurs · Être enclin à accompagner le suivi de production, gérer la communication d’incident sur le produit · Mettre en place et améliorer le monitoring, l’alerting et l’observabilité (dont les SLI/SLO, et le choix des Error budgets) technique et fonctionnel permettant une identification précoce des incidents. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini ! La cerise sur le gâteau : · Des chèques vacances et chèques cadeaux : notre CSE pense à vos petites folies et à vos week-ends prolongés ! · Une carte tickets restaurant (10€/jour dont 60% pris en charge par OTTEO) pour vos pauses déj’ ! · La participation aux bénéfices à débloquer immédiatement ou à faire fructifier sur votre PEE · Une prime liée à votre projet et des primes d’ambassadeurs (cooptation, apport d’affaires…) pour participer au développement de la société · Une mutuelle prise en charge à 100% pour veiller à votre santé · Une prévoyance améliorée pour les coups durs · La prise en charge à 100% de votre titre de transport . Prenons soin de la planète ! #ISO14001 · Des évènements festifs pour passer de bons moments entre collègues
Mission freelance
Azure Cloud Engineer
Durée du contrat : 12 mois Lieu : Paris Présentation : Nous recherchons un Expert Azure Cloud Engineer pour accompagner une grande banque dans ses initiatives de transformation cloud. Ce rôle est essentiel pour concevoir, implémenter et optimiser des solutions basées sur Azure, répondant aux exigences d'un environnement bancaire fortement réglementé. Responsabilités principales : Concevoir et implémenter une infrastructure Azure pour des applications bancaires critiques, en garantissant le respect des cadres de conformité (ex. : RGPD, DORA). Automatiser les déploiements à l'aide d'outils d' Infrastructure as Code (IaC) tels que Bicep ou Terraform . Optimiser les configurations réseau sur Azure, incluant VNet Peering , connectivité hybride ( ExpressRoute , VPN Gateway ) et NSG . Assurer la résilience et l'évolutivité des services via Azure Load Balancer , Azure Traffic Manager et Azure Monitor . Collaborer avec les équipes de sécurité pour mettre en œuvre des bonnes pratiques, notamment avec Azure Security Center , Key Vault et Privileged Identity Management (PIM) . Construire et maintenir des pipelines CI/CD avec Azure DevOps pour des déploiements d’applications fluides. Surveiller et résoudre les problèmes des services Azure tels que Azure Kubernetes Service (AKS) , Logic Apps et Azure Functions afin d'atteindre les performances attendues. Fournir une documentation complète et transférer les connaissances aux équipes internes. Compétences clés : Expertise approfondie de Microsoft Azure , incluant App Services , Azure SQL , Storage Accounts et Event Grid . Maîtrise des outils IaC comme Terraform , Bicep ou ARM templates . Compétences avancées en scripting avec PowerShell ou Python . Solide compréhension des technologies de containerisation et d’orchestration (Docker, Kubernetes). Expérience pratique avec Azure AD , politiques IAM et solutions d’identité hybride. Connaissance des normes de conformité et de sécurité dans le secteur bancaire (ex. : PCI DSS, RGPD). Exigences : Expérience confirmée dans le déploiement de solutions Azure dans des environnements d’entreprise à grande échelle et réglementés. Excellentes compétences analytiques et capacité à travailler de manière autonome. Bonnes aptitudes à la communication et à la documentation. Atouts : Connaissance des environnements multi-cloud (ex. : GCP, AWS). Certifications telles que Azure Solutions Architect Expert ou Azure DevOps Expert . Date de début : Dès que possible Si vous êtes un expert Azure Cloud prêt à relever un défi stimulant dans le secteur bancaire, nous souhaitons vous rencontrer !
Mission freelance
Cloud Operations Engineer - Remote - 6 Months
L'ingénieur d'exploitation du cloud est un adepte de la virtualisation, des conteneurs et du cloud infrastructure. Vous devriez aimer automatiser tout ce qui doit être fait plus d'une fois et supervisera la migration des produits à l'aide de la technologie des conteneurs tels que Kubernetes et le provisionnement des plateformes telles que vRealize Automation. Votre champ d'action comprendra également l'ingénierie inverse de la architecture héritée et flux clés, comprendre ses principales faiblesses et son état de préparation, telles que la sécurité, fiabilité, simplicité, performance, agilité opérationnelle et automatisation. Concevez le faiblesses, travailler main dans la main avec les architectes techniques et les équipes opérationnelles. L'objectif final est de participer à la transformation du Data Center en un pipeline complet de livraison continue avec des processus de construction/déploiement/surveillance/résilience entièrement automatisés dans une solution entièrement consolidée environnement sans problèmes hérités inconnus en termes de sécurité, de fiabilité, performance et agilité opérationnelle.
Offre d'emploi
Data Engineer - Retail H/F
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans le cadre de nos priorités stratégiques DATA, nous cherchons un DATA Engineer expérimenté. Vos missions et responsabilités : Vous rejoignez l'équipe Supply Chain en charge des échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Actuellement l'équipe est composée de 3 ingénieurs Data, 1 Product Owner, 1 Scrum Master, 2 Business Analyst et 1 Tech Lead. Nous recherchons un ingénieur Data pour renforcer l'équipe pour assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Vos missions : - Traitement d'activités de support / maintenance corrective ; - Analyse et cadrage technique des différents besoins ou problématiques remontées par les Bus ; - Réalisation et maintien de la documentation technique du produit (Spécification technique, dossier d'architecture, etc...) ; - Réalisation des développements du produit (Modules GCP, Terraform, Python, BigQuery) ; - Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops)) ; - Appliquer les normes de qualités définies pour le groupe Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la Data.
Offre d'emploi
Site Reliability Engineer SRE Golang Rust Linux
Secteur: Banque d'investissement Localisation: IDF Contexte: (non exhaustif) Mise en place des métriques pour assurer la fiabilité de l'écosystème Lire le code, le comprendre Suggérer les patchs pour les développeurs, pas d'un point de vue fonctionnel mais stabilité Suggérer des améliorations et les mettre en œuvre La personne déchargera entre autre les tâches d'administration et de production que le manager assume aujourd'hui Pas de connaissance obligée en finance (souhaitable qu'il n'en ait pas) Pas d'exigence sur l'environnement de départ
Offre d'emploi
Data Engineer Dataiku
Dans un monde toujours plus digital avec des besoins de stockage et d'exploitation de volumes de données de plus en plus important, le bénéficiaire souhaite une prestation dans le cadre d'intégration de technologies Dataviz au sein du système d'information Les missions sont: L'évolution de l’offre de service ITG Data Valuation Dataiku • Analyse et Conception de l’architecture (impliquant tous les aspects : sécurité, authentification, confidentialité des données, scalabilité, cloud) • Intégration de la solution « Dataiku DSS » au Système d’information • Industrialisation et automatisation des déploiements • Expertise sur le déploiement des modules Design et Automation de la solution • Cloisonnement via implémentation de l'UIF avec LDAP et CGROUPS Linux • Expertise sur Dataiku en tant que support niveau 3 sur des incidents de production, accompagnement, conseil sur l'utilisation de ces technologies et leur modélisation • Accompagnement et du support des IT métiers et du maintien en condition opérationnel des applications. - Contexte et outillage : • Application des méthodes Agile : Scrum et Kanban : JIRA/Confluence • Outillage et pratiques DEVOPS : Industrialisation de l’intégration et du déploiement de la solution : Git/Jenkins/Artifactory/Ansible • Outillage et pratiques Cloud : Kubernetes / Docker
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.