Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Consultant technique Adobe Campaign H/F
Vous intervenez sur un projet à très forte valeur ajoutée dans le secteur du Retail . Poste et missions Nous accompagnons notre client dans ses projets digitaux, et recherchons un(e) Consultant Technique Adobe Campaign F/H à Lille. Vous intégrerez l'équipe Digitale & Marketing pour l’optimisation et l’automatisation des processus data, et contribuez à la gestion et à l’évolution de la plateforme marketing. Au quotidien, vos missions seront les suivantes : · Gérer et optimiser les workflows sur Adobe Campaign, en configurant et structurant les tables de données pour une utilisation optimale des campagnes. · Mettre en place et monitorer les flux, en assurant la qualité des données tout au long du pipeline. · Gérer les données et les workflows via l’outil de gestion de données et via le cloud · Contribuer à l’évolution vers la version V8 d’Adobe Campaign et intégrer les nouvelles fonctionnalités tout en maintenant la stabilité des workflows. Environnement technique : Adobe Campaign V8, DBT, Stambia GCP Méthodologie de travail : Agile, Scrum Le télétravail partiel est envisageable. (3 jours par semaine) Autonome, curieux, vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.
Mission freelance
2 Data scientists (1 senior & 1 expert à temps partiel) (h/f) (h/f)
emagine recherche pour l'un de ses Clients Grand Compte 2 Data scientists (1 senior & 1 expert en temps partiel) Rythme: 1 à 2 jours sur site + 3 à 4 jours de télétravail Durée: minimum 2 ans Lieu : Île de France, 95 Contexte : Programme attendu avec roadmap serrée dans un contexte de migration vers le cloud (GCP) L'entreprise a commencé une migration de ses applications data sur le cloud public (GCP). L'ensemble des travaux d'industrialisation se feront donc sur ce nouvel environnement de travail pour lesquels des compétences spécifiques MLOps sont nécessaires : maitrise de docker, github action, terraform, vertexAI etc… Objectifs de la Mission • Comprendre en profondeur les mécanismes du revenue management, y compris les facteurs influençant la demande et les stratégies de tarification. • Concevoir et implémenter un modèle de prévision de séries temporelles en utilisant les technologies les plus récentes en IA et ML, pour améliorer la fiabilité et l'efficacité des prévisions. • S'assurer que le modèle est à la fois interprétable et explicable, permettant aux équipes de revenue management de comprendre et d'exploiter pleinement les prévisions générées. • Proposer des indicateurs permettant de qualifier la fiabilité des prévisions, et être capable de les résumer et communiquer auprès du métier. Compétences et Expériences Requises • Anglais bilingue • Python • MLOps (docker, github action, terraform, vertexAI etc…) • GCP ( Migration vers GCP ) • Forecasting/time series • Bonne expérience en séries temporelles • Maîtrise du langage de programmation tels que Python ainsi que des outils de visualisation de données (Spotfire, Power BI, etc.). • Maîtrise des bibliothèques de machine learning (scikit-learn, TensorFlow, etc.) et des techniques statistiques avancées. • Solides compétences en analyse de données. • Excellente communication et capacité à travailler en équipe. Livrables Attendues • Code source des composants développés et tests associés • Description des choix d'architecture • Documentation de la solution développée (code, modélisation...) • Supports de communication (slides…) sur les développements réalisés Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse -email masqué-
Mission freelance
Ingénieur de production DBA SybaseSQLServer
Contexte: Contexte : Environnement multi SGBD majoritairement SQLServer avec du Sybase et mySQL/PostgreSQL. MISSIONS En tant que DBA Sybase/SQLServer : - Prise en charge des sujets de refresh de plateforme OS Sybase ASE - Prise en charge des sujets de migration de Sybase vers sqlserver - Développement et maintenance de scripts powershell et ksh pour automatiser les taches - Audit régulier des bases de données Sybase ASE 16 & MS-SQL (SQL, SSAS, SSIS, SSRS) - Maintien en conditions opérationnelles des SGBD du périmètre Ostrum IT - Supervision des SGBDs de Production du périmètre Ostrum IT (SQL server 2014 à sqlserver 2022, Sybase ASE 16) - Prise en compte et traitement des incidents et des appels des utilisateurs - Participation aux cellules de crise - Contrôle et livraison des modifications de structure de base, - Prise en charge des demandes de Mise en Production, - Prise en compte des demandes d'interventions sur les différentes technologies SGBDs - Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs - Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées - Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées. - Réalisation et maintenance de la documentation d’exploitation des bases de données. - Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL2022, Interfaçage Polybase - Hadoop) - Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP. - Application de la politique générale de sécurité . La mission proposée est soumise aux dispositifs d'astreintes et horaires décalées.
Mission freelance
CP /AMOA Data Galaxy
Nous sommes à la recherche d'un CP /AMOA Piloter la mise en oeuvre de DataGalaxy dans l'écosystème : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes) Qu'elle soit capable à la fois d'animer une équipe et de tester par elle-même les features / modélisations de Data Galaxy. Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy)
Offre d'emploi
Profils RUN SDM/Pilotage/architecte
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Je vous envoie ce mail car pour un de nos clients situé dans la région de Parisienne nous recherchons ASAP dans le cadre de prestations le profil Suivant : SDM RUN Gestion de projet Chez le cllient (DIRL), l’équipe «End-to-End RUN Connected Services & My Brand» est en charge de la qualité opérationnelle de l’ensemble de la chaine couvrant les produits My Brand , My Dacia, My Alpine…) disponibles sur smartphones et l’ensemble de la chaine d’outils et plateformes de connexion off-board/on-board de la voiture permettant de : - Configurer les composants ‘on-board’ lors de la fabrication du véhicule - Activer les services à la livraison du véhicule - Utiliser au quotidien les services connectés depuis un smartphone - Collecter des données de santé du véhicule, des systèmes embarqués, des données d’usage du client, des métriques des systèmes d’assistance pour permettre d’améliorer la maintenance et la fiabilité des véhicules. - Plan d’actions pour amélioration de la solution End to End - Expressions de besoin pour des évolutions des solutions On-Board / Off Board pour une meilleure résilience / performance de la plateforme. - Mise en place et suivi d’outils de reporting - KPI de suivi d’incidents - Expertise SDM ou de pilotage d’équipe support - Bonne connaissance des architectures IOT et technologies associées (http, mqtt, tcp, bluetooth, mno) - Maitrise des enjeux de cloud publique (Azure, GCP ou AWS) - Un certification ITIL ou équivalent serait un plus - Maitrise d’au moins un outil de gestion de ces processus (e.g. Service Now) - Matrise de la méthodologie Agile et certification SAFe - Maitrise de l’anglais - Les expériences suivantes constitueront un plus : o Gestion de projet, coordination d’équipe produit informatique o Connaissance générale de l’informatique, idéalement une expérience passée de conception et développement et/ou de mise en œuvre de projets techniques informatiques (infrastructures, réseaux…) o Connaissance générale du monde industriel et de ses méthodes (Lean etc.) La prestation sera réalisée dans les locaux du Prestataire. Le cas échéant, elle le sera sur les sites du client à Guyancourt mais surtout à Boulogne, afin de tenir compte de l’organisation hydride mise en place chez le client. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
CP MOE production / SDM
Centraliser & piloter l’activité liée aux domaines métiers mentionnés dans le contexte de la mission : en ayant une vision consolidée des changements de son périmètre ou impactant son périmètre (réception des demandes, analyse des impacts et des risques, coordination des changements) en se tenant informé des versions et de leurs contenus et impacts sur le domaine en validant la fin des VSR (Vérifications Services Réguliers) des projets du domaine en s’assurant de la création et de la mise à jour de la documentation de Production (Dossier d'architecture, d'exploitation, consignes, circuit d’assistance…) en menant les actions d’amélioration continue en garantissant la vision patrimoniale de son domaine Garantir l’efficience du produit SI : en identifiant les actions préventives ou curatives à mener pour tenir ces engagements en détectant, en aidant à qualifier les impacts des incidents en participant à la résolution des incidents, problèmes en participant au suivi post Mise En Production en réalisant la trajectoire d’amélioration de la qualité de fonctionnement du SI de son périmètre par délégation du problème/incident manager l'animation ou la gestion d'un sujet auprès des équipes opérations. Assurer le suivi et le reporting des activités aux Produits SI du domaine : en veillant au respect des engagements précisés dans la convention de services via la mise en œuvre et le suivi des indicateurs prévus concernant les incidents et des problèmes (respect des SLA, surveillance de l’état des incidents) en veillant sur la bonne mise en œuvre des processus de gestion d’incident ou de changement contribue en alimentant le reporting sur le respect des engagements de bon fonctionnement SI de son domaine (Comité Suivi Opérationnel/Comité Qualité Fonctionnement /TaskForce/etc..) De formation supérieure dans le domaine informatique. Bonnes connaissances des processus ITIL et bonne compréhension du système d’information de l’entreprise. Bonne connaissance des métiers de la production informatique Bonne connaissance des procédures de sauvegarde des données et plus largement des contraintes de sécurité. Maîtrise des différents types de systèmes d’exploitation (grands systèmes, moyens systèmes, micro-informatique) et des serveurs Unix et Windows et Mainframe. Connaissance d’un certain nombre d’outils permettant la sécurisation et la surveillance de l’exploitation (supervision, ordonnanceur, APM, gestion de logs ELK,Dynatrace…).
Offre d'emploi
Data Engineer Kafka (production/ Run)
Spécialisé dans le secteur bancaire, l'entreprise recherche un Expert Data Engineer Kafka pour renforcer ses effectifs. . Le rôle consiste à mettre en œuvre des solutions de streaming de données à grande échelle et en temps réel pour répondre aux besoins des différents départements métiers et améliorer la prise de décision grâce à une infrastructure de données solide, évolutive et performante. Architecture et conception : Concevoir et développer des pipelines de données en streaming avec Apache Kafka pour gérer des volumes de données élevés en temps réel. Participer à la définition de l’architecture de la plateforme Kafka et de ses composants (brokers, zookeepers, clusters). Développement de flux de données : Créer, configurer, et maintenir des topics Kafka , des streams et des connecteurs Kafka pour assurer l’ingestion, la transformation et la livraison des données aux consommateurs en temps réel. Optimisation des performances : Surveiller et ajuster les configurations pour optimiser la latence et le débit des flux de données en streaming. Mettre en place des processus de mise à l’échelle et de gestion des performances pour maintenir un haut niveau de fiabilité. Sécurité et conformité : Mettre en œuvre des mesures de sécurité et de gouvernance des données pour protéger les flux de données Kafka en conformité avec les exigences internes et réglementaires (authentification, contrôle d’accès, chiffrement des données en transit). Innovation continue : Mener une veille technologique active sur les évolutions d'Apache Kafka et les nouvelles technologies de streaming, telles que Apache Flink , Kafka Streams , ksqlDB , afin d’améliorer continuellement l’écosystème de données. Maîtrise de Kafka : Expertise approfondie sur Apache Kafka , avec une expérience dans l’implémentation, l’optimisation et le maintien de clusters Kafka en environnement de production. Compétences en programmation : Compétences en Java , Scala , et/ou Python pour la création de flux de données et l’intégration de Kafka avec d’autres systèmes. Traitement des données en temps réel : Connaissance des frameworks de traitement en temps réel et streaming, tels que Apache Flink , Kafka Streams , et Spark Streaming . Architecture de données distribuées : Solide compréhension des architectures de données distribuées, de la gestion des clusters et de l’optimisation des performances des systèmes de streaming. Sécurité des données : Maîtrise des pratiques de sécurité des données, y compris le chiffrement, l'authentification (SASL, SSL) et le contrôle d’accès (ACL) dans les systèmes Kafka. Environnement cloud : Expérience avec les environnements cloud (AWS, GCP, Azure) et familiarité avec les services Kafka managés comme Confluent Cloud ou Amazon MSK . Compétences en DevOps : Connaissance des outils DevOps tels que Docker , Kubernetes , et Terraform pour le déploiement, l’orchestration, et la gestion des clusters Kafka.
Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri
Ingénieur MLOPS Montpellier Senior DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.
Offre d'emploi
DBA SYBASE - SQL SERVER
INGENIEUR BASE DE DONNEES - DBA Démarrage : ASAP Durée : 2 ans renouvelable Localisation : Ile de France - Proche Paris Télétravail : 50% Contexte : Accompagner les métiers sur leurs projets, initiatives, évolutions, être proactif. Assurer aux utilisateurs de l’Asset Management un bon niveau de qualité de support. Etre force de proposition sur les évolutions d'infrastructures techniques et logicielles en garantissant le traitement, les refreshs et la prévention de l'obsolescence Déploiement de l’Agile, du Devops, XLDeploy, MyCloud et Cloud AZURE. Mission : Prise en charge des sujets de refresh de plateforme OS Sybase ASE - Prise en charge des sujets de migration de Sybase vers sqlserver - Développement et maintenance de scripts powershell et ksh pour automatiser les taches - Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) - Maintien en conditions opérationnelles des SGBD - Supervision des SGBDs de Production ( sqlserver 2014 à sqlserver 2022, Sybase ASE 16 ) - Prise en compte et traitement des incidents et des appels des utilisateurs - Participation aux cellules de crise - Contrôle et livraison des modifications de structure de base, - Prise en charge des demandes de Mise en Production, - Prise en compte des demandes d'interventions sur les différentes technologies SGBDs - Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs - Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées - Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées. - Réalisation et maintenance de la documentation d’exploitation des bases de données. - Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL2022, Interfaçage Polybase - Hadoop) - Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP. - Application de la politique générale de sécurité. La mission proposée est soumise aux dispositifs d'astreintes et horaires décalées.
Mission freelance
Ingénieur Devops
Dans le cadre de projets stratégiques avec notre client, nous recherchons un Ingénieur Devops orienté IA et Cloud public. Le collaborateur sera rattaché à uneéquipe et intégrera la tribu en charge du périmètre DATA, en proximité des squads Assurances. Il interviendra sur l’ensemble du cycle de vie (design, build, run) des projets orientés IA. Missions : En tant qu'Equipier Ops, les principales missions seront les suivantes : Identifier les évolutions fonctionnelles et techniques des produits nécessitant des activités ops et les traduire dans le backlog en tant que « récits techniques ops » Provisionner les moyens techniques d’infrastructure dans tous les environnements Intégrer les produits dans les plateformes client, AWS et GCP (IaC, supervision/monitoring, backups, archives, log management) Fabriquer des composants techniques (scripts d'industrialisation, de déploiements, templates d’infra as code…) et automatiser les opérations en exploitant les services MLOPS Mettre en place les indicateurs d’observabilité infrastructure et applicative, du monitoring des modèles et s’assurer de l’intégration des exigences de production dans les applications livrées - Mettre à disposition une chaine d'entrainement et d’exécution des modèles Prendre en main des outils de DataOps et MLOps pour industrialiser des modèles de ML et d’IA. - Contribuer et maintenir les référentiels et consignes d’exploitabilité - Réaliser les actes de MEP Suivre les SLAs des produits, contrôler le bon fonctionnement de la production et assurer le reporting Anticiper, traiter et suivre les incidents d’exploitation en analysant les causes racines et en prenant les mesures correctives nécessaires Suivre les consommations et allocations des ressources Normalisation des éléments produits - Sécurisation by design et revue périodiques Maintien des capacités dans le temps - Capacité à identifier les opportunités et limites de l’open source vs des services managés Capacité à fédérer autour des choix préconisés Localisation du poste : Paris Expériences réussies dans le cadre de l’ingénierie DevOps/MLOps sur AWS avec une expertise sur Terraform . 5-7 ans d’expérience Environnements techniques : - AWS, (GCP) - Sagemaker (studio, notebook instance), KubeFlow, TensorFlow, Pytorch - Notebook, Python - Terraform (environnement Air Gap notamment), rebase - Artifactory, ECR, Helm - EKS, Kubernetes , Docker , ArgoCD - Jenkins - Grafana, CloudWatch, ELK, OpenSearch
Mission freelance
CP & PMO Assurance Prudentiel Solvabilité2
Pour les besoins d'un client grand compte assurance, nous recherchons un profil CP/PMO, pour être en charge de la bonne réalisation des projets informations associés à Solvabilité 2 et contribuer au suivi de l’activité transverse de l’équipe (suivi des feuilles de route / du budget) en tant que PMO; dans le cadre de l’équipe Prudentiel. Piloter certains projets fonctionnels et techniques associés à la feuille de route Solvabilité 2 notamment dans le cadre des travaux Non-Vie Suivre les engagements budgétaires de l’équipe prudentiel
Mission freelance
Ingénieur DevOps - 3 mois - Lille
Ingénieur DevOps - 3 mois - Lille Un de nos importants clients recherche un Ingénieur DevOps pour une mission de 3 mois renouvelable sur Lille. Possibilité de télétravail à hauteur de 2 jours par semaine. Les principales missions sont : - Maintenir en condition opérationnelle la plateforme d'intégration continue utilisée par la DSI - Accompagner les utilisateurs dans la consommation des services de l'équipe: github, argocd, AWX, sonarqube, nexus, backstage - Définir les règles de bonnes pratiques, les pipeline standards - Développer sur backstage les composants en mode self service pour nos utilisateurs: terraform, python, bash - Contribuer à la transformation digitale en promouvant les services de l'équipe et notamment en développant l'offre Platform Engineering Les livrables sont: - Dossier d'architecture - Développement feature - Accompagnement support Compétences techniques : DevOps - Expert Outil ci/cd - Expert Github Sonarqube, Nexus - Confirmé AWX, ArgoCd, Terraform - Confirmé Langage : bash , python, nodeJs - Confirmé La connaissance de Backstage, Azure, GCP sera un plus Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Mission freelance
Chef de projets Data Management & IA (h/f)
emagine recherche pour l'un de ses Clients Grand Compte un(e) Chef de projets Data Management & IA Rythme: 3 jours sur site + 2 jours de télétravail Durée estimée : plus de 12 mois Lieu : Île de France, 92 Objectifs : En tant que Chef de Projet Données et Intelligence Artificielle, vous aurez pour mission de piloter et coordonner les projets liés à la valorisation des données et au déploiement de solutions d'IA au sein de la DSI. Vous serez en charge de transformer les besoins métiers en solutions techniques adaptées et de garantir la bonne intégration des solutions IA dans les processus de l'entreprise. Rôle : • Analyse des besoins métiers • Élaborer des plans de projet, définir les étapes clés, les livrables, les budgets et les délais • Gestion de la donnée { Structurer et mettre en œuvre des solutions de collecte, de stockage et d'analyse des données (Data Lake, Data Warehouse) } • Développement de solutions IA ( Superviser les phases de test et de validation des modèles ) • Accompagnement au changement ( la prise en main, animer des formations et ateliers ) Profil recherché : • Formation : informatique, data science, intelligence artificielle, ou équivalent • Expérience : Minimum 3/4 ans d'expérience en gestion de projets data et/ou intelligence artificielle, idéalement au sein d'une entreprise des secteurs de la construction, de l’énergie, ou de la promotion immobilière. Compétences : • Capacité à gérer plusieurs projets simultanément et à travailler dans un environnement transversal • Expérience dans la conduite du changement et l'accompagnement des utilisateurs. • Maîtrise des outils et langages de data science (Python, R, SQL, Java) • Connaissance des environnements de cloud computing (Azure et éventuellement AWS & Google Cloud) et des solutions de gestion de données (Data Lake, Big Data) • Expérience dans la gestion de projet liés à des référentiels data (définition, déploiement, etc.) • Expérience dans la mise en oeuvre de projets embarquant des problématiques de machine learning ou de deep learning Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse mail -email masqué-
Offre d'emploi
ingénieur de production (IT/OPS)
En tant qu’Ingénieur de Production, vous serez impliqué(e) dans l'automatisation des déploiements, la gestion des environnements cloud et l'intégration continue/déploiement continu (CI/CD), tout en participant à la gestion des incidents et à l'amélioration des infrastructures. Responsabilités : Administrer et maintenir les environnements de production sous Linux (RedHat, CentOS, Ubuntu), en assurant leur performance, disponibilité et sécurité. Automatiser les processus de déploiement et de gestion des configurations via Ansible , en garantissant l’homogénéité et l’efficacité des environnements. Participer à l'intégration et au déploiement continu des applications via Argo CD et d'autres outils CI/CD, pour simplifier et automatiser les mises en production. Gérer les infrastructures cloud (AWS, GCP, Azure) et leur intégration avec les systèmes Linux, en optimisant les coûts et les performances des ressources. Contribuer à la surveillance proactive des systèmes de production, en utilisant des outils de monitoring pour détecter et résoudre les problèmes avant qu’ils n’affectent les services. Assurer la gestion des incidents de production , diagnostiquer rapidement les dysfonctionnements, et mettre en place des solutions correctives durables. Collaborer avec les équipes de développement, de sécurité et d'infrastructure pour garantir une intégration fluide des nouvelles applications et technologies dans les environnements de production. Participer à la mise en place des plans de reprise après sinistre et de haute disponibilité, en anticipant les risques et en garantissant la résilience des systèmes critiques. Rédiger et mettre à jour les procédures et documentations techniques .
Offre d'emploi
Ingénieur devops (jenkins & kubernetes)
En tant qu’ingénieur DevOps, vous collaborerez avec des équipes de développement, d’infrastructure et d’architecture pour concevoir et mettre en œuvre des pipelines d'intégration continue robustes et des solutions de déploiement automatisé sur des infrastructures cloud et on-premises. Responsabilités : Concevoir, mettre en place et optimiser des pipelines CI/CD en utilisant Jenkins pour automatiser le déploiement des applications. Déployer, gérer et superviser des clusters Kubernetes pour l'orchestration des conteneurs, garantissant une haute disponibilité et une scalabilité efficace. Assurer le déploiement, la gestion et la maintenance des applications dans des environnements de production cloud (AWS, GCP, Azure) et on-premises. Implémenter des solutions d'infrastructure-as-code (IaC) à l'aide d'outils comme Terraform ou Ansible. Participer à la sécurisation des environnements de production et veiller à la conformité des systèmes vis-à-vis des normes du secteur bancaire. Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps et améliorer la livraison continue des applications. Surveiller les performances des systèmes et des applications, en assurant un diagnostic rapide et la résolution des incidents. Participer à l'automatisation des tests, au déploiement des environnements de staging, et à la gestion des versions logicielles. Veiller à l’optimisation des coûts d'infrastructure tout en maintenant une performance optimale.
Offre d'emploi
Ingénieur Java confirmé - Secteur Finance H/F
? Quel est le projet ? Vous êtes intéressé par l'environnement bancaire et ses enjeux ? Alors rejoignez-nous ! Dans un univers bancaire et technologique en forte transformation, vous évoluerez dans des domaines fonctionnels variés : monétique, assurance, finance, banque en ligne, paiement mobile, application smartphone... Et vous pourrez vous challenger sur des sujets multiples : digitalisation, dématérialisation, Big Data, Intelligence Artificielle, Cloud, etc. ? Quelles seront vos missions ? - Intervenir sur des activités back-end et front-end ; - Participer à la conception, la modélisation d'applications Web stratégiques et leurs évolutions ; - Concevoir les tests unitaires et fonctionnels ; - Participer à la migration du parc applicatif vers le Cloud ; - Être garant des bonnes pratiques projet et veiller à la qualité des développements ; - Être force de proposition au sein des comités techniques et entretenir un lien privilégié avec l'architecte solution pour définir les orientations du produit et garantir les normes qualité et sécurité ; - Mettre en place et maintenir les chaînes d'intégration continue (CI/CD) dans un contexte DevOps. ? Quel est l'environnement technique ? - Stack technique : Java, Spring Boot, Spring Batch, Sprint Security, Angular, PostgreSQL, Elasticsearch, Jenkins, API REST - Outils : GitLab, Docker, Kubernetes, Azure, AWS, Google Cloud ? Quelle équipe et quelle méthodologie ? - Méthodologie : Agile - Équipe : Intégré dans les locaux de l'agence nantaise (à Saint-Herblain) et dans les locaux de notre client (Nantes centre) - Encadrement : La méthode SOLENT ! Un management technique, couplé à un parcours d'onboarding jalonné d'objectifs clairs qui te permettront de monter en compétences rapidement et efficacement sur le projet. ? Vous êtes... ? Vous êtes diplômé d'une école d'ingénieur ou équivalent universitaire en développement logiciel ? ? Vous avez entre 4 à 8 ans d'expérience professionnelle en développement Java ? ? Vous avez des compétences en DevOps ? ? Vous maîtrisez Git ? ? Vous souhaitez développer vos compétences techniques dans des environnements multiples ? ? Vous avez un bon niveau d'anglais (oral et écrit) ? ? Vous possédez d'excellentes compétences en communication interpersonnelle et en collaboration d'équipe ? ? Vous êtes avide de challenge ? De technique ? ? Vous avez un sens critique ? Un sens du service ? Un esprit de synthèse ? Une rigueur et une organisation dans vos projets ? Si vous vous reconnaissez, alors n'hésitez plus et rejoignez nos équipes pour une nouvelle aventure ! Nous cherchons aujourd'hui nos talents de demain... ??????
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Close de non concurrence freelance à portgae salarial
- situation compliquée fin de mission pression client comment gèrer ?
- SASU IR vs Micro entreprise + ARCE
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Arce 7 mois après la création de l'entreprise ?
- Calcul de crédit impôt - cas pratique