Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur DevOps
Missions : Conception et gestion des infrastructures cloud (AWS) : Gérer et optimiser l'infrastructure hébergée sur AWS. Implémenter des solutions scalables et robustes en utilisant les services AWS (EC2, S3, Lambda, RDS, etc.). Orchestration de conteneurs et gestion des clusters Kubernetes : Déployer et gérer des clusters Kubernetes. Assurer la haute disponibilité, la mise à l'échelle et la maintenance des applications sur Kubernetes. Automatisation des processus avec Ansible : Automatiser le provisionnement des serveurs, les configurations et les déploiements. Rédiger des playbooks Ansible pour faciliter les processus récurrents. Gestion des conteneurs avec Docker : Construire et gérer des images Docker pour les différents environnements de développement, test et production. Assurer le bon fonctionnement des environnements de conteneurs et résoudre les éventuels problèmes de performance. Gestion des flux de données avec Kafka : Déployer et administrer les brokers Kafka pour les besoins en messagerie et traitement de flux de données. Assurer la résilience et la scalabilité des systèmes de traitement de données en temps réel. Utilisation de Helm pour la gestion des releases Kubernetes : Créer et gérer des charts Helm pour le déploiement simplifié des applications sur Kubernetes. Amélioration continue et surveillance des performances : Mettre en place des outils de monitoring pour assurer la surveillance proactive des performances (Prometheus, Grafana, CloudWatch, etc.). Participer aux efforts d'amélioration continue des processus CI/CD. Collaboration inter-équipes : Travailler en étroite collaboration avec les équipes de développement, sécurité et infrastructure. Participer aux rituels Agile et fournir un support pour les mises en production
Offre d'emploi
Développeur Fullstack Java/Angular (H/F)
Missions : Développement en TDD des besoins métier Diagnostiquer des incidents sur les environnements hors et en production (au niveau applicatif, JVM et système) Participer à la conception ainsi qu'à la mise en œuvre des développements de l’application back à partir des spécifications fonctionnelles Participer à la correction des anomalies fonctionnelles et/ou techniques Communiquer et remonter les alertes ou points de blocages aux compétences concernées Participer aux différentes réunions/ateliers de l'équipe Challenger le besoin vis-à-vis des bonnes pratiques et contraintes techniques Soutien auprès des développeurs moins expérimentés :- Sur les aspects de design et le respect des bonnes pratiques pour assurer une qualité du code constante- En les aidant à renforcer leur maîtrise des langages/technologies Développer en respectant les bonnes pratiques définies, de manière robuste et performante Rédaction et actualisation de documents techniques Support aux équipes fonctionnelles Réalisation de tests croisés Environnement technique: Java, Spring boot, Angular, React, Kafka, Oracle, Flume, Elasticsearch, Storm, Infinispan, Drools. Compétences attendues : Conception et mise en production Tests Participe aux revues de code Connait et applique les choix d’architecture faits au préalable Connaissance des bases de l'agilité Optimisation des performances Connaissances avancées des outils et méthodes d’intégration Capable d’aider à orienter la production de l’équipe Maitrise forte des technologies employées sur le projet concerné (par défaut) ou décrit dans la mission Maîtrise les outils de build Donne de la visibilité sur l'avancée des chantiers Maîtrise les outils de build Maitrise des fondamentaux de l'agilité Maitrise avancée des technologies employées sur le projet concerné Expériences significatives en Java Développement en TDD Connaissances/appétence sur la méthodologie BDD et l'approche DDD
Mission freelance
DATA ENGINEER
- Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure - Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) - Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) - Réalisation des tests unitaires - Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) - Préparation de package pour livraison en CI/CD avec les équipes DevOps - Réalisation des activités de maintenance corrective et évolutive - Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…)
Offre d'emploi
Lead Dev Fullstack Java / Angular
Mission - Vous serez le garant du respect des engagements pris par l'équipe (délai, chiffrage, périmètre) et de la qualité du développement produit, - Vous accompagnerez les développeurs et vous développez également, - Vous allez mettre en place les bonnes pratiques et coordonner la montée en compétence de l'équipe, - Vous allez assurer le suivi des anomalies et des performances applicatives en production, - Vous serez en charge du reporting de l'avancée des développements, des risques et de la remontée des alertes. Contexte technique: 1) Notre parc applicatif JAVA a plus de 20 ans. Il mélange du Legacy \" progressif \" (java 1.4 à 1.8) et des technologies très récentes (Angular, Kafka) : notre culture java est donc très riche et approfondie. Nous essayons de faire tourner au maximum pour que tout le monde puisse travailler sur des technos récentes. 2) Nous avons une approche très polyvalente au sein du monde Java : c'est à dire que nos équipes s'occupent de l'ensemble de l'éco système java-web (configuration tomcat, analyse des logs en production, supervision, déploiement etc.)
Offre d'emploi
Business Analyst / Consultant fonctionnel (H/F)
Notre belle agence de Bordeaux recherche un.e Business Analyst , capable de naviguer efficacement entre les domaines fonctionnel et technique. Capable d'interagir avec des équipes de développement tout en comprenant les enjeux métier, le rôle implique également des compétences en gestion de projets fonctionnels (MOA) ainsi que la maîtrise d'outils techniques. Vos missions seront les suivantes : Analyse fonctionnelle : Recueillir et analyser les besoins métier, rédiger des spécifications fonctionnelles détaillées, et participer à la définition des processus. Coordination des projets : Assurer la liaison entre les équipes métier et les équipes techniques (MOA/MOE). Maîtrise technique : Manipuler des web services via POSTMAN (API REST) et utiliser efficacement SQL pour des requêtes complexes. Développement des TNR (Tests de Non-Régression) : Concevoir et développer des TNR, avec une bonne compréhension des règles de développement, en particulier en JavaScript . Gestion des flux Kafka : Connaître et gérer des systèmes basés sur Kafka pour assurer l’interopérabilité des données. Documentation : Créer et maintenir des documents relatifs aux spécifications fonctionnelles et techniques. Lieu : Bordeaux (33) Télétravail : Hybride (pas de full remote)
Offre d'emploi
Ingénieur Cloud & Administrateur INSTANA (H/F)
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Ingénieur Intégrateur Cloud & Produits Administrateur INSTANA pour intervenir chez un de nos clients dans le secteur des paiements. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Maîtriser les serveurs Linux, Unix, RedHat, etc., ainsi qu'un ou plusieurs langages de programmation, notamment Python. - Accompagner les équipes projet dans la livraison de leurs applications dans le cloud. - Fournir du support aux équipes en cas de bugs ou anomalies lors des livraisons. - Assurer l'installation des logiciels fournis par les éditeurs et garantir leur bon fonctionnement. - Installer et configurer les progiciels en les adaptant aux exigences spécifiques du client. - Intégrer et installer les produits technologiques (MongoDB, PostgreSQL, Kafka, Grafana, Loki, etc.). - Paramétrer et intégrer les solutions logicielles et applicatives dans les environnements de test, en assurant la compatibilité entre tous les composants techniques et applicatifs. - Réaliser les paramétrages des logiciels en conformité avec les exigences fonctionnelles définies et en tenant compte de l'environnement technique du client. - Préparer et suivre avec les équipes projet et production les mises en exploitation des applications. - Acquérir une expertise sur les offres d'infrastructures pertinentes de GTS sur ce périmètre. - Rédiger des scénarios de test et identifier les outils de benchmarking adéquats. - Communiquer les résultats des benchmarks et présenter des rapports d'analyse. - Participer aux chantiers de définition du modèle opérationnel. - Maîtriser les standards de l'offre de services, avec des cas d'usage destinés aux équipes de fabrication.
Offre d'emploi
Ingénieur Développement Sénior pour R&D (H/F) - Secteur de la formation - Sophia-Antipolis
Rejoignez notre entreprise, leader dans le domaine des technologies innovantes, basée dans une zone dynamique et facilement accessible. Actuellement, nous sommes engagés dans des projets ambitieux de développement de solutions disruptives, ce qui nécessite un renforcement de notre équipe R&D composée d'experts passionnés et dévoués à l'innovation. Le département R&D, au cœur de notre stratégie, se consacre à l'exploration de nouvelles avenues technologiques pour rester à la pointe de notre secteur. La raison d'être de ce poste nouvellement créé est de capter les talents capables de propulser notre entreprise encore plus loin dans l'innovation. Missions Principales : - Concevoir et développer de nouvelles fonctionnalités innovantes. - Supporter et guider techniquement les développeurs juniors. - Participer pleinement aux sprints: réunions d'équipe, revues de code. - Documenter les processus clés en soutien au partage de connaissances au sein de l'équipe. Annexes : - Contribuer à l’amélioration continue des pratiques de développement. - Participer à des projets de recherche sur de nouvelles technologies ou outils pouvant être intégrés à notre écosystème technique. Stack technique : À maîtriser: - Git et stratégies de branching. - CI avec Bitbucket pipeline. - SQL, HTML/CSS/JS, concepts MVC. - Ruby, RubyOnRails (ou cadres similaires dans d'autres langues avec volonté d'apprentissage Ruby). - Postgres, Docker, méthodologie agile. Environnement technique global : - Orchestration avec Kubernetes. - Tests avec RSpec. - Kafka, AWS, architectures distribuées. Profil recherché : Niveau d'étude: BAC+5 en informatique ou équivalent. Les candidats autodidactes avec une expérience pertinente sont également encouragés à postuler. Niveau d'expérience: Expérimenté, avec une solide expertise technique démontrée dans des projets antérieurs. Soft skills: Forte capacité d'analyse, esprit d'équipe, capacité à apporter des solutions innovantes, désireux d'apprendre et de partager ses connaissances. Avantages : - Salaire compétitif, négociable selon l'expérience. - Prise en charge de formations et certifications. - Politique flexible de télétravail. - Environnement de travail stimulant, équipement à la pointe de la technologie. Pourquoi nous rejoindre ? - Faire partie d’une équipe R&D au cœur de l’innovation, où chaque projet est une occasion de repousser les limites de la technologie. - Opportunité de travailler sur des projets technologiquement challengeants et diversifiés. - Environnement de travail bienveillant favorisant le développement personnel et professionnel. - Accès à un réseau d'experts et participation à des conférences leaders de l'industrie. - Contribution directe au succès et à l'évolution d'une entreprise reconnue dans son domaine, où votre travail a un impact réel. Si rejoindre une équipe d'avant-garde travaillant sur des projets révolutionnaires vous passionne, nous serions ravis de recevoir votre candidature pour le poste d'Ingénieur Développement Sénior pour R&D.
Offre d'emploi
Data Engineer (Azure - Databricks)
Nous recherchons un(e) Data Engineer confirmé(e)/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL • Développement et l’implémentation de solutions Big Data Analytics • Analyse du besoin, étude d'impacts et conception de la solution technique • Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) • Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake • Développements de notebooks (ex : Databricks) de traitements avancés des données • Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) • Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) • Revue de code • Réalisation de tests unitaires • Maintenance corrective et évolutive • Livraison dans un environnement Devops, CI/CD et outils associés
Offre d'emploi
Ingénieur.e ELK (Observability, Monitoring, SIEM) - Genève
Architecture, Optimisation, Installation, Déploiement, Configuration et Maintenance (Elastic, Logstash, Grafana, Prometheus, Ansible) Maintenir et améliorer la solution de monitoring (Suite ELK). Mettre en place des tableaux de bord en temps réel. Gérer et faire évoluer les solutions de gestion des logs (ELK, SIEM, ...). Surveiller les performances des systèmes applicatifs. Participer à l'implémentation des solutions informatiques. Assurer la continuité des flux inter-applicatifs et gérer les incidents. Effectuer des rapports réguliers sur les activités. Intégration et automatisation via playbooks Ansible. Expertise en observabilité (Grafana, Prometheus) et gestion des logs (ELK, Kafka, SIEM). Connaissance des outils d'automatisation (Ansible). Expérience avec la conteneurisation (Docker, Kubernetes). Intégration et Support applicatif.
Offre d'emploi
Ingénieur intégrateur Cloud & Produits administrateur INSTANA
Descriptif de la Prestation : Pour ce projet d’infrastructure, la direction technique recherche un Ingénieur intégrateur Cloud & Produits administrateur INSTANA en prestation externe pour l’intégration et l’administration des offres. Les objectifs de la prestation sont : • Maîtrise des serveurs Linux, Unix, RedHat, etc. ainsi que d’un ou plusieurs langages de programmation, notamment Python • Accompagné les ME projet sur la livraison de leurs applications dans le cloud. • Être support des ME en cas de bug ou anomalie sur leur livraison • Assurer les installations des logiciels fournis par les Éditeurs • Installer et paramétrer le progiciel et l’adapter aux exigences du client • Installation et Intégration des produits DT( MongoDB, PostgreSQL, Kafka, Grafana, Loki …) • Intégrer et paramétrer les solutions logicielles et applicatives dans les environnements de tests et d’assurer la cohabitation de l’ensemble des composants techniques et applicatifs des environnements de tests. • Réalisation, • Paramétrer ces logiciels en conformité avec les exigences fonctionnelles définies et en adaptation avec les autres composants de l’environnement technique. • Préparer et suivre avec les équipes projets & de production, les mises en exploitation des applications. • Acquérir une maîtrise des offres d’infrastructures de GTS pertinentes sur ce périmètre • Rédiger les scénarios de test & identification des outils de benchmarking • Communiquer les résultats du benchmark et présentation du rapport d’analyse • Participer au chantier de définition du modèle opérationnel • Maîtriser les standards de l’offre de service avec des cas d’usage à destination des fabrications RÉSULTATS ATTENDUS • Accompagner et Participer aux livraisons des projet Défini • Partager et communiquer les difficultés potentiellement rencontrées et être force de proposition pour une amélioration continu des itérations • Être support des ME en cas d’anomalie sur les livraisons et proposer des solutions de résolution. • Mise en œuvre d'un benchmark des produits DT (Kafka, ActiveMQ, MongoDB, PostgreSQL…) , intégration et analyse des résultats • Participer aux ateliers entre TTIS et GTS. • Développer et documenter des cas de test manuels et scénarisés • Analyse et recommandations de mise à l'échelle des applications et de l'infrastructure, • Préparation et présentation des résultats de performance • S’inscrit dans une démarche d’amélioration continue par des feedbacks au sein de l’équipe d’accompagnement projets. • Être garant du modèle d’intégration du socle de conteneurisation avec les systèmes d’échange, et d’une manière générale l’ensemble de l’écosystème, • Rédiger doc technique • Réaliser les tests associés au paramétrage : tests unitaires, tests d’intégration… • Participe aux cérémonies/réunions projet • Suit et réalise les actions projets qui lui sont affectées • Participe à l’identification des risques projet • Participe aux comités de pilotage INDICATEURS DE QUALITE • Respects des jalons • Pertinence des propositions
Offre d'emploi
Tech Lead DevOps H/F
A propos de JEMS Nous sommes le seul industriel de la donnée en Europe. Notre métier est de créer, manager et exploiter le patrimoine data de nos clients. Nous avons la conviction que chaque entreprise peut adopter une démarche innovante de gestion de la donnée et créer des cas d'usage disruptifs en réduisant l'impact écologique et en diminuant la dette technique. Nous comptons plus de 840 collaborateurs en mission chez nos clients grands comptes dans tout secteur d'activité : banque, assurance, santé, énergie, e-commerce, automobile, luxe, retail, transport, agritech... Vos missions Nous recherchons un(e) Techlead DevOps expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au coeur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : - Être garant de la qualité des livrables et le respect des délais - Assurer la montée en compétences des équipes - Implémenter des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital - Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet - Réaliser les PoV (Proof of Value) et les PoC (Proof of Concept) - Veiller à la bonne application des normes, standards et bonnes pratiques de JEMS sur l'ensemble du périmètre des réalisations techniques - Améliorer, enrichir, former et mettre en place le contrôle des normes, standards et bonnes pratiques de JEMS - Assurer la capitalisation au sein de JEMS : s'appuyer sur les bibliothèques de patterns et starters projets et les enrichir - Participer aux communautés technologiques de JEMS et/ou être référent partenaire Vos compétences En tant que Techlead DevOps vous disposez d'une expertise en Infrastructure (on-premise et/ou cloud) et en Data, Digital et/ou Machine Learning. Cette expertise sera confirmée par la maitrise d'un socle technologique selon le domaine concerné et la spécialité : - Infrastructure : Maitrise des concepts systèmes, Linux, Réseau, IaaS, PasS, SaaS. Langages de scripting (Bash, Python). Maîtrise de la containerisation (Docker). - Data : Storage (S3, Azure Storage, ADLS, GCS, MinIO...), (No)SQL et Warehousing (Redshift, Synapse, BigQuery, Trino, DataStax, MongoDB, Hive, Impala...), Platform as a Service (Cloudera, Snowflake, Databricks), Integration et Compute (Talend, Dbt, Snaplogic, Spark, Glue...), Streaming et IoT (Kafka/Confluent, Pub/Sub, RabbitMQ, Pulsar, HiveMQ, NomoSense, Event/IoT Hub, ThingBoard...) - Digital : Languages et Frameworks (Java, Spring, Node, NestJS, PHP, Symfony, Laravel, Python, Django, Go, Rust...), API Management (Apigee, Kong...) - Machine Learning : Dataiku, Azure ML, SageMaker, VertexIA, Databricks ML, Azure Cognitive Services, ML Framework (TensorFlow, Keras, PyTorch, ...) - SysOps : Landing Zone Design (GCP, AWS, Azure), Gestion de l'authentification et des autorisations (Azure AD, Okta, AWS IAM, GCP IAM, ...), Terraform, CloudFormation, ARM, CDM, Ansible, Kubernetes, Hadoop... - DevSecOps : Gestionnaire de version (Gitlab, Github, Bitbucket...), CI/CD (Jenkins, Azure DevOps, Gitlab-CI, Github Actions...), Gestionnaire d'artefact (Artifactory, Nexus, Harbor...), Chiffrement, Gestion de secrets, Scans de sécurité (CVE, SAST, DAST...) - SRE : Familiarisé avec les concepts de SLA, SLO, SLI, vous favorisez une culture d'observabilité. Vous savez mettre en place et maintenir des solutions d'observabilité pour garantir disponibilité, fiabilité et performances. Maîtrise des outils de monitoring tels que ELK, Prometheus, Grafana, Datadog, Dynatrace, Cloudwatch, Azure Monitor... Vous avez un esprit d'équipe, êtes proactif(ve) et faites preuve d'une forte capacité d'adaptation. Vous faites également preuve d'une excellente communication, vous êtes capable de traduire des concepts techniques complexes en termes simples pour les parties prenantes. Enfin, vous avez la capacité d'intégrer un dispositif fonctionnant suivant la méthodologie Agile. Votre profil Diplômé(e) d'une école d'ingénieur ou d'un parcours universitaire technique, vous avez minimum 5 ans d'expérience professionnelle dans un contexte data ou digital dont au moins 3 ans en tant que DevOps confirmé(e). Avantages à travailler chez JEMS - Une JEMS Académie au service de votre montée en compétences (formations et certifications sur les technologies de pointe) - Un accompagnement personnalisé et un management de proximité pour vous proposer des évolutions de carrière - Une intégration dans des communautés techniques et de pratiques JEMS (encadrement par des experts, échanges sur les bonnes pratiques, favoriser l'innovation...) - Une entreprise reconnue \"Great Place To Work\" - Des évènements et séminaires inoubliables, des soirées d'agence conviviales Mobilité Une mobilité nationale et internationale pour vous accompagner dans vos projets de vie. Diversité Le Groupe JEMS porte fièrement sa valeur \"Diversité\" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap.
Offre d'emploi
Tech Lead DevOps H/F
A propos de JEMS Nous sommes le seul industriel de la donnée en Europe. Notre métier est de créer, manager et exploiter le patrimoine data de nos clients. Nous avons la conviction que chaque entreprise peut adopter une démarche innovante de gestion de la donnée et créer des cas d'usage disruptifs en réduisant l'impact écologique et en diminuant la dette technique. Nous comptons plus de 840 collaborateurs en mission chez nos clients grands comptes dans tout secteur d'activité : banque, assurance, santé, énergie, e-commerce, automobile, luxe, retail, transport, agritech... Vos missions Nous recherchons un(e) Techlead DevOps expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au coeur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : - Être garant de la qualité des livrables et le respect des délais - Assurer la montée en compétences des équipes - Implémenter des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital - Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet - Réaliser les PoV (Proof of Value) et les PoC (Proof of Concept) - Veiller à la bonne application des normes, standards et bonnes pratiques de JEMS sur l'ensemble du périmètre des réalisations techniques - Améliorer, enrichir, former et mettre en place le contrôle des normes, standards et bonnes pratiques de JEMS - Assurer la capitalisation au sein de JEMS : s'appuyer sur les bibliothèques de patterns et starters projets et les enrichir - Participer aux communautés technologiques de JEMS et/ou être référent partenaire Vos compétences En tant que Techlead DevOps vous disposez d'une expertise en Infrastructure (on-premise et/ou cloud) et en Data, Digital et/ou Machine Learning. Cette expertise sera confirmée par la maitrise d'un socle technologique selon le domaine concerné et la spécialité : - Infrastructure : Maitrise des concepts systèmes, Linux, Réseau, IaaS, PasS, SaaS. Langages de scripting (Bash, Python). Maîtrise de la containerisation (Docker). - Data : Storage (S3, Azure Storage, ADLS, GCS, MinIO...), (No)SQL et Warehousing (Redshift, Synapse, BigQuery, Trino, DataStax, MongoDB, Hive, Impala...), Platform as a Service (Cloudera, Snowflake, Databricks), Integration et Compute (Talend, Dbt, Snaplogic, Spark, Glue...), Streaming et IoT (Kafka/Confluent, Pub/Sub, RabbitMQ, Pulsar, HiveMQ, NomoSense, Event/IoT Hub, ThingBoard...) - Digital : Languages et Frameworks (Java, Spring, Node, NestJS, PHP, Symfony, Laravel, Python, Django, Go, Rust...), API Management (Apigee, Kong...) - Machine Learning : Dataiku, Azure ML, SageMaker, VertexIA, Databricks ML, Azure Cognitive Services, ML Framework (TensorFlow, Keras, PyTorch, ...) - SysOps : Landing Zone Design (GCP, AWS, Azure), Gestion de l'authentification et des autorisations (Azure AD, Okta, AWS IAM, GCP IAM, ...), Terraform, CloudFormation, ARM, CDM, Ansible, Kubernetes, Hadoop... - DevSecOps : Gestionnaire de version (Gitlab, Github, Bitbucket...), CI/CD (Jenkins, Azure DevOps, Gitlab-CI, Github Actions...), Gestionnaire d'artefact (Artifactory, Nexus, Harbor...), Chiffrement, Gestion de secrets, Scans de sécurité (CVE, SAST, DAST...) - SRE : Familiarisé avec les concepts de SLA, SLO, SLI, vous favorisez une culture d'observabilité. Vous savez mettre en place et maintenir des solutions d'observabilité pour garantir disponibilité, fiabilité et performances. Maîtrise des outils de monitoring tels que ELK, Prometheus, Grafana, Datadog, Dynatrace, Cloudwatch, Azure Monitor... Vous avez un esprit d'équipe, êtes proactif(ve) et faites preuve d'une forte capacité d'adaptation. Vous faites également preuve d'une excellente communication, vous êtes capable de traduire des concepts techniques complexes en termes simples pour les parties prenantes. Enfin, vous avez la capacité d'intégrer un dispositif fonctionnant suivant la méthodologie Agile. Votre profil Diplômé(e) d'une école d'ingénieur ou d'un parcours universitaire technique, vous avez minimum 5 ans d'expérience professionnelle dans un contexte data ou digital dont au moins 3 ans en tant que DevOps confirmé(e). Avantages à travailler chez JEMS - Une JEMS Académie au service de votre montée en compétences (formations et certifications sur les technologies de pointe) - Un accompagnement personnalisé et un management de proximité pour vous proposer des évolutions de carrière - Une intégration dans des communautés techniques et de pratiques JEMS (encadrement par des experts, échanges sur les bonnes pratiques, favoriser l'innovation...) - Une entreprise reconnue \"Great Place To Work\" - Des évènements et séminaires inoubliables, des soirées d'agence conviviales Mobilité Une mobilité nationale et internationale pour vous accompagner dans vos projets de vie. Diversité Le Groupe JEMS porte fièrement sa valeur \"Diversité\" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap.
Offre d'emploi
Intégrateur applicatif
Pour ce projet d'infrastructure, la direction technique recherche un Ingénieur intégrateur Cloud & Produits administrateur INSTANA en prestation externe pour l'intégration et l'administration des offres. Missions : o Maîtrise des serveurs Linux, Unix, RedHat, etc. ainsi que d'un ou plusieurs langages de programmation, notamment Python o Accompagné le projet sur la livraison de leurs applications dans le cloud. o Être support en cas de bug ou anomalie sur leur livraison o Assurer les installations des logiciels fournis par les Éditeurs o Installer et paramétrer le progiciel et l'adapter aux exigences du client o Installation et Intégration des produits DT( MongoDB, PostgreSQL, Kafka, Grafana, Loki ...) o Intégrer et paramétrer les solutions logicielles et applicatives dans les environnements de tests et d'assurer la cohabitation de l'ensemble des composants techniques et applicatifs des environnements de tests. o Réalisation, o Paramétrer ces logiciels en conformité avec les exigences fonctionnelles définies et en adaptation avec les autres composants de l'environnement technique. o Préparer et suivre avec les équipes projets & de production, les mises en exploitation des applications. o Acquérir une maîtrise des offres d'infrastructures de GTS pertinentes sur ce périmètre o Rédiger les scénarios de test & identification des outils de benchmarking o Communiquer les résultats du benchmark et présentation du rapport d'analyse o Participer au chantier de définition du modèle opérationnel o Maîtriser les standards de l'offre de service avec des cas d'usage à destination des fabrications Livrables attendus : o Accompagner et Participer aux livraisons des projet Défini o Partager et communiquer les difficultés potentiellement rencontrées et être force de proposition pour une amélioration continu des itérations o Être support en cas d'anomalie sur les livraisons et proposer des solutions de résolution. o Mise en oeuvre d'un benchmark des produits DT (Kafka, ActiveMQ, MongoDB, PostgreSQL...) , intégration et analyse des résultats o Participer aux ateliers o Développer et documenter des cas de test manuels et scénarisés o Analyse et recommandations de mise à l'échelle des applications et de l'infrastructure, o Préparation et présentation des résultats de performance o S'inscrit dans une démarche d'amélioration continue par des feedbacks au sein de l'équipe d'accompagnement projets. o Être garant du modèle d'intégration du socle de conteneurisation avec les systèmes d'échange, et d'une manière générale l'ensemble de l'écosystème, o Rédiger doc technique o Réaliser les tests associés au paramétrage : tests unitaires, tests d'intégration... o Participe aux cérémonies/réunions projet o Suit et réalise les actions projets qui lui sont affectées o Participe à l'identification des risques projet o Participe aux comités de pilotage
Offre d'emploi
Expert Big Data (ELK) (H/F)
Contexte de la mission : Nous recherchons un(e) Expert Big Data (ELK) pour une mission au sein d'une grande entité spécialisée dans la gestion d'infrastructures informatiques à l'échelle mondiale. Vous interviendrez dans un environnement dynamique et multi-régions (EMEA, AMER, ASIA) pour améliorer la gestion et l’optimisation des systèmes de monitoring , collecte de logs et alerting . Expertises et technologies requises : Suite Elastic : ELK (Elasticsearch, Logstash, Kibana), xBeat Agents. Systèmes : Shell, Linux. Technologies complémentaires : Kafka, Windows Event Collector (WEC), IA pour le monitoring. Environnement : Vous serez en charge de maintenir et d'améliorer une infrastructure complexe dédiée à la collecte et au traitement des logs. Cela inclut la gestion de grandes volumétries de données provenant de plusieurs sources, et l’optimisation de l’architecture ELK pour répondre à des besoins de performance croissants. Vous utiliserez des outils avancés de monitoring et de machine learning pour affiner l'analyse des logs et anticiper les incidents. Ce poste est destiné à un(e) professionnel(le) ayant une solide expertise en gestion des infrastructures de logs , avec des compétences avancées dans l'utilisation de la suite Elastic et des systèmes Linux , dans un environnement à forte volumétrie et multi-sources.
Mission freelance
DATA INGNEIEUR
Description détaillée : -Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure -Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) -Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) -Réalisation des tests unitaires -Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) -Préparation de package pour livraison en CI/CD avec les équipes DevOps -Réalisation des activités de maintenance corrective et évolutive -Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…
Offre d'emploi
Data Engineer GCP AWS
Je recrute pour une entreprise en pleine croissance avec une équipe de 45 collaborateurs répartis entre Toulouse (35 personnes) et la nouvelle agence à Paris (10 personnes). Je recherche un Data Engineer Confirmé avec un minimum de 4 ans d'expérience pour rejoindre l'équipe. Ce que l'entreprise offre : • Choix du matériel : PC ou Mac, tu choisis ta config ! + Prime d'équipement télétravail (450€ HT sur 3 ans). • Formation continue : Certifications 100% prises en charge avec du temps dédié à la préparation. • Veille technologique : 12 Stack Days par an (1 journée/mois) dédiés à la veille et au partage de connaissances. Participation à des conférences tech. • Transport : 50% des frais de transports publics pris en charge + forfait mobilités vertes. • Vie d'entreprise : Stack Trip annuel, activités sponsorisées (escape game, kayak, rando, etc.), conférences tech (Devoxx, AWS Summit, Google Summit, etc.), afterworks réguliers. Ce que tu feras : • Auditer les configurations cloud et proposer des améliorations. • Concevoir des architectures data cloud natives (GCP/AWS). • Déployer des entrepôts de données massivement scalables (BigQuery, Redshift, MongoDB…). • Développer des pipelines de traitement de données (Spark, Dataflow…). • Intégrer des processus de Data Science et Machine Learning. • Accompagner les clients sur les bonnes pratiques cloud et DevOps (CI/CD, GitOps). • Conduire les déploiements et intégrations. Tu as un esprit d'initiative, une curiosité pour les nouvelles technologies et une passion pour la data ? Ce poste est fait pour toi ! Localisation : Paris (avec télétravail possible). Postule dès maintenant et rejoins une équipe passionnée par la technologie !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.