Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Expert/Architecte Kafka/MSK/ELK
Nous recherchons un Expert/Architecte Kafka/MSK pour piloter la conception, la mise en œuvre et l’optimisation d’une infrastructure Kafka/ELK (ElasticSearch, Logstash, Kibana) multi-région. Ce projet stratégique vise à soutenir une organisation opérant à l’échelle internationale, avec des besoins exigeants en termes de réplication des données, de faible latence, de scalabilité et de résilience. Missions principales : Conception et architecture : Définir l’architecture globale du système Kafka/ELK multi-région, en étant attentif à la réplication cross-région, à la synchronisation des clusters Kafka et à la tolérance aux pannes. S’assurer de la compatibilité avec les standards internationaux en termes de sécurité, de réglementations des données et de performances. Implémentation : Installer et configurer Kafka sur AWS MSK ainsi que les solutions ELK associées. Gérer l’intégration avec des systèmes existants et assurer une migration sans interruption pour les clients internes. Configurer la réplication multi-région (MirrorMaker 2.0 ou autres outils adaptés). Optimisation et supervision : Mettre en place une stratégie de monitoring avancée pour Kafka et ELK (Kibana, Prometheus, Grafana, etc.). Optimiser les performances en équilibrant les charges entre régions et en minimisant les latences. Gérer les mises à jour et assurer la maintenance de l’infrastructure. Sécurité et conformité : Implémenter des mécanismes de sécurité avancés (chiffrement, authentification, autorisation) pour Kafka et ELK. Veiller à la conformité avec les réglementations locales et internationales (ex. : GDPR, CCPA). Support et formation : Fournir un support technique aux équipes internes. Documenter les procédures et former les équipes à l’utilisation et à la gestion de l’infrastructure.
Offre d'emploi
Ingénieur sécurité réseau azure
Fonctionnel : Participer aux audits et Risk Assessment liés à l’infrastructure Cloud (Azure). Assurer le suivi et la remédiation des points de sécurité relevés lors des audits. Technique : Participer aux projets de migration vers le cloud, en particulier sur les sujets de sécurisation des Landing Zones . Gérer les stratégies de backup dans un environnement Cloud sécurisé. Fonctionnel : Conduire des audits et Risk Assessment sur les infrastructures réseau, identifier les risques potentiels, et proposer des plans de remédiation. Assurer le suivi des mesures correctives. Technique : Gérer l' ouverture de flux réseau en toute sécurité, et procéder au hardening des Firewalls . Maîtriser l’utilisation de Firewalls Manager et la gestion de SDWAN et de NAC (Network Access Control). Suivre et assurer la remédiation / hardening des projets Proxy (Zscaler). Collaborer avec les équipes pour garantir la sécurité des flux réseaux et des équipements. Expérience Cloud : Expertise avérée sur Azure (audits, sécurité des projets de migration, remédiation, gestion des Landing Zones).❗ ANGLAIS COURANT ( Niveau B2 minimum attendu) ❗ Expérience Réseau : Bonne maîtrise des Firewalls , Proxy (Zscaler) , SDWAN , NAC , et hardening des infrastructures réseau .❗ Solides compétences en gestion des flux réseau et en sécurisation des projets de transformation . Certification sécurité (souhaitée) : (Ex : CISSP, CISM, Microsoft Certified: Azure Security Engineer Associate, etc.)
Offre d'emploi
Ingénieur Java confirmé - Secteur Finance F/H
Vous êtes intéressé par l’environnement bancaire et ses enjeux ? Alors rejoignez-nous ! Dans un univers bancaire et technologique en forte transformation, vous évoluerez dans des domaines fonctionnels variés : monétique, assurance, finance, banque en ligne, paiement mobile, application smartphone... Et vous pourrez vous challenger sur des sujets multiples : digitalisation, dématérialisation, Big Data, Intelligence Artificielle, Cloud, etc. Intervenir sur des activités back-end et front-end ; Participer à la conception, la modélisation d'applications Web stratégiques et leurs évolutions ; Concevoir les tests unitaires et fonctionnels ; Participer à la migration du parc applicatif vers le Cloud ; Être garant des bonnes pratiques projet et veiller à la qualité des développements ; Être force de proposition au sein des comités techniques et entretenir un lien privilégié avec l’architecte solution pour définir les orientations du produit et garantir les normes qualité et sécurité ; Mettre en place et maintenir les chaînes d’intégration continue (CI/CD) dans un contexte DevOps. Stack technique : Java, Spring Boot, Spring Batch, Sprint Security, Angular, PostgreSQL, Elasticsearch, Jenkins, API REST Outils : GitLab, Docker, Kubernetes, Azure, AWS, Google Cloud Méthodologie : Agile Équipe : Intégré dans les locaux de l'agence nantaise (à Saint-Herblain) et dans les locaux de notre client (Nantes centre) Encadrement : La méthode SOLENT ! Un management technique, couplé à un parcours d'onboarding jalonné d'objectifs clairs qui te permettront de monter en compétences rapidement et efficacement sur le projet. 👉 Vous êtes diplômé d’une école d’ingénieur ou équivalent universitaire en développement logiciel ? 👉 Vous avez entre 4 à 8 ans d'expérience professionnelle en développement Java ? 👉 Vous avez des compétences en DevOps ? 👉 Vous maîtrisez Git ? 👉 Vous souhaitez développer vos compétences techniques dans des environnements multiples ? 👉 Vous avez un bon niveau d’anglais (oral et écrit) ? 👉 Vous possédez d'excellentes compétences en communication interpersonnelle et en collaboration d'équipe ? 👉 Vous êtes avide de challenge ? De technique ? 👉 Vous avez un sens critique ? Un sens du service ? Un esprit de synthèse ? Une rigueur et une organisation dans vos projets ? Si vous vous reconnaissez, alors n’hésitez plus et rejoignez nos équipes pour une nouvelle aventure ! Nous cherchons aujourd’hui nos talents de demain… 🦸♀️🦸♂️
Mission freelance
Architecte AWS
Bonjour, Je suis à la recherche d’un Architecte AWS: Tâches : Concevoir et mettre en œuvre des solutions cloud sur AWS pour répondre aux besoins des clients. Développer des architectures scalables, sécurisées et robustes. Gérer et optimiser les environnements AWS pour des performances maximales. Intégrer et orchestrer des conteneurs à l'aide de Kubernetes. Implémenter et gérer des systèmes de messagerie et de streaming de données avec Kafka. Collaborer étroitement avec les équipes de développement et d'opérations pour assurer une livraison fluide des projets. Assurer une veille technologique et proposer des améliorations continues.
Offre d'emploi
MLOPS Engineer
En tant qu’Ingénieur MLOps Senior, vous aurez pour mission de développer et d’optimiser les outils internes de MLOps afin de soutenir l’ensemble du cycle de vie des modèles d’IA. Vous serez spécialisé(e) dans l’utilisation des GPU pour améliorer l’entraînment, le déploiement et le serving des modèles. Construire et optimiser les pipelines de données pour la gestion des jeux de données, l’entraînment, l’évaluation et le déploiement des modèles. Garantir la traçabilité et la reproductibilité des expériences. Améliorer la maintenabilité et l’évolutivité des composants de la plateforme, en environnements cloud (AWS) ou on-premise. Configurer et gérer les infrastructures GPU pour l’entraînment des modèles. Implémenter des techniques avancées comme le mixed-precision training, la quantification et l’optimisation d’inférence via Triton Server ou TensorRT. Réduire les temps de calcul en exploitant les outils comme cuDNN ou NVIDIA Nsight. Développer des solutions robustes pour le serving des modèles d’IA dans des environnements contraints (on-premise et cloud). Améliorer la scalabilité des serveurs d’inference multi-GPU pour gérer un grand volume de requêtes. Mettre en place des outils de monitoring et de benchmarking des performances des modèles. Intégrer les workflows d’entraînment et de déploiement dans des pipelines CI/CD (GitHub Actions, Nomad). Automatiser le réentraîment des modèles en continu. Maintenir des tests de non-régression pour garantir la stabilité des modèles en production. Effectuer une veille technologique pour identifier les nouvelles solutions et techniques (AutoML, Kubeflow, TFX). Diffuser les bonnes pratiques et former les membres de l’équipe à travers du mentoring et des sessions techniques.
Offre d'emploi
Developpeur senior Java/Node/Kotlin AWS
Bonjour, Dans le cadre de ses besoins clients, Visian est à la recherche d'un développeur Java/Node/Kotlin AWS. Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Backend conçoit, développe, déploie et maintient les fonctionnalités afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications Livrables • Développer des solutions backend de qualité : Conception, développement et maintenance des fonctionnalités backend. Contribution à la vie de l’équipe travaillant dans un cadre Agile. • Participation, dans le cadre des principes DEVOPS, au déploiement et au suivi de votre application. • Au sein d'un écosystème de projets variés, être force de proposition et au cœur de l'amélioration continue. Si vous êtes à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Mission freelance
Product Owner Data plateforme
Notre client recherche un Product Owner (PO) pour rejoindre une équipe Data Platform . L'équipe a pour objectif de maintenir et faire évoluer la plateforme data , en travaillant sur la définition de la roadmap , l' architecture et la construction des solutions techniques. Le PO collaborera avec une équipe pluridisciplinaire composée de 10 experts, incluant : Un Tech Lead Un Architecte Plusieurs DevOps et Data Engineers La plateforme repose sur une stack Databricks , des processus ETL (Talend) , et une infrastructure basée sur AWS . Vos missions : maintenir la roadmap produit en alignement avec les objectifs stratégiques. Rédiger et affiner le Product Backlog en collaboration avec les parties prenantes. Travailler en étroite collaboration avec le Tech Lead , l'Architecte et l'équipe DevOps/Data Engineers pour définir des solutions techniques efficaces. Faciliter les échanges avec les parties prenantes pour recueillir les besoins et s'assurer que les livrables répondent aux attentes. Organiser, et animer les rituels Agile (daily stand-up, sprint planning, reviews, retrospectives). Assurer un suivi des KPIs et de la performance des livrables pour une évolution continue de la plateforme. Processus : 1 entretien Go - No Go
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Offre d'emploi
Devops AWS Senior
💡 Contexte /Objectifs Contexte de la mission Ces Plateformes Digitales s’appuient sur une chaine de CI/CD commune. Cette chaine de CI/CD appelée Walnut, constitue une plateforme technique déployée et maintenue par l’équipe éponyme. L’équipe Walnut s’occupe du déploiement, du maintien et de l’intégration de l’ensemble des outils composant la chaine de CI/CD d’Engie Digital. Elle porte également un rôle de conseil et de bonnes pratiques auprès des autres plateformes Digitales, mais aussi des BUs du groupe utilisant Walnut. Les outils majeurs maintenus par Walnut sont : Github Enterprise, Jfrog Artifactory, Jenkins Cloudbees CI, GitHub Actions, SonarQube, Squash-TM, Jira, Confluence. Ce patrimoine infrastructure et applicatif doit faire l’objet d’un suivi à plusieurs niveaux : • Technique (cycle de vie et obsolescence, MCO), • Facturation (FinOps), • Sécurité (SecOps), • Industrialisation (automatisation, supervision, scalabilité, Disaster Recovery Plan) • Run : Réponse aux demandes clients 💡 Les livrables attendus sont : • Scripts d’automatisation du déploiement de l’infrastructure • Programmes d’automatisation des différentes stacks • Documentation d’architecture et d’utilisation des livrables précédents De plus, l’ingénieur devra participer à la communauté de pratique DevOps : • Intervenir régulièrement aux réunions de la communauté DevOps • Présenter des REX et des démos • Intervenir aux Webinaires du Groupe (Cloud, Sécurité…)
Mission freelance
Développeur ElasticSerach/OpenSearch
Réaliser la migration ElasticSearch V1.8 d'une application existante vers OpenSearch sur AWS Implémenter, développer et maintenir les fonctionnalités en JAVA/Angular 7+ Réaliser les tests unitaires et les tests de bout en bout avec l’appui du PO Participer à l’animation de l’équipe (daily meeting, atelier de partage) Produire les documents techniques correspondants (spécifications techniques) Travail dans un cadre agile Safe et participation aux rituels (PI planning, démo, …) Forte autonomie ; esprit d’analyse, de synthèse et de pédagogie ; capacités à documenter, à communiquer ainsi qu’à convaincre. Excellent relationnel, capacité à interagir aussi bien avec les équipes DEV qu’avec les équipes OPS.
Mission freelance
AWS Plateform Engineer
Nous recherchons un AWS Plateform Engineer Mission : Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS Sera amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de TotalEnergies de developper et faire tourner leurs applications Cloud. “You build it you run it” : participera aux activités de RUN liées à la plateforme Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles "Infra as Code” : Développera des modules Terrraform et pipeline CICD pour deployer/configurer/gouverner l’infrastructure (aucun déploiment sera fait manuellement via la console AWS). “User centric” : sera à l’écoute des utilisateurs du produit et recherchera leur feedback, documentera pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Maitrise la rédaction / présentation orale en Anglais. Environnement : "as code" (Terraform, CDKTF, Python, Github, Github Actions, AWS(services)) Python Shell AWS Identity (IAM, Fédération) Operate an AWS organization with hundreds of AWS accounts Github Actions and Repository Confluence / Jira Postman / Bruno SRE (Backup, Monitoring, CloudWatch, Prometheus, Grafana, Chaos monkey, SLA, SLO, etc.) CDKTF Events Driven Solutions (EventBridge, Step Functions) Git aws-cli Cybersecurity (AWS Network Firewall, WAF, SecurityHub, Config, CloudTrail, SCP, RBAC, ACM) Terragrunt Terraform (+Provider aws) FaaS (Lambda), IaaS (SSM, EC2) Network (Routing, Peering, IPAM, Direct Connect, VPN, DNS) finops
Offre d'emploi
Data Manager – Driver Monitoring System (F/H)
📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous recherchons un.e Data Manager pour renforcer notre équipe dédiée à la validation du Driver Monitoring System (DMS), un système avancé de surveillance basé sur des caméras embarquées. Ce dispositif enregistre des données précieuses sur l’état de fatigue, de vigilance et de stress des conducteurs, afin d’améliorer la sécurité sur la route. Vos responsabilités : Assurer la gestion des données de validation (collecte, traitement, stockage, archivage) pour le système DMS. Tâches principales : - Collecter et stocker des données issues de disques durs provenant des véhicules (volumes massifs, incluant des vidéos en streaming). - Assurer l'archivage et estimer les coûts liés au stockage long terme des données. - Superviser le transfert des données vers les différents sites clients. - Garantir la conformité RGPD dans toutes les opérations de gestion des données. - Intégrer les données dans des bancs de test pour la validation du système. - Évaluer et mettre en œuvre des solutions Cloud (GCP, AWS, Azure).
Mission freelance
Freelance - Architecte DevOps Sénior H/F
En tant qu'Architecte DevOps Senior, vous jouerez un rôle clé dans la transformation technique et organisationnelle de notre SI. Vous serez amené(e) à : Collaborer avec les équipes Infrastructure et Logiciel pour assurer le Maintien en Condition Opérationnelle (MCO) du SI tout en optimisant les architectures techniques ON-PREM et CLOUD . Maintenir et améliorer la chaîne CI/CD , en garantissant sa robustesse, sa fiabilité et sa scalabilité. Concevoir et industrialiser des infrastructures DevOps modernes, incluant le provisioning réseau, la sécurité, et les infrastructures sous-jacentes. Travailler en synergie avec les équipes Cybersécurité pour garantir un environnement sécurisé et conforme. Assurer la cohérence des choix architecturaux en étroite collaboration avec les architectes DEV et OPS . Participer activement à la résolution des incidents de production, en analysant les causes et en proposant des solutions durables.
Offre d'emploi
Product Owner Big Data - SQL - RGPD - CNIL
La Direction Data met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données pour en accélérer l’usage. Elle accompagne les différentes offres et la croissance des offres (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension des usages et l’amélioration de l’expérience utilisateurs. Pour maximiser la valeur ajoutée issue de nos données, nous avons mis en place une Data Platform structurée en trois zones : - Une zone Bronze qui collecte, nettoie, centralise, et expose la donnée brute - Une zone Silver qui transforme les données brutes en données raffinées pour servir tous les usages métiers dans leur ensemble - Une zone Gold qui transforme les données raffinées pour servir les cas d’usages métiers du pilotage, de la personnalisation et de la data Science L’équipe en charge de la zone Bronze est l’équipe big Data composée d’un Product Owner Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. Missions de l’équipe Big Data - Conception et maintenance de la zone Bronze : Gérer les données brutes, de leur collecte à leur centralisation, en assurant leur nettoyage, - Intégration en continue : Assurer l’intégration, le nettoyage et la validation continue des données, - Optimisation des flux de données : Améliorer les pipelines pour garantir des traitements efficaces et scalables, - Veille technologique : Intégrer les meilleures pratiques et innovations en Big Data pour optimiser la gestion de données brutes.
Offre d'emploi
DATA ENGINEER APACHE/FLINK
Nous recherchons un(e) Ingénieur(e) Data/Expert(e) Apache Flink passionné(e) par le traitement de données en flux et par lots. Vous serez chargé(e) de contribuer au développement, à l’optimisation et à la maintenance d’applications Apache Flink, tout en collaborant étroitement avec des équipes multidisciplinaires. Ce poste vous permettra de travailler sur des projets stratégiques liés au traitement des données, en garantissant des performances élevées, une grande évolutivité et une fiabilité optimale des applications Flink en production. Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique. Profil recherché Expertise technique : Maîtrise d’Apache Flink pour le traitement par lots et en flux. Excellentes compétences en programmation : Java ou Scala, et SQL. Bonne connaissance des technologies Big Data : Hadoop et Spark. Expérience confirmée dans l'utilisation des services de données AWS. Expérience professionnelle : Participation à des projets de production avec Apache Flink. Démonstration de la capacité à optimiser des pipelines Flink pour des performances élevées.
Offre d'emploi
Data Analyst (H/F)
Contexte • Mission : Support transverse pour améliorer la performance opérationnelle des métiers via la valorisation des données. • Objectifs : Maintenir et développer des tableaux de bord Power BI pour des besoins métiers variés, améliorer la qualité des données et sensibiliser les métiers à leur importance. • Livrables attendus : Tableaux de bord Power BI, alertes qualités ciblées, vues / datasets spécifiés pour développement par le Data Engineer, et plans de test pour recette, supports et comptes-rendus des réunions avec les métiers, reporting projet, documentation des tableaux de bord, des règles qualités, des règles métiers, des erreurs rencontrées en production. • Lieu et télétravail : Montpellier, 3 jours sur site / 2 jours de télétravail • Début : Entretiens à partir du 03/01/2025.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?
- Démarrage Freelance - ARE ou ARCE + SASU ou AE
- Urgent Arce subtilité
- Obligé de faire la plonge pour survivre...
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE