Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Gouvernance Manager
Expérience : 10 années d’expérience minimum, dont 5 années au moins en tant que Data manager, avec une expérience déjà faites en déploiement de data platform. Environnement : AWS/Azure SQL/NoSQL languages, cloud AWS, Collibra ontexte : Depuis l’an dernier, ils ont déployé une data platform, cherchant à migrer des données vers cette plateforme. Il s’agit d’un projet transverse, donc il n’y a pas d’équipe faites pour l’instant de façon formel. Mission : Déploiement Data platform Déploiement des process et divers outils sur la plateforme
Offre d'emploi
Développeur Python Sénior
Nous recherchons un(e) Développeur Python Sénior pour intégrer une équipe dédiée à la modélisation des contrats et à la gestion des risques dans le secteur de l’énergie. Vous participerez activement au développement et à la maintenance de modules critiques tels que la gestion des contrats, le pricing, le tradefeed, le P&L et le risk management. Vos missions principales : Monter en compétence sur les traitements et applications existantes. Analyser les besoins métiers, rédiger des spécifications fonctionnelles et techniques. Proposer des solutions techniques adaptées et optimales. Concevoir, développer et tester des évolutions (codage, gestion des erreurs, scalabilité, sécurité). Implémenter des tests automatisés pour assurer la qualité des livrables. Participer aux travaux de migration de données et optimiser les performances des systèmes. Contribuer à la maintenance corrective et évolutive des applications. Travailler en étroite collaboration avec les Business Analysts, le Product Owner (PO), et les métiers. Documenter les développements (manuel d’utilisation, documentation technique). Assurer un support aux utilisateurs et monitorer la production (gestion proactive et réactive des incidents). Livrables attendus : Spécifications techniques détaillées. Développements informatiques conformes aux besoins. Tests automatisés et documentation associée. Mise en production des développements. Tableaux de bord d'activité.
Offre d'emploi
Manager de transition Data Science
Vous interviendrez en tant que Manager de transition pour piloter des projets à fort impact et ancrer une culture data driven au sein des équipes. Votre rôle Définition et mise en œuvre de la stratégie Data Élaborer et piloter la feuille de route pour les usages avancés de la data et de l'IA dans l’entreprise Intégrer une approche data product pour assurer une gestion complète du cycle de vie des outils développés, depuis leur conception jusqu'à leur déploiement et leur évolution Contribuer de manière proactive au développement de la culture Data dans l'entreprise Collaboration Collaborer avec l'ensemble des directions afin de comprendre leurs besoins, les traduire en « data » et livrer des outils d'aide à la décision adaptés Travailler en étroite collaboration avec les interlocuteurs techniques afin de faire évoluer les outils en adéquation avec les besoins et usages futurs Pilotage et accompagnement des équipes Animer et manager l'équipe dans la réalisation d'analyses et de modélisations pour répondre à des problématiques métier, et assurer la direction des projets Contribuer avec un regard expert aux projets possédant des composantes data et IA afin d’optimiser les dispositifs business, réduire les irritants clients et améliorer l'efficacité des processus
Mission freelance
Ingénieur SysOps Cloud
Titre du poste : Ingénieur SysOps Cloud Lieu : Toulouse Secteur : Leader de l'industrie aérospatiale Durée du projet : Contrat de 6 mois (renouvelable) Durée totale du projet : 3 ans Travail à distance : 3 jours sur site, 2 jours en télétravail par semaine À propos de l'entreprise Notre client est un acteur mondial de premier plan dans l'industrie aérospatiale, spécialisé dans la conception, la fabrication et la livraison de produits et services innovants aux compagnies aériennes et entreprises de l’aviation à travers le monde. Engagé dans le développement des technologies de pointe, il vise à améliorer la connectivité dans le secteur de l'aviation. Description du poste Nous recherchons un Ingénieur SysOps Cloud talentueux et passionné pour rejoindre notre équipe dynamique et innovante à Toulouse. En tant qu'Ingénieur SysOps Cloud, vous jouerez un rôle clé dans l'efficacité opérationnelle et l'optimisation des systèmes d'information de notre client. Vous serez responsable de la gestion des infrastructures informatiques, de la supervision des services, de la résolution des incidents et de l'amélioration continue. Responsabilités Maintenir l'état opérationnel de l'infrastructure interne. Analyser, résoudre et dépanner les problèmes de performance ou de scalabilité. Développer et maintenir la documentation de support opérationnel pour les équipes. Automatiser les tâches répétitives et gérer l’infrastructure globale. Assurer une supervision et une couverture d'alertes appropriées pour tous les systèmes. Fournir un support de niveau 3 dans votre domaine d'expertise. Compétences et qualifications requises : Automatisation & Infrastructure as Code (IaC) : Expertise en Ansible et Terraform pour l'automatisation des déploiements et de la maintenance. Dépannage : Solides compétences en résolution de problèmes pour diagnostiquer et résoudre efficacement les incidents. Langages de programmation : Maîtrise de Python. Processus & Pratiques : Connaissance des processus d'industrialisation, y compris les pratiques SysOps et DevOps. Virtualisation & Conteneurs : Expérience en virtualisation et orchestration de conteneurs, comme Docker et Kubernetes. Supervision : Capacité à superviser les systèmes avec des outils tels que Prometheus et Grafana. Formation & Expérience : Diplôme minimum BAC+2/3 en informatique. Au moins 3 ans d'expérience dans la gestion d'infrastructures cloud (AWS, Azure, OVH).
Mission freelance
Chef de Projet Move-to-Cloud (Azure/AWS) ▸ Energie
🔥 VOTRE MISSION au quotidien inclut les 3 axes suivants... Stratégie et Planification : Élaborer et mettre en œuvre des stratégies de migration Cloud adaptées aux besoins du client (Cloud-to-Cloud, On-Premise/Datacenter to Cloud). Établir des plannings détaillés de migration, incluant les jalons critiques et les dépendances. Identifier les risques liés à la migration et définir des plans de mitigation. Gestion de la Migration : Superviser et coordonner toutes les étapes des projets de migration : analyse des environnements existants, préparation des environnements Cloud, exécution des migrations, tests de validation. S'assurer de la continuité de service pendant la migration et de la sauvegarde des données critiques (application de la règle 3-2-1 de sauvegarde). Collaborer avec les équipes techniques pour résoudre les problèmes éventuels pendant la migration. Communication et Coordination : Assurer une communication opérationnelle fluide entre les équipes internes, les prestataires et les clients. Présenter l'état d'avancement des projets aux parties prenantes à travers des rapports réguliers. Conduire les réunions de projet et organiser les comités de pilotage. Gestion de la Sauvegarde et Sécurité : Maîtriser les enjeux de sauvegarde et de restauration dans le Cloud, en conformité avec la règle 3-2-1 (3 copies des données, 2 types de supports différents, 1 copie hors site). Assurer la sécurité des données pendant et après la migration.
Mission freelance
Développeur/euse NodeJS - Microservices
🚀 Opportunité Long Terme en Haute-Savoie ! Nous recherchons un développeur talentueux pour rejoindre l’équipe OnePLM dans l’environnement PDP (Product Digital Platform). Cette mission de longue durée vous permettra de jouer un rôle clé dans la création de connecteurs pour intégrer divers systèmes, en collaboration avec un autre développeur. Votre mission : ✔ Développer et documenter des solutions à partir de spécifications détaillées ✔ Travailler sur l’ingénierie de chargement/transformation des données ✔ Garantir la fiabilité des systèmes, le monitoring et le logging ✔ Intégrer les pratiques de sécurité dans le cycle de développement logiciel ✔ Appliquer les meilleures pratiques : tests unitaires, fonctionnels et de couverture Profil recherché : 🎯 5+ ans d’expérience en microservices 🎯 Stack technique : Node.js, Typescript, AWS (Lambda, SQS, Dynamo), Serverless, MongoDB, Angular 🎯 Solide compréhension de l’architecture microservices, systèmes événementiels, API, Agile, DevOps, CI/CD et Secure by Design 🎯 Anglais courant (écrit et parlé) Qualités clés : ✅ Esprit d’équipe ✅ Fiable, rigoureux et communicatif ✅ Esprit analytique avec une attitude proactive et positive Présence sur site requise : Plein temps au début, puis 3 jours par semaine sur site. 📅 Début de mission : Janvier 2025 ⏳ Durée : 12+ mois
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Offre d'emploi
Expert/Architecte Kafka/MSK/ELK
Nous recherchons un Expert/Architecte Kafka/MSK pour piloter la conception, la mise en œuvre et l’optimisation d’une infrastructure Kafka/ELK (ElasticSearch, Logstash, Kibana) multi-région. Ce projet stratégique vise à soutenir une organisation opérant à l’échelle internationale, avec des besoins exigeants en termes de réplication des données, de faible latence, de scalabilité et de résilience. Missions principales : Conception et architecture : Définir l’architecture globale du système Kafka/ELK multi-région, en étant attentif à la réplication cross-région, à la synchronisation des clusters Kafka et à la tolérance aux pannes. S’assurer de la compatibilité avec les standards internationaux en termes de sécurité, de réglementations des données et de performances. Implémentation : Installer et configurer Kafka sur AWS MSK ainsi que les solutions ELK associées. Gérer l’intégration avec des systèmes existants et assurer une migration sans interruption pour les clients internes. Configurer la réplication multi-région (MirrorMaker 2.0 ou autres outils adaptés). Optimisation et supervision : Mettre en place une stratégie de monitoring avancée pour Kafka et ELK (Kibana, Prometheus, Grafana, etc.). Optimiser les performances en équilibrant les charges entre régions et en minimisant les latences. Gérer les mises à jour et assurer la maintenance de l’infrastructure. Sécurité et conformité : Implémenter des mécanismes de sécurité avancés (chiffrement, authentification, autorisation) pour Kafka et ELK. Veiller à la conformité avec les réglementations locales et internationales (ex. : GDPR, CCPA). Support et formation : Fournir un support technique aux équipes internes. Documenter les procédures et former les équipes à l’utilisation et à la gestion de l’infrastructure.
Offre d'emploi
Ingénieur sécurité réseau azure
Fonctionnel : Participer aux audits et Risk Assessment liés à l’infrastructure Cloud (Azure). Assurer le suivi et la remédiation des points de sécurité relevés lors des audits. Technique : Participer aux projets de migration vers le cloud, en particulier sur les sujets de sécurisation des Landing Zones . Gérer les stratégies de backup dans un environnement Cloud sécurisé. Fonctionnel : Conduire des audits et Risk Assessment sur les infrastructures réseau, identifier les risques potentiels, et proposer des plans de remédiation. Assurer le suivi des mesures correctives. Technique : Gérer l' ouverture de flux réseau en toute sécurité, et procéder au hardening des Firewalls . Maîtriser l’utilisation de Firewalls Manager et la gestion de SDWAN et de NAC (Network Access Control). Suivre et assurer la remédiation / hardening des projets Proxy (Zscaler). Collaborer avec les équipes pour garantir la sécurité des flux réseaux et des équipements. Expérience Cloud : Expertise avérée sur Azure (audits, sécurité des projets de migration, remédiation, gestion des Landing Zones).❗ ANGLAIS COURANT ( Niveau B2 minimum attendu) ❗ Expérience Réseau : Bonne maîtrise des Firewalls , Proxy (Zscaler) , SDWAN , NAC , et hardening des infrastructures réseau .❗ Solides compétences en gestion des flux réseau et en sécurisation des projets de transformation . Certification sécurité (souhaitée) : (Ex : CISSP, CISM, Microsoft Certified: Azure Security Engineer Associate, etc.)
Mission freelance
Architecte AWS
Bonjour, Je suis à la recherche d’un Architecte AWS: Tâches : Concevoir et mettre en œuvre des solutions cloud sur AWS pour répondre aux besoins des clients. Développer des architectures scalables, sécurisées et robustes. Gérer et optimiser les environnements AWS pour des performances maximales. Intégrer et orchestrer des conteneurs à l'aide de Kubernetes. Implémenter et gérer des systèmes de messagerie et de streaming de données avec Kafka. Collaborer étroitement avec les équipes de développement et d'opérations pour assurer une livraison fluide des projets. Assurer une veille technologique et proposer des améliorations continues.
Offre d'emploi
MLOPS Engineer
En tant qu’Ingénieur MLOps Senior, vous aurez pour mission de développer et d’optimiser les outils internes de MLOps afin de soutenir l’ensemble du cycle de vie des modèles d’IA. Vous serez spécialisé(e) dans l’utilisation des GPU pour améliorer l’entraînment, le déploiement et le serving des modèles. Construire et optimiser les pipelines de données pour la gestion des jeux de données, l’entraînment, l’évaluation et le déploiement des modèles. Garantir la traçabilité et la reproductibilité des expériences. Améliorer la maintenabilité et l’évolutivité des composants de la plateforme, en environnements cloud (AWS) ou on-premise. Configurer et gérer les infrastructures GPU pour l’entraînment des modèles. Implémenter des techniques avancées comme le mixed-precision training, la quantification et l’optimisation d’inférence via Triton Server ou TensorRT. Réduire les temps de calcul en exploitant les outils comme cuDNN ou NVIDIA Nsight. Développer des solutions robustes pour le serving des modèles d’IA dans des environnements contraints (on-premise et cloud). Améliorer la scalabilité des serveurs d’inference multi-GPU pour gérer un grand volume de requêtes. Mettre en place des outils de monitoring et de benchmarking des performances des modèles. Intégrer les workflows d’entraînment et de déploiement dans des pipelines CI/CD (GitHub Actions, Nomad). Automatiser le réentraîment des modèles en continu. Maintenir des tests de non-régression pour garantir la stabilité des modèles en production. Effectuer une veille technologique pour identifier les nouvelles solutions et techniques (AutoML, Kubeflow, TFX). Diffuser les bonnes pratiques et former les membres de l’équipe à travers du mentoring et des sessions techniques.
Offre d'emploi
Developpeur senior Java/Node/Kotlin AWS
Bonjour, Dans le cadre de ses besoins clients, Visian est à la recherche d'un développeur Java/Node/Kotlin AWS. Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Backend conçoit, développe, déploie et maintient les fonctionnalités afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications Livrables • Développer des solutions backend de qualité : Conception, développement et maintenance des fonctionnalités backend. Contribution à la vie de l’équipe travaillant dans un cadre Agile. • Participation, dans le cadre des principes DEVOPS, au déploiement et au suivi de votre application. • Au sein d'un écosystème de projets variés, être force de proposition et au cœur de l'amélioration continue. Si vous êtes à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Mission freelance
Product Owner Data plateforme
Notre client recherche un Product Owner (PO) pour rejoindre une équipe Data Platform . L'équipe a pour objectif de maintenir et faire évoluer la plateforme data , en travaillant sur la définition de la roadmap , l' architecture et la construction des solutions techniques. Le PO collaborera avec une équipe pluridisciplinaire composée de 10 experts, incluant : Un Tech Lead Un Architecte Plusieurs DevOps et Data Engineers La plateforme repose sur une stack Databricks , des processus ETL (Talend) , et une infrastructure basée sur AWS . Vos missions : maintenir la roadmap produit en alignement avec les objectifs stratégiques. Rédiger et affiner le Product Backlog en collaboration avec les parties prenantes. Travailler en étroite collaboration avec le Tech Lead , l'Architecte et l'équipe DevOps/Data Engineers pour définir des solutions techniques efficaces. Faciliter les échanges avec les parties prenantes pour recueillir les besoins et s'assurer que les livrables répondent aux attentes. Organiser, et animer les rituels Agile (daily stand-up, sprint planning, reviews, retrospectives). Assurer un suivi des KPIs et de la performance des livrables pour une évolution continue de la plateforme. Processus : 1 entretien Go - No Go
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Offre d'emploi
Ingénieur Devops
Nous sommes à la recherche d'un(e) : Ingénieur Devops : - Mettre en place, maintenir et améliorer les pipelines CI/CD. - Automatiser les processus d'intégration et de déploiement continu. - Assurer la gestion des infrastructures sur le cloud (AWS, Azure, Google Cloud, etc.). - Collaborer avec les équipes de développement pour garantir la stabilité et la performance des applications. - Gérer et améliorer les outils de monitoring et d'alerting. - Contribuer à la mise en place de bonnes pratiques DevOps au sein de l'équipe.
Offre d'emploi
Devops AWS Senior
💡 Contexte /Objectifs Contexte de la mission Ces Plateformes Digitales s’appuient sur une chaine de CI/CD commune. Cette chaine de CI/CD appelée Walnut, constitue une plateforme technique déployée et maintenue par l’équipe éponyme. L’équipe Walnut s’occupe du déploiement, du maintien et de l’intégration de l’ensemble des outils composant la chaine de CI/CD d’Engie Digital. Elle porte également un rôle de conseil et de bonnes pratiques auprès des autres plateformes Digitales, mais aussi des BUs du groupe utilisant Walnut. Les outils majeurs maintenus par Walnut sont : Github Enterprise, Jfrog Artifactory, Jenkins Cloudbees CI, GitHub Actions, SonarQube, Squash-TM, Jira, Confluence. Ce patrimoine infrastructure et applicatif doit faire l’objet d’un suivi à plusieurs niveaux : • Technique (cycle de vie et obsolescence, MCO), • Facturation (FinOps), • Sécurité (SecOps), • Industrialisation (automatisation, supervision, scalabilité, Disaster Recovery Plan) • Run : Réponse aux demandes clients 💡 Les livrables attendus sont : • Scripts d’automatisation du déploiement de l’infrastructure • Programmes d’automatisation des différentes stacks • Documentation d’architecture et d’utilisation des livrables précédents De plus, l’ingénieur devra participer à la communauté de pratique DevOps : • Intervenir régulièrement aux réunions de la communauté DevOps • Présenter des REX et des démos • Intervenir aux Webinaires du Groupe (Cloud, Sécurité…)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?
- Démarrage Freelance - ARE ou ARCE + SASU ou AE
- Urgent Arce subtilité
- Obligé de faire la plonge pour survivre...
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE