Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
EXPERT(E) CLOUDOPS Confirmé (4-10 ans)
🚀 Nous recherchons un(e) Expert(e) CloudOps pour accompagner nos projets stratégiques dans un environnement DevOps et Cloud ! 🌍 Vos missions : ✅ Intégration d'applications dans un environnement de production Cloud (GCP/OpenShift). ✅ Automatisation des déploiements via CI/CD. ✅ Gestion du support en production et mise en exploitation de nouvelles versions. ✅ Collaboration avec les équipes pour mettre en place une démarche DevOps. Compétences techniques clés : 🔹 GKE/GCP (Confirmé - Impératif) 🔹 Ansible (Tower) (Confirmé - Impératif) 🔹 GitLabCI (Confirmé - Impératif) 🔹 Helm (Confirmé - Important) Profil recherché : 🔧 Vous avez 4 à 10 ans d’expérience et êtes passionné(e) par les technologies Cloud. 🗣 Vous maîtrisez le français (courant) et l’anglais (professionnel). 🌟 Vous êtes curieux(se), force de proposition et à l’écoute des innovations technologiques. Pourquoi rejoindre ce projet ? ➡️ Vous interviendrez sur des projets à forte valeur ajoutée, au cœur des enjeux DevOps, Cloud et d’automatisation. ➡️ Vous serez au contact des dernières technologies et participerez activement à la transformation numérique. Intéressé(e) ? 📩 Envoyez-nous votre profil ou MAIS postuler uniquement sur cet offre (les autres candidatures ne seront pas étudiés). Ouvert aux Cdi, freelance et à la SST
Mission freelance
IT Project Manager H/F
Missions : Mon client cherche à renforcer ses projets avec un chef de projet expérimenté et qualifié. Vous serez responsable de diriger les projets IT, de les structurer, d'assurer leur livraison et la gestion après le Go Live. Vous coordonnez les activités, assurez la communication avec les parties prenantes (analyste métier, responsable technique, product owner, équipe sécurité et GDPR, fournisseur, etc.), et garantissez la conformité et l'alignement avec leur cadre IT et les projets parallèles. Vous intégrerez une équipe performante et conviviale avec des ressources hautement qualifiées et engagées.
Offre d'emploi
Ingénieur.e DevOps
En tant qu’ingénieur.e DevOps, vous serez chargé.e d’assurer l’intégration, le déploiement et le support des applications dans l’environnement de production Cloud (GCP / Openshift) via des pipelines CI/CD. Votre rôle Analyse des besoins et veille technologique · Recueillir les informations et analyser les besoins en équipements matériels et logiciels · Préconiser et conseiller sur les choix de solutions informatiques en collaboration avec les architectes, les experts métiers et techniques tout en respectant les standards définis par l’entreprise · Rédiger les cahiers des charges et les appels d’offres puis analyser les propositions des fournisseurs en termes de performance, fiabilité et compatibilité · Réaliser une veille technologique pour optimiser les ressources systèmes de l’entreprise Mise en place et intégration · Concevoir ou paramétrer les logiciels sélectionnés en fonction des besoins identifiés · Configurer et dimensionner les solutions matérielles selon les performances requises · Tester les systèmes mis en place et veiller à la compatibilité des éléments entre eux · Contribuer à la validation technique lors des mises en production · Veiller à la sécurité et la fiabilité des systèmes de l’entreprise Exploitation · Valider l’installation et l’intégration des nouveaux outils (systèmes, réseaux et télécoms) · Diagnostiquer et résoudre les incidents ou anomalies tout en assurant leur suivi · Participer aux actions correctives de maintenance en veillant à leur qualité · Proposer des améliorations pour optimiser l’utilisation et l’organisation des ressources existantes · Rédiger et mettre à jour la documentation des procédures et consignes d’exploitation · Assurer le transfert de compétences et l’assistance technique aux équipes d’exploitation ainsi que leur formation si nécessaire Sécurité · Respecter et suivre les règles de sécurité définies par l’entreprise · Appliquer les plans de sauvegarde et de secours définis · Assurer la sécurité physique des données en termes de sauvegarde et d’archivage
Mission freelance
Consultant FinOps & GreenOps AWS / DevOps
Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.
Mission freelance
Data Analyst
Intégration de la solution Looker Accompagnement des équipes DEV pour la mise en place de solution Looker Optimisation de la plateforme Looker ( Gestion des coûts, intégration des nouvelles fonctionnalitées, ...) Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Français Professionnel (Impératif) Description détaillée Dans le cadre du déploiement de la plateforme Looker, la mission vise à mettre en place l'infrastructure nécessaire et à la rendre accessible aux Business Units (BU) ainsi qu'aux autres plateformes pour leur usage quotidien de la visualisation de données.
Mission freelance
DATA Engineer GCP H/F
Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP
Offre d'emploi
Développeur Salesforce Commerce Cloud (SFCC) H/F - IDF
Dans le cadre d'une mission de 6 mois pour l'un de nos clients en IDF, nous recherchons un(e) Développeur(se) Salesforce Commerce Cloud (SFCC) expérimenté(e). Vos missions principales : Développement back-end d'évolutions fonctionnelles et techniques sur la plateforme SFCC. Conception et développement de SCAPI/OCAPI. Maintenance corrective et évolutive. Participation aux phases de tests et de recette. Collaboration à la rédaction de la documentation technique. Profil recherché : Compétences techniques: Maîtrise approfondie de Salesforce Commerce Cloud (SFCC), notamment des parties back-end, Jobs, OCAPI/SCAPI. Expérience: Minimum 5 ans d'expérience en développement e-commerce avec SFCC. Technos: Postman, Swagger, XML, JSON, SOAP, Restfull, SQL, HTML/CSS, Bitbucket/Git, Jenkins, Jira/Confluence. Méthodologies: Agilité (Scrum/SAFe), DevOps. Qualités: Sens de l'analyse, rigueur, autonomie, esprit d'équipe. Bac+5 type école d'ingénieur ou parcours universitaire. Anglais courant Nous vous proposons : Mission de 6 mois en IDF (2j de présentiel par semaine) . Environnement technique riche et stimulant.
Offre d'emploi
Consultant RTE Senior - Paris
Nous recherchons un consultant RTE expérimenté pour piloter une cellule RTE au sein d'un environnement complexe et stimulant. Vous aurez sous votre responsabilité directe une équipe de 70 personnes, et jouerez un rôle clé dans la planification, le suivi et la qualité des livraisons dans un contexte Agile. Pilotage stratégique : Coordination de RTE et de leurs équipes. Supervision de la qualité des livrables et des KPIs associés. Gestion des plannings PIs et suivi des objectifs fonctionnels pour des sprints de deux semaines. Garantir le bon déroulement des 4 releases annuelles Interface SI et technique de leadership : Collaboration étroite avec les équipes en charge des systèmes d'information, en particulier sur les processus de livraison et projets SI. Interface avec les solutions cloud, notamment Salesforce , et intégration avec des systèmes existants (legacy). Outils et méthodologies : Utilisation quotidienne d'Excel, Jira, et Confluence pour le suivi et la communication. Mise en œuvre et optimisation des processus liés à la méthodologie Agile.
Mission freelance
Data Scientist
Votre mission consistera à : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA. - Mettre en œuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business - Collaborer avec les autres Data scientist de l'équipe - Industrialiser les solutions R&D - Assurer le RUN des services IA en production. - En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable Compétences techniques : Python - Expert - Impératif GCP - Confirmé - Impératif VertexAI - Expert - Impératif GenAI - Confirmé - Impératif
Offre d'emploi
INGENIEUR INFRASTRUCTURE PROXY SKYHIGH F/H | TOULOUSE (31)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur un projet de fusion d'infrastructure de proxy SKYHIGH. Des activités supplémentaires seront également envisagées sur des technologies comme F5, Fortinet, Ubika, Cisco ISE, Cisco Anyconnect, et Trellix. A ce titre, vous serez en charge de : Assurer la gestion des infrastructures de sécurité (pas de gestion des règles de sécurité). Effectuer l'intégration des infrastructures dans le réseau Réaliser l'administration avancée et le support technique. Environnement Technique : Skyhigh, F5, Fortinet, Ubika, Cisco ISE, Cisco Anyconnect, Trellix Le poste est basé en périphérie de Toulouse (31) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 10 jours de télétravail par mois. Des astreintes hebdomadaires, des permanences et des opérations HNO seront à prévoir.
Mission freelance
Ingénieur DevOps GCP/CICD/Automatisation
Nous recherchons un(e) Expert(e) CloudOps confirmé(e) avec une spécialisation en Google Cloud Platform (GCP) pour intégrer notre équipe et participer à l'accompagnement du Pôle DevOps sur des projets innovants et stratégiques dans le domaine du Cloud et de l'automatisation. Le candidat idéal devra posséder une solide expérience en gestion des environnements Cloud GCP, en particulier GKE/OpenShift, et maîtriser les processus d'automatisation des déploiements via CI/CD. Responsabilités : Intégrer les solutions logicielles ou matérielles livrées par les services d'études dans l'environnement de production Cloud GCP. Assurer le déploiement des applications via CI/CD et gérer le support nécessaire lors des incidents en production. Participer activement à la mise en exploitation de nouvelles applications ou versions.
Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S
Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.
Offre d'emploi
Architecte F5 H/F
L'expert F5 aura en charge la définition, l’évolution et l’optimisation des architectures réseau sécurisées basées sur les solutions F5. Missions principales : Conception d’architectures sécurisées : Concevoir, implémenter et maintenir des solutions d’équilibrage de charge, de sécurité applicative et d’accès sécurisé basées sur les technologies F5 (BIG-IP, ASM, APM, LTM). Garantir la robustesse, la performance et la conformité des solutions proposées avec les standards de sécurité du client. Analyse et conseil technique : Réaliser des études techniques pour évaluer les besoins en sécurité réseau des équipes métiers et projets. Proposer des améliorations et des évolutions adaptées aux nouveaux défis de la cybersécurité. Support et expertise : Intervenir en tant qu’expert F5 pour résoudre les incidents critiques et contribuer à la montée en compétences des équipes internes. Collaborer avec les équipes d’exploitation et de sécurité pour le déploiement et la maintenance des solutions. Veille technologique : Assurer une veille constante sur les technologies F5 et les innovations en cybersécurité. Proposer des adaptations en fonction des évolutions réglementaires et technologiques.
Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée
Mission freelance
Ingénieur CloudOPS GCP
Dans le cadre du renforcement de son équipe infra cloud, notre client recherche un nouveau profil orienté cloud GCP afin de prendre part au maintien et à l'évolution de l'infra des projets du client. En ce sens, vos missions seront : Analyse et veille technologique Recueillir et analyser les besoins techniques en collaboration avec les équipes d’architectes et métiers. Préconiser les meilleures solutions cloud pour répondre aux exigences de performance et de fiabilité. Participer à la rédaction des spécifications techniques et appels d’offre. Assurer une veille active pour rester à la pointe des innovations technologiques. Déploiement et intégration Déployer, configurer et automatiser les solutions sur des environnements cloud (GKE/GCP). Utiliser Helm pour la gestion des déploiements Kubernetes. Mettre en place et optimiser des pipelines CI/CD avec GitLab CI . Automatiser les configurations d’infrastructure avec Ansible (Tower) . Exploitation et amélioration continue Gérer les incidents techniques : diagnostic, résolution et suivi. Participer aux phases de validation et aux mises en production. Proposer des optimisations pour améliorer la performance, la scalabilité et la sécurité des environnements existants. Rédiger et maintenir la documentation technique. Sécurité des systèmes Appliquer les règles de sécurité et les plans de sauvegarde définis par l’entreprise. Garantir l’intégrité et la disponibilité des données. Processus : 2 entretiens Go - No Go
Mission freelance
Tech Lead / Architecte Looker
Dans le cadre du déploiement de Looker comme solution de Data Visualization, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide du groupe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.