Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur Devops Azure / GCP / On-Premise
Automatisation des déploiements : En collaboration avec les différentes équipes techniques, l’ingénieur participera à la conception et la gestion des automatismes du système d'information : intégration, déploiement en continu en utilisant des services des Cloud public tels qu’Azure et GCP ou des solutions logicielles et infrastructures OnPremise. Le déploiement se fera via les outils Gitlab CI, Broadcom Nolio, et s’appuiera sur des technologies tel qu’Ansible, Terraform et Docker. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques dans les pipelines CI/CD. Cela inclus l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, la gestion des artefacts, etc. Garantir l'intégrité permanente des automatismes au regard des évolutions des produits Résolution des problèmes : L’ingénieur devra être en mesure de diagnostiquer et résoudre des problèmes de nature multiples (CI, CD, configuration, infrastructure, etc..). Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Il/elle devra également fournir un support aux équipes d’exploitation dans le cadre du traitement d’alertes ou d’incidents. Gestion des outils ALM : L’ingénieur devra s’assurer de bon fonctionnement et de l’évolution des outils ALM (Gitlab, Sonar, TFS, JIRA, etc…). Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production et les autres membres de l’équipe afin de garantir que les solutions proposées conjuguent les meilleures pratiques Devops, les contraintes techniques et de sécurité ainsi que les besoins des projets. Il/elle participera à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus. Contribuera au déploiement des pratiques DevOps au sein de l’entreprise. Participera au cadrage des projets dans son domaine de compétences : analyse des besoins et contribution aux chiffrages de la partie technique

Mission freelance
Ingenieur de Production Devops - GCP (H/F)
Au sein de la Production Applicative Décisionnelle de notre client, vous jouerez un rôle central dans la gestion, l'intégration et l'exploitation de solutions techniques infogérées. Vous contribuerez aux missions stratégiques de notre pôle DATA et garantirez le bon fonctionnement de nos plateformes en conditions opérationnelles. Vos principales missions : - Gestion de projet : Conduite de projets (gestion des ressources, reporting, COPILs) en lien avec les équipes et les unités métiers. - Intégration technique : Prise en charge de l'intégration de nouvelles solutions, et optimisation des solutions existantes. - Exploitation & Sécurité : Supervision des plateformes techniques, garantie de leur disponibilité et conformité aux normes de sécurité et d'audit. - Gestion des incidents critiques : Prise en charge des incidents majeurs (analyse, diagnostic, résolution), coordination avec les experts et support éditeurs. - Coordination multi-intervenants : Interface entre les experts techniques et les éditeurs, assurant le suivi des actions nécessaires. - Documentation technique : Rédaction des manuels d'exploitation et des procédures de sauvegarde et supervision. Conditions et environnement de travail : - Horaires décalés (HPO) et astreintes hebdomadaires ou week-end possibles. - Un bon niveau d'anglais (oral et écrit) est impératif pour les échanges avec les équipes et partenaires internationaux. Vous êtes expert en Google Cloud Platform, confirmé en Scripting Shell et gestion de projets ? Vous souhaitez intégrer un environnement dynamique et collaboratif ? Rejoignez-nous et contribuez activement à l'innovation et à la performance de notre Pôle DATA ! Compétences techniques recherchées : - Scripting SHELL : Confirmé - Impératif - Google Cloud Platform (GCP) : Expert - Impératif - Gestion de projet : Confirmé - Important - Big Query : Junior - Important - Systèmes : Linux - Ordonnanceurs : VTOM, CTL-M - Technologies : Apache, CFT, Git, Jenkins, XLD, XLR - Réseaux : TCP/IP, RP, FW Connaissances supplémentaires appréciées : - Bases de données (Oracle, Teradata, SQL) - Solutions BI : BO, Cognos - Compétences en DevOps et Cloud
Mission freelance
Intégrateur d'exploitation confirmé
Nous recherchons un intégrateur d'exploitation expérimenté pour une mission de 3 ans auprès de notre client final à Lille. Expertise avec Dollar Universe (expérience significative) Assurer la maintenance et le suivi opérationnel (MCO) Gérer les demandes d’évolution des plans de production Résoudre les incidents et garantir le bon fonctionnement du RUN Fournir un support utilisateur Compétence en Automic Workload Automation / Automic Automation (expérience significative) Gérer la MCO (infrastructure cloud, haute disponibilité, DRP, mises à jour majeures à venir…) Traiter les demandes d’évolution des plans de production Résoudre les incidents et assurer le RUN Apporter un support aux utilisateurs Suivre une formation sur l’outil basé sur Linux & cron Garantir la MCO Gérer les demandes d’évolution des plans de production Résoudre les incidents et maintenir le RUN Offrir un support aux utilisateurs Optimisation des automatisations des processus d’exploitation : Utilisation d’Ansible via une CI/CD et Secret Manager Réalisation d'analyses approfondies de manière autonome , en identifiant les causes racines, les plans d'action et en assurant le suivi des actions mises en place Contribuer à l’agilité de l’équipe en créant des user stories Monter en compétences sur une nouvelle offre d'orchestration , avec un focus sur les environnements GCP/Azure et Kubernetes.
Mission freelance
Data engineer Sénior
Nous sommes à la recherche d'un data engineer sénior pour une mission longue durée pour un client de grand compte dans le secteur de la grande distribution. Contexte et missions : Conception et optimisation de pipelines de données sur GCP (BigQuery, Cloud Functions). Modélisation des données et optimisation des requêtes SQL. Mise en place de solutions de monitoring et maintenance des pipelines. Encadrement d'une petite équipe et collaboration avec les équipes métiers. Compétences requises : Maîtrise de GCP, SQL, Python. Connaissances Kafka, Airflow/Composer. Sens de la qualité des données et de la sécurité. Plus de 5 ans d'expérience autant que data engineer Connaissance Data Studio, Looker

Mission freelance
DevOps GCP
Vous intégrerez une petite structure innovante, éditeur de logiciels spécialisé dans la data, pour intervenir sur des problématiques d'infrastructure et d'automatisation. En tant que DevOps GCP , vous serez en charge de : Concevoir et déployer des infrastructures cloud sur Google Cloud Platform . Mettre en place et optimiser des pipelines CI/CD. Superviser les environnements avec des outils adaptés Garantir la sécurité, la performance et la disponibilité des systèmes. Collaborer avec les équipes data et développement pour répondre aux besoins métiers.

Mission freelance
Expert Data GCP
Bonjour à tous, MISSION FREELANCE - DÉMARRAGE IMMÉDIAT !! TOUS LES PROFILS AYANT UN PRÉAVIS, LE CLIENT NE RETIENDRA PAS VOTRE PROFIL. Je recherche pour un de mes clients un expert Google Cloud Platform (GCP) avec des capacités en Data Modelling, Data Governance & Data Architecture. • Tâches de la mission : o Migration/Organisation du Projet Client dans GCP (7-10 jours de travail) o Data Mapping (au niveau information) : schéma entre les différentes tables (5 jours de travail) o Documentation des tables : décrire les tables du Datamart (15 jours de travail)

Mission freelance
TECH LEAD - JAVASPRINGBOOT & GCP & SQL
Description détaillée Dans le domaine Product Master Data, nous te proposons d’intervenir en tant que TechLead dans les équipes chargées de faire évoluer les produits digitaux gérant le référencement produit (vendus en ligne ou en magasin), à destination d’utilisateurs répartis dans les différents pays A ce titre, tu es notamment en charge : ● De concevoir et aider à la réalisation de solutions robustes et efficientes. ● De contribuer aux études et définitions des spécifications applicatives et techniques de la solution ● De participer à l’ensemble des rituels agiles (Daily meetings, Affinage, Sprint review, Retrospective) En tant que TechLead, tu connais les nouvelles tendances et opportunités technologiques et tu sais les partager. Tu es en relation avec les différents pôles au sein du domaine Product Master Data, et plus généralement de la plateforme digitale Produit (PDP). Profil et technologies : De formation technique, tu as acquis une expérience de 10 ans minimum dans le développement Java. Tu maîtrises parfaitement le développement d’API, l’utilisation de Kafka et les modèles de bdd.

Mission freelance
Développeur FullStack
Développeur FullStack C/Pro C/BASH/Shell Contexte Dans le cadre d’un projet stratégique, nous recherchons un Développeur FullStack expérimenté en C, Pro C et BASH/Shell pour assurer le développement et la maintenance d’applications critiques. Missions: Développement et maintenance en C, Pro C et BASH/Shell Analyse des besoins fonctionnels et techniques Développement des User Stories (JIRA) et correction des anomalies Relecture de code (Peer Review) et corrections Gestion des obsolescences techniques et recodage si nécessaire Mise à jour des versions système et logicielles Rédaction de documentation technique Réalisation de tests unitaires et d’intégration Participation aux réunions Agile (SCRUM) Support technique et gestion des incidents Astreinte d’une semaine par mois sur une application stratégique Livrables Attendues: Code source documenté sur GitLab Spécifications techniques et procédures User Stories et cahiers de tests unitaires

Mission freelance
Un Architecte Solution GCP et GKE (Google Kubernetes Engine) sur Nantes
Smarteo recherche pour l'un de ses clients, Un Architecte Solution GCP et GKE sur Nantes Description: Expertise en conception et déploiement de solutions sur Google Kubernetes Engine (GKE). Connaissance approfondie des services Google Cloud Platform (GCP). Expérience en architecture de microservices et conteneurisation (Docker, Kubernetes). Compétences en sécurité des applications cloud et gestion des identités. Capacité à fournir des solutions évolutives et résilientes. Expérience souhaitée en migration progressive de systèmes existants avec la mise en œuvre de modèle tels que le Strangler Pattern ou l'utilisation du DDD (Domain Driven Design) Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Mission freelance
Product Owner Data/BI GCP
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique qui maitrise l’environnement GCP – BigQuery (obligatoire). Vous avez une bonne connaissance de PowerBI dans l’idéal. Vous êtes rompus aux techniques de l’agilité SAFe et Scrum. Démarrage : mi-mars Lieu : Paris intra-muros Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Scope de la mission : Gestion de la Backlog : Prendre en charge la backlog autour de notre Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins de nos métiers Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité Amélioration continue : Piloter le plan d’amélioration des performances de notre Dataplatform, de la qualité de nos programmes, de notre stratégie de test et de réduction des couts Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI

Mission freelance
Devops - Cloud engineer
En tant que Devops/cloud engineer, vous serez responsable de : La mise en place et l'optimisation de notre infrastructure as code avec Terraform sur GCP Le déploiement et la gestion de clusters Google Kubernetes Engine (GKE) L'automatisation des processus de déploiement et d'infrastructure La mise en place des bonnes pratiques DevOps et SRE L'amélioration continue de notre plateforme cloud Livrables Attendus Infrastructure as Code complète et documentée sur Terraform Clusters GKE optimisés et sécurisés Documentation technique détaillée Processus d'automatisation des déploiements Mise en place des bonnes pratiques et standards

Offre d'emploi
Data Engineer Finops
À propos de l’entreprise Spécialisée dans l’analyse et l’activation des données issues de la grande distribution, l'entreprise développe des solutions technologiques innovantes permettant aux industriels d’engager leurs consommateurs grâce à l’ultra personnalisation et au gaming. Grâce à des technologies avancées en intelligence artificielle et en data engineering, ils offrent des solutions performantes d’animation e-commerce adaptées aux enjeux du secteur. Descriptif du poste Face à une forte croissance et à des ambitions d’expansion à l’international, nous renforçons notre équipe data en recrutant un Data Ops spécialisé en finops (H/F) . 📌 Missions principales Sous la responsabilité du Lead Infra , vous aurez pour mission de : Assurer la scalabilité et la fiabilité des services utilisant la donnée face à une forte croissance des volumes. Gérer l’ensemble des pipelines de données, processus ETL et transformations, avec des tests automatisés et manuels. Optimiser les services existants pour améliorer les performances et réduire les coûts. Être force de proposition sur les choix d’architecture et les innovations technologiques. Collaborer avec les différentes équipes (marketing, R&D, produit, finance) pour garantir la cohérence des projets. Assurer un reporting rigoureux des activités et résultats. 📌 Compétences requises Maîtrise d’un ou plusieurs langages structurés (Python, JavaScript, Java, C/C++, Scala…). Expérience avec les bases de données SQL et NoSQL. Connaissance des technologies Big Data et de la Modern Data Stack (dbt, Airflow…). Expérience sur une plateforme Cloud (GCP, Azure, AWS). Sensibilité aux enjeux FinOps et optimisation des coûts. Capacité à collaborer avec différentes disciplines et équipes.

Mission freelance
Data Engineer
Cahiers de test Suivi d'avancement Dashbords / Explore Looker Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif SAP BI 4.2 (Univers et rapport ) - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Français Courant (Impératif) Description détaillée Le client a lancé un programme de migration de l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports SAP BO (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU.

Mission freelance
Data Engineer GCP SSIS (Google Cloud Platform)
Je recherche pour un de mes clients un Data Engineer GCP ayant des connaissances sur SSIS afin d' accompagner ce dernier dans le RUN SSIS et la migration sur GCP. Vous intégrer une équipe Hyper sympa. Vous participerez à l’analyse et planification de la migration SQL Serveur (on prem) vers GCP Experience avec Data Form Expérience dans la mise en place de pipeline ETL et ELT Maitrise des langages SQL et Python travailler en équipe et excellente compétence en communication Connaissance de SQL serveur serait un plus Certification GCP est un plus Capacité au former et faire monter une équipe en compétence sur GCP

Offre d'emploi
Data Engineer GCP, Scala/Java Confirmé | Casabalanca 100% Remote
Nous recherchons un Data Engineer Confirmé (h/f) pour rejoindre les équipes Data d’un grand acteur du retail . L’objectif ? Concevoir, développer et maintenir des solutions de traitement de données à grande échelle dans un environnement 100% Cloud (GCP) et Full Remote . Tu évolueras dans un cadre stimulant où la data est au cœur des décisions stratégiques et où l’innovation technologique est une priorité ! Concevoir et développer des pipelines de données en Scala/Java et Spark Exploiter des outils GCP (BigQuery, BigTable, Dataproc) pour le stockage et le traitement des données Mettre en place des solutions de streaming en temps réel avec Kafka Travailler sur une architecture Data Centric , cassant les silos d’information pour fluidifier la gestion des données Assurer la qualité, la performance et la scalabilité des solutions Collaborer avec des équipes internationales et multidisciplinaires 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, BigTable, Dataproc, Cloud Storage) Développement : Scala, Java, SQL Big Data & Streaming : Spark, Kafka CI/CD & DevOps : Git, Kubernetes, GitLab CI/CD Méthodologies : Agile, Microservices

Mission freelance
Architecte technique IT
Nous recherchons pour l'un de nos clients un Architecte technique IT. L’architecte technique est le garant du design détaillé de la solution d'infrastructure et il fait valider ses designs lors d’étapes de gouvernance auprès du management. Il est aussi amené à déployer lui-même des PoC dans le cadre d'étude de nouvelles solutions, notamment il étudie et propose des évolutions sur les designs des services d'infrastructure (landing zone cloud, clusters Kubernetes et ecosystème, redondance, disaster recovery plan, authentification, réseau et firewalling, stockage, … ). Expertise attendue : Azure (Services de base : EntraID, Network, Compute, Database, Storage, …) (Conception et déploiement) (Bon niveau) GCP (Services de base) (Niveau débutant ou plus) Kubernetes / AKS / GKE (Niveau débutant ou plus) Infra as code (Expérience concrète)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.