Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
88331/SUPPORT ANALYST/Analyst Exploitation GCP Cloud Indre
SUPPORT ANALYST Indre La Prestation nécessite en Prérequis : avoir pratiqué en environnement GCP (1-2 ans), ils n’attendent pas un expert sur le sujet La Prestation consiste à • Gérer des Infrastructures Cloud : o Déployer, configurer et maintenir des services et des applications sur Google Cloud Platform. o Assurer la surveillance proactive et la gestion des incidents sur l'infrastructure GCP. o Implémenter et gérer des environnements multi-cloud et hybrides. • Optimisation des Performances : o Analyser les performances des systèmes et proposer des améliorations. o Optimiser l'utilisation des ressources pour réduire les coûts et améliorer l'efficacité. o Automatiser les tâches répétitives en utilisant des scripts et des outils d'automatisation (Terraform, Ansible, etc.). • Sécurité et Conformité : o Garantir la sécurité de l'infrastructure cloud en appliquant les meilleures pratiques de sécurité. o Assurer la conformité avec les normes et les réglementations en vigueur. o Mettre en place et gérer des politiques de sauvegarde et de récupération des données. • Support et Collaboration : o Travailler en étroite collaboration avec les équipes de développement pour assurer l'intégration continue et le déploiement (CI/CD). o Fournir un support technique et une formation aux équipes internes. o Documenter les procédures et les configurations pour faciliter la maintenance et le support. Compétences et Qualifications : • Compétences Techniques : o Maîtrise de Google Cloud Platform (GCP) et de ses services (Compute Engine, Cloud Storage, BigQuery, etc.). o Expérience avec des outils d'infrastructure en tant que code (IaC) tels que Terraform et Ansible. o Bonne compréhension des concepts de réseaux, de sécurité et de gestion des identités sur GCP. o Compétences en scripting (Python, Bash, etc.).
Mission freelance
Data Ops Engineer
Mission : Le DataOps Engineer a pour rôle clé de concevoir et optimiser des infrastructures fiables et scalables pour répondre aux besoins de l'entreprise. Il accompagne le cycle complet de delivery, en veillant à la qualité des livrables tout en animant et encadrant les équipes dans un environnement Agile/DevOps. Il met en place des pipelines de données et automatise les processus de développement (CI/CD) afin de garantir l'efficacité et la fluidité des opérations. En collaboration avec les experts métiers, il participe à l’estimation des charges de travail, au suivi du backlog et à la planification des sprints. En plus de superviser la qualité du code, il contribue à l'acculturation des bonnes pratiques DevSecOps et Data Engineering, tout en assurant le support technique pour résoudre des problématiques complexes et former les nouveaux arrivants.
Mission freelance
88331/SUPPORT ANALYST/Analyst Exploitation GCP Cloud Indre
SUPPORT ANALYST Indre La Prestation nécessite en Prérequis : avoir pratiqué en environnement GCP (1-2 ans), ils n’attendent pas un expert sur le sujet La Prestation consiste à • Gérer des Infrastructures Cloud : o Déployer, configurer et maintenir des services et des applications sur Google Cloud Platform. o Assurer la surveillance proactive et la gestion des incidents sur l'infrastructure GCP. o Implémenter et gérer des environnements multi-cloud et hybrides. • Optimisation des Performances : o Analyser les performances des systèmes et proposer des améliorations. o Optimiser l'utilisation des ressources pour réduire les coûts et améliorer l'efficacité. o Automatiser les tâches répétitives en utilisant des scripts et des outils d'automatisation (Terraform, Ansible, etc.). • Sécurité et Conformité : o Garantir la sécurité de l'infrastructure cloud en appliquant les meilleures pratiques de sécurité. o Assurer la conformité avec les normes et les réglementations en vigueur. o Mettre en place et gérer des politiques de sauvegarde et de récupération des données. • Support et Collaboration : o Travailler en étroite collaboration avec les équipes de développement pour assurer l'intégration continue et le déploiement (CI/CD). o Fournir un support technique et une formation aux équipes internes. o Documenter les procédures et les configurations pour faciliter la maintenance et le support. Compétences et Qualifications : • Compétences Techniques : o Maîtrise de Google Cloud Platform (GCP) et de ses services (Compute Engine, Cloud Storage, BigQuery, etc.). o Expérience avec des outils d'infrastructure en tant que code (IaC) tels que Terraform et Ansible. o Bonne compréhension des concepts de réseaux, de sécurité et de gestion des identités sur GCP. o Compétences en scripting (Python, Bash, etc.).
Offre d'emploi
Ingénieur DevOps Expérimenté
Bonjour, Nous sommes à la recherche d'ingénieurs DevOps pour notre client de renom basé en France. Dans le cadre de cette mission, vous serez responsable de la gestion et de l'optimisation des infrastructures cloud et on-premise. Vous interviendrez dans un environnement technique exigeant et contribuerez à l'automatisation des processus de déploiement et de supervision. Vos principales responsabilités seront : Automatisation des processus CI/CD pour assurer des déploiements continus et fiables. Supervision et optimisation des environnements de production. Maintenance et gestion des infrastructures cloud (AWS, Azure, GCP) et on-premise. Résolution des incidents et amélioration des performances des systèmes. Collaboration avec les équipes de développement pour garantir une intégration fluide. Mise en place de solutions de monitoring et de sécurité pour assurer la stabilité des environnements.
Offre d'emploi
Data Architect
Contexte et Enjeux de la Mission : Dans le cadre d’une transformation numérique ambitieuse , une grande entreprise française, leader dans son secteur, recherche un(e) Data Architect pour moderniser et unifier son écosystème de données. Le projet se concentre principalement sur l’implémentation et l’optimisation d’une architecture sur Google Cloud Platform (GCP) , visant à améliorer la gestion des données à grande échelle et la qualité des insights pour les équipes métiers. Basé à Lille , vous interviendrez à un moment clé de ce projet stratégique, avec pour objectif de créer une architecture évolutive, scalable et résiliente, tout en facilitant l'exploitation des données pour l'ensemble des départements. Vos Responsabilités : Conception et mise en place d’une architecture data robuste sur Google Cloud Platform (GCP), en accord avec les meilleures pratiques de gestion des données et de sécurité. Structurer et gérer les pipelines de données pour garantir des flux fluides, fiables et sécurisés. Assurer la qualité et la gouvernance des données via la mise en place de standards, d’outils de monitoring, et de processus de validation. Collaborer de manière étroite avec les équipes Data Engineering et Data Science pour maximiser l’utilisation des données et proposer des améliorations continues. Apporter une vision stratégique à long terme, en anticipant les évolutions nécessaires pour adapter l'architecture aux besoins futurs de l'entreprise. Documenter les solutions et former les équipes internes sur l'utilisation et la maintenance des nouvelles structures.
Mission freelance
Lead Tech IaaS / Cloud DevOps
Technologies : IaaS (Windows/linux, VM Cloud), GCP, GCE, MIG, Filestore, Terraform, Ansible, Python Descriptif de la prestation : Dans le cadre de la plateforme IaaS, le Lead Tech a pour mission de guider et orienter l'équipe dans ses choix technologiques tout en adoptant une posture de coach technique. Il travaillera en étroite collaboration avec le Product Owner (PO) pour assurer la réussite des projets. Responsabilités : - Participer activement à l'ensemble des cérémonies Agile de l'équipe IaaS. - Servir de point de contact technique entre la plateforme IaaS et les autres plateformes Cloud. - Co-construire et alimenter le backlog en collaboration avec le PO. - Contribuer directement à la réalisation des sujets techniques, au même titre que les membres DevOps de l'équipe. Compétences requises : - Excellente maîtrise des environnements GCP (ou AWS/Azure), notamment sur les problématiques IaaS et Cloud Functions/Lambda. - Expertise dans l'utilisation de Terraform, Ansible et Python. - Expérience confirmée du travail en environnement Agile et en collaboration étroite avec des équipes. Objectifs : - Collaborer avec le PO pour alimenter le backlog de l'équipe IaaS (utilisation de Jira et Confluence). - Contribuer à la réalisation et la livraison des tickets techniques issus du backlog
Mission freelance
Senior Data Architect (Snowflake)
Je suis à la recherche d'architectes de données seniors pour un projet à long terme de bout en bout. Rôle : Architecte de données senior Durée du contrat : Long terme Lieu : Paris : Paris Travail hybride Date de début : Fin octobre/début novembre Vous rejoindrez une nouvelle mission à long terme pour superviser un projet de transformation complet pour notre client. Vous travaillerez sur la modélisation et l'architecture des données, en partant de zéro. Profile: Vous avez une expérience confirmée de plusieurs projets d'architecture de données, idéalement à partir de zéro. Une solide expérience et connaissance de l'architecture de Snowflake, y compris le partage des données, la mise à l'échelle et les pratiques de sécurité. Compétence dans la conception et l'optimisation des bases de données Snowflake Capacité à créer des modèles de données complexes et à architecturer des pipelines ELT/ETL à l'aide d'outils tels que SNowpipe, Google Dataflow ou d'autres services GCP. Forte compréhension de la confidentialité des données, des normes de sécurité et des meilleures pratiques, y compris la gestion de l'accès, le cryptage et la conformité. Anglais courant
Offre d'emploi
CLoud DevOps - GenAI
Dans le cadre de ces développements, le DataLab Groupe souhaite confier à un expert Cloud DevOps/AI Engineer, venant en renforcement de son équipe usine logicielle, la mission suivante : - Travailler sur des sujets de migration de solution « on premise » vers le cloud ; - Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; - Assurer l’intégration dans les architectures cible : Configurer les plateformes, Industrialiser les architectures, Définir les accès aux ressources et les optimiser ; - Assister à l’élaboration de solutions et leurs optimisations ; - Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative ; - Rédiger les documents techniques et des livrables projets ; - Améliorer les architectures actuelles ; - Transférer la connaissance et la compétence aux internes du DataLab Groupe. Résultats Attendus des Livrables : Le consultant sera accompagné par l’équipe usine logicielle. Il devra, par ailleurs, fournir les livrables suivants : - Une documentation conforme aux exigences du DataLab Groupe ; - Un support de l’ensemble des applications gérées en interne ; - Un support de l’ensemble des applications de nos entités et déployés par le DataLab Groupe ; - Codes sources commentés et « reviewés » ; - Intégration de tests unitaires des fonctionnalités développées ; Présentation et partage des travaux.
Offre d'emploi
Tech Lead GCP Bigquery Looker
Nous recherchons un Tech Lead Data expérimenté pour rejoindre l'équipe client et piloter des projets data stratégiques. Vous aurez un rôle clé dans la conception et la mise en œuvre de solutions de data pipeline, d’analytique et de reporting, tout en accompagnant une équipe d’ingénieurs data. Vous interviendrez principalement sur des technologies telles que BigQuery , DBT , Looker , SQL et Airflow . Vous justifiez d’au moins 8 ans d’expérience en tant qu’ingénieur data ou Tech Lead, avec une expertise démontrée sur l'environnement technique. Une expérience dans le retail est un plus.
Mission freelance
IT Infrastructure Architect
JCW est à la recherche d'un Architect Infrastructure pour l'un de ces clients. Profil recherché: 5 ans d'expérience en tant qu'Architecte Infrastructure minimum Maitrise impérative des outils techniques: VMware - Kubernetes - Redhat Openshift - GCP - Bid Data - C4 Model Bonne connaissance de l'architecture SI Maitrise impérative des outils: Windows - Unix/Linux Sotckage Nas/SAN/DAS Une bonne connaissance des technologies de VMWare Virtualization et leurs outils La mission: Démarrage au plus tot Localisation: Ile-de-France et Paris intramuros Duree: 12 mois initial plus extension Langues: Français et Anglais professionnel Si vous êtes intéressé ou connaissez des personnes qui pourraient l'être, envoyez-moi votre/ leurs CV à pour une considération immédiate.
Mission freelance
Consultant BI
Intégré dans une équipe projet transverse aux équipes Enjeux Digital Data, ayant pour objectif de décommissionner l’outil Business Object, la mission sera de: - Préparer et réaliser les tests des tableaux de bord (y compris la pertinence des données) - Analyser les résultats et rédiger le rapport de tests - Identifier et traiter les dysfonctionnements éventuels - Identifier les opportunités d'amélioration et formuler des recommandations pour optimiser les tableaux de bord - Accompagner les métiers dans leur montée en compétence sur l’outil
Mission freelance
Consultant DevOps
Technologies : AMQ, KAFKA, APIGEE, BUCKET GCP, Scripts, code Terraform pour CI/CD, Procédures, Scripting (Shell, Python), Git, Argo, Kubernetes, Ansible Descriptif de la prestation : Participer au sein de l'équipe Plateforme Échanges en tant que DevOps dans un contexte Agile (Agile Master + Product Owner) sur des évolutions spécifiques des plateformes d'échanges AMQ, KAFKA, APIGEE et BUCKET GCP. Améliorer l'industrialisation, la sécurisation, la résilience et la supervision des plateformes d'échanges : AMQ, KAFKA, APIGEE, Bucket GCP et SFTP. Travailler sur la résilience d'APIGEE et KAFKA, ainsi que sur l'accompagnement auprès des équipes produits vers la fin d'usage d'AMQ. Mise en place du portail APIGEE Integrated Portal. - Cloud Provider Public (idéalement GCP) - Scripting (Shell, Python) - Terraform, Git, Argo, Kubernetes, Ansible, scripts, code Terraform pour CI/CD, procédures
Offre d'emploi
Infrastructure Architect (Ref : AG)
Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)
Mission freelance
Architecte cloud GCP (H/F)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Architecte cloud GCP (H/F) Conception et mise en œuvre d'architectures Cloud : Vous serez responsable de concevoir des solutions robustes, évolutives et sécurisées sur la plateforme Google Cloud Platform (GCP) . Migration vers le Cloud : Accompagnement des entreprises dans leur transition vers GCP, en veillant à la continuité des opérations et à l'optimisation des coûts. Collaboration avec les équipes techniques : Travailler en étroite collaboration avec des équipes DevOps, de sécurité et d'infrastructure pour intégrer et maintenir les solutions cloud. Gestion de la sécurité et conformité : Mettre en place des mesures de sécurité pour protéger les données tout en garantissant que les architectures respectent les normes de conformité, comme le RGPD. Automatisation et orchestration : Utiliser des outils comme Terraform, Kubernetes, et Ansible pour automatiser les tâches et optimiser la gestion des infrastructures.
Mission freelance
Consultant SecOps (H/F)
Notre client recherche un freelance avec une forte connaissance GCP pour travailler sur le backlog Secops des équipes devops. Dans le cadre de sa recherche, notre client souhaite une prestation d’expertise cloud GCP (LandingZone notamment) pour réaliser les activités suivantes : - Travail en agilité (Scrum, Kanban) - Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO - Relation de proximité et en binôme avec un membre de l'équipe - Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plate-forme Cloud - Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6) Livrables : Module Terraform Document de formation/accompagnement pour les équipiers Documentations techniques formalisée dans les outils internes (Jira / confluence)
Offre d'emploi
Architecte Data Azure - Paris H/F
Rejoignez Inventiv IT et façonnez l'avenir avec nous 🚀 Vous êtes un(e) Architecte Data Azure passionné(e) par les Big Data et la transformation digitale ? Rejoignez-nous pour concevoir et implémenter des architectures data de pointe sur Azure, en dirigeant des projets innovants dans le Cloud et en assurant la qualité des livrables 🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en Avec 7 ans d'expérience au minimum. Travaillant sur des sujets Big Data & Data Viz Participation à l’évaluation et à la livraison de composants Azure . Gestion du Build & du Run des applicatifs Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks . Implémentation de solutions utilisant Azure SQL Database , Azure Data Factory , et Azure SQL Managed Instance . Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data . Définition des solutions d’architecture Big Data dans le Cloud Azure . Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT) . Migration des projets dans des nouvelles architectures ( HDI vers AKS , Datalake Gen1 vers Gen2 , AKS 1.19 vers AKS 1.X ) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod . Participation à des instances de : Design Authority , CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel). Validation de l'architecture du Product Incrément , à des réunions de qualification. Validation avec le RSSI et suivi de chantiers de résilience et de suivi FinOps . Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI , ainsi que gestion de la sécurité des données. Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.