Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur DEVOPS Cloud GCP
Nous recherchons un ingénieur DEVOPS Cloud GCP passionné par les technologies Cloud et prêt à relever de nouveaux défis pour rejoindre notre équipe dynamique et innovante. Responsabilités : Concevoir, mettre en œuvre et gérer des solutions Cloud sur la plateforme Google Cloud Platform (GCP) Travailler en étroite collaboration avec les équipes de développement pour automatiser les processus de déploiement et de gestion de l'infrastructure Garantir la sécurité et la disponibilité des applications Fournir des conseils et des recommandations pour optimiser les coûts et améliorer les performances de l'infrastructure Cloud
Mission freelance
Data Analyst GCP Python appétence Date ingénierie
PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un Data Analyst passionné par la Data Ingénierie pour rejoindre une équipe dynamique dans un environnement stimulant. En tant que Data Analyst , vous jouerez un rôle clé dans l’analyse et la gestion des données au sein d’une organisation innovante. Vous interviendrez également sur des aspects techniques de la data ingénierie pour optimiser et structurer les pipelines de données. Compétences requises : • Excellente maîtrise de GCP pour la gestion des pipelines et des infrastructures cloud. • Expertise en SQL pour extraire, manipuler et analyser des données complexes. • Connaissance avancée de Python pour automatiser les processus et gérer les workflows. • Expérience avec dbt pour transformer les données. • Utilisation de Argo pour l’orchestration des workflows. • Maîtrise de Terraform pour le déploiement d’infrastructures cloud. • Capacité à créer des rapports visuels et dynamiques avec Power BI .
Mission freelance
Cloud Security Engineer
Cloud Security Engineer, freelance, 12 mois de contrat, 95% remote Opportunité attrayante pour un(e) Ingénieur(e) Cloud Sécurité chevronné(e) de rejoindre notre client, pure player international de la cyber sécurité, du cloud et de l’IA qui protège des millions de particuliers et de professionnels tous les jours ! Vous rejoindrez une équipe cloud et cyber hautement performante où vous pourrez proposer votre propre vision de la sécurité du cloud ! Principales missions : · Audit des infra cloud existantes, · Préconisations et recommandations, · définition et mise en place de la détection de menaces sur le cloud public et privé, · Amélioration continue de la détection du Soc sur le cloud public (Azure / AWS) et privé, · identification des logs nécessaires, · proposition de nouvelles alertes en fonction des risques et menaces, · production de procédures pour les nouvelles activités et amélioration des procédures existantes, · amélioration continue de la détection du Soc, · sélection de nouveaux logs, amélioration de l’analyse des logs existants, · études de scenarios en rapport avec la matrice des risques sur le cloud public et privé, · Veille technologique. Contexte technique : • Cloud public (AWS ET Azure) et privé • Sécurité du cloud
Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure
Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible
Mission freelance
Data Engineer GCP Finance
Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Développeur Back-End Java/ Cloud - Toulouse (H/F)
Dans le cadre du développement de ses activités, notre client va rechercher un développeur freelance expérimenté sur la partie Back-end. Vous participerez à la réalisation et à la maintenance de nos différentes applications commercialisées en mode SaaS, et à nos applications mobiles à destination de nos clients. Vous travaillerez selon la méthodologie Agile (ShapeUp) et avec un état d’esprit DevOps. Poste disponible à Toulouse 3 jours de présentiel sur site, 2 jours de TT Anglais courant / écrit est obligatoire
Offre d'emploi
CLoud DevOps - GenAI
Dans le cadre de ces développements, le DataLab Groupe souhaite confier à un expert Cloud DevOps/AI Engineer, venant en renforcement de son équipe usine logicielle, la mission suivante : - Travailler sur des sujets de migration de solution « on premise » vers le cloud ; - Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; - Assurer l’intégration dans les architectures cible : Configurer les plateformes, Industrialiser les architectures, Définir les accès aux ressources et les optimiser ; - Assister à l’élaboration de solutions et leurs optimisations ; - Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative ; - Rédiger les documents techniques et des livrables projets ; - Améliorer les architectures actuelles ; - Transférer la connaissance et la compétence aux internes du DataLab Groupe. Résultats Attendus des Livrables : Le consultant sera accompagné par l’équipe usine logicielle. Il devra, par ailleurs, fournir les livrables suivants : - Une documentation conforme aux exigences du DataLab Groupe ; - Un support de l’ensemble des applications gérées en interne ; - Un support de l’ensemble des applications de nos entités et déployés par le DataLab Groupe ; - Codes sources commentés et « reviewés » ; - Intégration de tests unitaires des fonctionnalités développées ; Présentation et partage des travaux.
Mission freelance
FinOps Manager
Contexte : Nous recherchons un manager FinOps expérimenté pour diriger le développement et la mise en œuvre d'un modèle opérationnel et de gouvernance des opérations financières (FinOps) complet pour notre environnement multicloud, qui comprend AWS, GCP et Azure. L’intervenant sera chargé d'établir les meilleures pratiques, d'optimiser les coûts du cloud et d'assurer la responsabilité financière dans l'ensemble de notre infrastructure cloud. Cette mission requiert une compréhension approfondie de la gestion financière du cloud, d'excellentes compétences analytiques et la capacité de travailler en collaboration avec des équipes interfonctionnelles. MISSIONS : Développer et mettre en œuvre un cadre de gouvernance FinOps complet pour la gestion des coûts du cloud sur AWS, GCP et Azure Établir et maintenir un modèle opérationnel qui comprend des politiques, des procédures et des meilleures pratiques pour la gestion financière du cloud Collaborer avec les architectes du cloud, les ingénieurs et les équipes financières pour optimiser l'utilisation des ressources du cloud et réduire les coûts Contrôler et analyser les dépenses liées à l'informatique en nuage, en fournissant régulièrement des rapports et des informations aux parties prenantes Mettre en œuvre des mécanismes de répartition des coûts et de refacturation pour garantir la responsabilité financière et la transparence Développer et maintenir des tableaux de bord et des outils de reporting pour suivre les dépenses et l'utilisation de l'informatique dématérialisée Procéder à des examens réguliers de l'utilisation et des dépenses liées à l'informatique dématérialisée afin d'identifier les possibilités de réduction des coûts et d'optimisation Assurer la formation et le soutien des équipes sur les meilleures pratiques en matière de gestion des coûts liés à l'informatique dématérialisée Se tenir au courant des derniers développements en matière de gestion financière du cloud et de pratiques FinOps
Offre d'emploi
Architecte Oracle Cloud (H/F) 🚀
👍 Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Architecte Oracle Cloud (H/F) 🚀 🌟 Votre mission est pour un groupe familial qui depuis plus de 150 ans, est un acteur international des métiers de l'ingénierie et des services. Ses 73 000 collaborateurs œuvrent au quotidien pour contribuer à créer des environnements toujours plus sains, sûrs et fiables🌟 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Définir l'architecture des processus métiers avec Oracle Fusion Cloud ; 🔸 Identifier les besoins et prioriser les processus à transformer ; 🔸 Diriger la conception et l'implémentation des solutions ; 🔸 Assurer la cohérence des processus métiers dans toute l'organisation ; 🔸 Suivre les indicateurs de performance des projets ERP ; 🔸 Maintenir une veille sur les évolutions d’Oracle Fusion Cloud et des solutions ERP.
Mission freelance
Ingénieur Cloud and DevOps (H/F)
Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent Vous avez un bon niveau d'anglais.
Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Mission freelance
Administrateur Citrix
Responsabilités: ---------- Analyse les besoins des clients et conçoit des solutions Citrix efficaces Implémente et maintient les solutions Citrix pour les clients Fournit des services de support technique pour les solutions Citrix existantes Développe des programmes de formation pour les clients et les employés Surveille les tendances et les développements technologiques dans le domaine de Citrix Évalue régulièrement et améliore les processus de prestation de services Citrix Exigences: ---------- Expérience antérieure dans la gestion d'environnements Citrix Cloud, Netscaler et Citrix Workspace Expérience dans l'optimisation des environnements pour un accès distant efficace Bonne connaissance des protocoles de connexion Solides compétences en résolution de problèmes pour traiter les problèmes liés à Citrix, Netscaler et Google Cloud Plateforme Compétences en gestion de projet pour coordonner les déploiements de la solution Citrix et la maintenance des systèmes Connaissance approfondie des systèmes d'exploitation Windows pour être en mesure de travailler efficacement sur des environnements Citrix Bonne capacité à documenter les solutions et à former les utilisateurs finaux Esprit d'équipe et capacité à travailler efficacement avec les autres membres de l'équipe informatique
Mission freelance
Data Analyste GCP / SQL / Big Query / Expertise métier en grande distribution
Une offre de solutions de data analyse et de collaboration destinée à nos partenaires industriels ainsi qu’aux directions internes , à l’échelle internationale ainsi qu’à l’échelle nationale dans chaque pays, L’ambition de cette plateforme est de permettre une collaboration forte et transparente sur toute la chaîne de valeur. Description du poste Ce poste est rattaché à la Directrice Data Links. Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer et analyser les données du Data Lake du groupe ; Participer au cadrage des nouvelles fonctionnalités ; Organiser des master-class pour partager ses connaissances métiers à son équipe Designer les nouveaux Dashboard de nos produits insights (chemins d’analyse, KPIs, représentation graphique, etc) ; Ecrire les spécifications des nouvelles fonctionnalités ; Réaliser les tests post développement, puis automatiser les recettes ; Être force de proposition pour améliorer les solutions développées et identifier des opportunités de nouvelles analyses, pour répondre aux besoins de nos utilisateurs Notre stack data : GCP, BigQuery, Looker Studio
Mission freelance
Administrateur N3 Infrastructure Cloud & Système
Missions principales et activités Améliorer de façon continue ls composants technologique sus les axes o Simplicité d’exploitation ou en cas de PRA (DRP) o Efficience financière o Obsolescence · Gérer le cycle de vie des composants technologiques · Réaliser le transfert des tâches du N3 vers le N2 · Améliorer la chaine de livraison des composants (IaC / playBook / automation) · Être ressource des projets et des pays clients de l’opérateur Groupe · Assurer le support de Niveau 3 avec les équipes N2 et l’infogérant
Mission freelance
SysOps GCP 3
Contexte: Nous recherchons un profil de type SysOps (ingénierie des briques applicatives) capable de comprendre les services du socle GCP et les services applicatifs GCP liés à la « Data ». Il devra être en mesure de proposer des configurations sécurisées de ces services applicatifs permettant de les proposer comme briques de base futures pour un déploiement. MISSIONS : Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions ciblées, Fournir en amont à l’architecte référent les éléments nécessaires à la mise en œuvre côté client (dossiers d’architecture CATE), Prendre en compte la sécurité des ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement, Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections, Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’infrastructure du socle GCP, Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements GCP, Assurer la généricité des pipelines.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes