Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
SecOps / IaaS Senior – GCP/AWS/Azure
Nous recherchons un expert en SecOps/IaaS pour intégrer notre équipe plateforme IaaS . Si vous avez une expérience significative sur GCP, AWS ou Azure et une maîtrise des outils d'automatisation comme Terraform, Ansible et Python , nous serions ravis de vous rencontrer ! Vous rejoindrez une équipe dynamique qui adopte une méthodologie agile (Kanban) et applique le principe "You run it, you build it" . Vous serez responsable du Build, du Run, du MCO , ainsi que des astreintes pour assurer le maintien en conditions opérationnelles. Responsabilités : Créer des scripts Python , des modules Terraform , et des playbooks Ansible pour l'automatisation. Gérer des VMs sous Linux (RHEL) et Windows Server . Participer à la gestion complète du cycle de vie des infrastructures en tant que membre clé de l'équipe. Assurer une communication active et partager les connaissances avec les autres membres de l'équipe. Compétences techniques requises : Cloud Public : GCP (idéalement), AWS ou Azure. Technologies : GCE, GCS, CloudFunction (ou équivalents AWS/Azure). Outils d'automatisation : Maîtrise de Terraform , Ansible , Python (obligatoire). CI/CD et Gestion du code : GitHub , Jenkins . Administration Système : Windows Server , RHEL (Linux).
Mission freelance
Directeur Programme Data/BI (H/F)
Notre client, acteur majeur du secteur industriel, recherche un Directeur Programme Data/BI (H/F) pour piloter des projets stratégiques liés à la gouvernance des données et à l'optimisation des systèmes d’information. Basé à Toulouse, vous aurez un rôle clé dans la mise en place d'une stratégie data performante dans un environnement stimulant. Vos missions : * Gérer et piloter des programmes Data/BI en assurant la cohérence et l’efficacité des solutions déployées. * Assurer la gouvernance des données et l’intégration des systèmes d’information dans un environnement cloud (connaissance du domaine supply chain ou finance serait un plus). * Superviser la mise en œuvre des outils de planification (MRP II) et contribuer à l’optimisation des processus métier. * Collaborer étroitement avec les équipes techniques pour garantir la bonne intégration des systèmes de gestion de données dans les différents départements. * Promouvoir les meilleures pratiques en matière de gouvernance de données et d’analyse BI pour améliorer la performance et la prise de décision. Compétences techniques : * Solide expertise en gouvernance des données et en gestion de programmes Data/BI dans un environnement cloud. * Expérience dans la mise en place de solutions MRP II et l’optimisation des processus industriels. * Connaissance des secteurs industriels tels que le ferroviaire ou la pharmaceutique serait un atout. * Maitrise des méthodologies de gestion de projets et de la planification stratégique.
Offre d'emploi
CHEF DE PROJET DATA PLATEFORME COMPLIANCE
A/ Déclinaison de la stratégie de gestion des données dans le cadre des projets - Cartographie des données dès la phase de définition des besoins - Identification avec le métier les données importantes (critiques, sensibles, stratégiques, confidentielles…) - Accompagnement de la mise en œuvre des contrats d’usage définis par les métiers - Validation de la définition et l’application des règles de contrôles d’intégrité, sécurité et protection de la donnée - Accompagnement de la mise en œuvre des exigences de qualité et plans de contrôle définis par le métier - Prise en compte des exigences sur les données dans la stratégie de test B/ Déclinaison de la stratégie de gestion des données dans le cadre de la maintenance - Intégration de la maintenance des cartographies de flux de données (linéage) - Evaluation de la dette sur la qualité, l’intégrité, la sécurité et la protection des données dans le cadre des revues régulières C/ Pilotage de l’alignement des roadmaps : - Veille de l’alignement avec le cadre de référence du Data Management - Définition du plan de remédiation de la qualité, l’intégrité, la sécurité et la protection des données sur son périmètre - Contribution à l’identification des pistes de rationalisation des espaces de stockage et des outils de reporting sur son périmètre - Contribution à la mise en œuvre d’un outillage adapté
Mission freelance
Data Engineer Lille (profil local et expérimenté)
L'équipe DCF (Data Component and Framework) est une équipe transverse dont l'objectif est de construire un socle technique et des outils permettant à chaque Business Unit local ou international de mettre en place en autonomie ses Uses cases Data. Environnement technique : • Stockage : Google Cloud Storage • Base de données : BigQuery, Datastore, Firestore, MongoDB • Monitoring : Stackdriver • Ordonnanceur : Airflow puis Google Cloud Composer • Compute: Cloud Function, Compute engine • API: App Engine, Cloud run, FastAPI • Déploiement : Terraform, Pulumi • Versioning : Git • Langage: Python, Shell • CICD : Cloud build, Github Action
Offre d'emploi
Lead Tech IaaS / Devops Cloud
Dans le cadre de la plateforme IaaS, le Lead Tech a pour mission de guider et orienter l'équipe dans ses choix technologiques tout en adoptant une posture de coach technique. Il travaillera en étroite collaboration avec le Product Owner (PO) pour assurer la réussite des projets. Responsabilités : - Participer activement à l'ensemble des cérémonies Agile de l'équipe IaaS. - Servir de point de contact technique entre la plateforme IaaS et les autres plateformes Cloud. - Co-construire et alimenter le backlog en collaboration avec le PO. - Contribuer directement à la réalisation des sujets techniques, au même titre que les membres DevOps de l'équipe. Compétences requises : - Excellente maîtrise des environnements GCP (ou AWS/Azure), notamment sur les problématiques IaaS et Cloud Functions/Lambda. - Expertise dans l'utilisation de Terraform, Ansible et Python. - Expérience confirmée du travail en environnement Agile et en collaboration étroite avec des équipes. Objectifs : - Collaborer avec le PO pour alimenter le backlog de l'équipe IaaS (utilisation de Jira et Confluence). - Contribuer à la réalisation et la livraison des tickets techniques issus du backlog.
Mission freelance
Teach Lead Data Scientist / IA
Description du Projet : Au sein de l'équipe AI, rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème : > ML Solutions : Une solution complète d’outils MLOps offrant différents niveaux de service pour la gestion simplifiée et le déploiement optimisé de modèles d'IA. > GenAI Solutions : gestion et évolution d’une plateforme LLM chatbot interne, développement d'une plateforme de déploiement de chatbots RAG, et développement futur d’une plateforme d’agents. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. L’équipe AI aujourd’hui constituée de 5 personnes est en forte croissance. Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.
Mission freelance
Ingénieur Sécurité Opérationnelle IAM/ cloud AWS Expert/ AZURE/GCP/ Anglais opérationnel (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire , un ingénieur sécurité opérationnelle Objectif global : Accompagner Sécurisation du cloud public régulé Contrainte forte du projet : Assurer la sécurité du cloud public régulé AWS & Azure et GCP Connaissance linguistique : Anglais Professionnel (Impératif) Description détaillée : Contexte : Dans le cadre de la transformation technologique opérée par notre client sur 3 plateformes CSP (Azure, AWS et GCP), nous recherchons un consultant Sécurité spécialisé en Identity and Access Management (IAM) sur la plateforme AWS. Objectifs de la Mission : Audit de l'existant : Évaluer les configurations IAM actuelles sur AWS et identifier les vulnérabilités et les améliorations possibles. Conception de la stratégie IAM : Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. Mise en œuvre des meilleures pratiques : Appliquer les meilleures pratiques AWS pour la gestion des identités et des accès, notamment à travers l'utilisation de services tels que AWS IAM, AWS Organizations, AWS SCP et autres. Formation et sensibilisation : Accompagner les équipes projet sur les concepts IAM et les outils AWS, et promouvoir une culture de la sécurité au sein de l'organisation. Documentation : Fournir une documentation complète des processus, configurations et politiques mises en place. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique
Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA
- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.
Mission freelance
Chef de projet data & gouvernance
Notre client, leader dans la gestion de la maîtrise des risques, recherche un Chef de Projet Data Gouvernance expérimenté pour piloter des projets stratégiques liés à la gouvernance des données. Vous serez responsable d'assurer la qualité, l'intégrité, et la sécurité des données au sein de l'organisation. Élaborer une stratégie alignée sur les objectifs métiers de l'entreprise Définir et déployer des politiques, normes, et procédures de gestion des données Coordonner les projets en collaboration avec les équipes IT et métiers Assurer le respect des délais, des budgets, et des standards de qualité Concevoir et mettre en place des processus de contrôle et d'amélioration de la qualité des données Veiller à la conformité aux règlementations en vigueur (comme le RGPD) et collaborer avec les équipes de sécurité pour protéger les données Promouvoir une culture de la data en formant et sensibilisant les équipes aux bonnes pratiques de gestion des données Suivre les évolutions règlementaires, technologiques, et méthodologiques en matière de gouvernance des données pour adapter les pratiques de l'entreprise
Offre d'emploi
Business Analyst Asset Management (FH)
Dans le cadre d’un projet d'implémentation d’un outil de performance ( Statpro de Confluence ), notre client recherche un consultant sénior pour accompagner l'équipe en charge du projet. Ce projet implique une coordination étroite entre l’équipe Performance, l’équipe Développement et l’éditeur. Le consultant devra jouer un rôle clé dans l’analyse des besoins, la rédaction des spécifications, et le suivi de l’implémentation. Collecte du besoin : Recueillir les besoins fonctionnels auprès de l'équipe Performance. Animer des workshops avec les parties prenantes pour analyser la faisabilité, prioriser les demandes, et identifier les règles de gestion associées. Rédaction des spécifications fonctionnelles : Rédiger les spécifications fonctionnelles détaillées et générales en fonction des besoins recueillis. Prioriser les projets ou les lots d’un projet en fonction des objectifs métiers et techniques. Coordination et suivi de l’implémentation : Assurer une coordination fluide entre l'équipe Performance, l'équipe Développement et l’éditeur externe. Interagir avec l'éditeur pour suivre l’avancement de l’implémentation et s’assurer du respect des délais et des exigences. Documentation et formation : Mettre en place et mettre à jour la documentation encadrant les processus du projet. Rédiger des procédures et guides utilisateurs pour accompagner la mise en production. Assurer la formation des utilisateurs pour garantir une bonne adoption de l'outil. Suivi de la recette et mise en production : Établir le cahier de recette et réaliser la recette en collaboration avec la Maîtrise d’Œuvre. Accompagner la mise en production de l'outil et s’assurer de son bon fonctionnement. Reporting : Produire des synthèses régulières sur l’avancement du projet pour les parties prenantes. Assurer un reporting précis et fiable à la direction et aux équipes impliquées.
Offre d'emploi
DBA Sybase/SQLServer
En tant que DBA Sybase/SQLServer : - Prise en charge des sujets de refresh de plateforme OS Sybase ASE - Prise en charge des sujets de migration de Sybase vers sqlserver - Développement et maintenance de scripts powershell et ksh pour automatiser les taches - Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) - Maintien en conditions opérationnelles des SGBD du périmètre - Supervision des SGBDs de Production du périmètre ( sqlserver 2014 à sqlserver 2022, Sybase ASE 16 ) - Prise en compte et traitement des incidents et des appels des utilisateurs - Participation aux cellules de crise - Contrôle et livraison des modifications de structure de base, - Prise en charge des demandes de Mise en Production, - Prise en compte des demandes d'interventions sur les différentes technologies SGBDs - Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs - Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées - Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées. - Réalisation et maintenance de la documentation d’exploitation des bases de données. - Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL2022, Interfaçage Polybase - Hadoop) - Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP. - Application de la politique générale de sécurité. La mission proposée est soumise aux dispositifs d'astreintes et horaires décalées. Contexte : Environnement multi SGBD majoritairement SQLServer avec du Sybase et mySQL/PostgreSQL. Expertises spécifiques : Accompagner les métiers sur leurs projets, initiatives, évolutions, être proactif. Assurer aux utilisateurs de l’Asset Management un bon niveau de qualité de support. Etre force de proposition sur les évolutions d'infrastructures techniques et logicielles en garantissant le traitement, les refreshs et la prévention de l'obsolescence Déploiement de l’Agile, du Devops, XLDeploy, MyCloud et Cloud AZURE.
Mission freelance
Chef.fe de projet - Tech Lead Azure et GCP F/H
METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur du luxe un.e Chef.fe de projet - Tech Lead Azure et GCP, pour un démarrage mi-décembre 2024 à Courbevoie (92). A ce titre, votre mission sera de gérer et de coordonner l'ensemble des remédiations de la politique Groupe de notre Client sur les différents Cloud (Azure, GCP et Alyun). Vous suivrez donc le travail des équipes dédiées afin que les remédiations puissent être correctement effectuées et mises en place. Vous animerez également des ateliers.
Mission freelance
Tech Lead .Net (Anglais courant obligatoire)
Offre Tech Lead .NET (5-6 ans d'expérience) / Azure / SQL / GCP / Anglais Nous recherchons un Tech Lead .NET avec 5 à 6 ans d’expérience, spécialisé dans les technologies Azure , SQL , et GCP , et disposant d'un excellent niveau d’anglais. Vous aurez un rôle clé dans la gestion du RUN , la supervision des POC techniques comme la mise en place d’un Disaster Recovery Plan , ainsi que l’optimisation des requêtes SQL et GCP . En tant que référent technique, vous serez responsable de la gestion des incidents et des solutions d’urgence, tout en contribuant à l’amélioration continue des systèmes en place.
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
EXPERT CLOUD H/F
Au sein du département Infrastructure & cloud, nous recherchons pour l’un de nos clients grands comptes à Niort un "Expert Cloud H/F" . AWS GCP & S3NS Azure Nous recherchons pour l’un de nos clients grands comptes à Niort un "Expert Cloud H/F" . Vous aurez pour missions : L'expertise et le traitement des incidents N3 dans le respect des SLA La participation aux choix d'architecture L'acculturation et la documentation L'automatisation des déploiements (CI/CD ; Terraform ; Ansible) Des connaissances de l'écosystème DevOpS (Kubernetes, Linux...) et de l'infrastructure en général est un plus pour la mission.
Mission freelance
Consultant Data / GCP
Je recherche en ce moment un consultant Data / Big Query pour un de mes clients dans le nord de la France afin de construire les nouveaux cas d'usage sous Google Cloud Platform et participer au développement des nouveaux projets : Analyser et comprendre l’existant Concevoir l’architecture du nouveau socle Challenger et mener des ateliers avec le métier Développer les flux Exposer de la donnée sur GCP Participation à la vie de l'équipe (composée de 1 PO, 1 BA, 7 Devops data) : Rituels : daily / atelier d’équipe / sprint / … Alimentation du JIRA Documentation technique et fonctionnelle Garant et détection des axes d’amélioration à mettre en place sur le périmètre du produit Analyse poussée sur l’ensemble du périmètre (participation active aux divers ateliers métier et recettes)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.