Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Expert Cloud (H/F)
Nous recherchons un Expert Cloud avec une expérience approfondie dans les environnements AWS, GCP et Azure pour intégrer notre équipe. Vous jouerez un rôle clé dans la conception, le déploiement, et la gestion de solutions cloud à grande échelle. Votre expertise dans ces trois principales plateformes de cloud computing sera essentielle pour guider les choix technologiques de nos clients et assurer une transition fluide vers le cloud. Responsabilités : - Concevoir et mettre en place des architectures cloud sécurisées, évolutives et performantes sur AWS, GCP, et Azure. - Superviser la migration d'infrastructures traditionnelles vers le cloud, tout en garantissant la continuité de service. - Automatiser et optimiser les processus de déploiement, de gestion des configurations et de surveillance sur différentes plateformes cloud. - Assurer la sécurité et la conformité des systèmes cloud en accord avec les meilleures pratiques. - Gérer et résoudre les incidents liés aux environnements cloud en collaboration avec les équipes d'ingénierie. - Fournir un soutien technique avancé et former les équipes internes aux bonnes pratiques d'utilisation des solutions cloud. - Élaborer des stratégies multicloud pour optimiser l'utilisation des différentes plateformes en fonction des besoins spécifiques des projets. - Participer aux audits de performance et de sécurité des infrastructures cloud.
Offre d'emploi
Cloud Architect (DataOPS/MLOPS)
Dans le cadre de son désir de développer de nouveaux cas d'usage de l'IA dans le cloud, le DataLab Group souhaite exploiter toute la puissance du cloud pour tirer parti des capacités des modèles d'IA propriétaires et open-source. Objectif : - Aborder les sujets liés à l'IA générative en lien avec les offres AWS (Bedrock, SageMaker, etc.), en mettant l'accent sur les concepts clés (LLM, RAG) et les défis actuels tels que la scalabilité, les coûts et les optimisations ; - Superviser l'intégration fluide de ces modèles d'IA avancés dans notre infrastructure cloud ; - Optimiser l'utilisation des ressources, l'assurance de l'évolutivité et la promotion de la collaboration entre les équipes de développement et d'exploitation. Responsabilités : - Accompagner l'équipe technique dans les meilleures pratiques de développement et d'intégration continue ; - Collaboration avec les parties prenantes : Établir et maintenir des canaux de communication efficaces avec divers acteurs, y compris les dirigeants, les clients et les équipes internes ; - Mise en place d'une architecture permettant le déploiement continu de modèles d'apprentissage automatique ; - Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de développement ; - Créer des POC (Proof of Concept) de tests d'intégration dans Kubernetes, démontrant le potentiel des pipelines de déploiement automatisés et efficaces ; - Concevoir l'architecture des composants AWS responsables du stockage et de l'intégration des données ; - Gérer et maintenir l'infrastructure as code, en utilisant des outils tels que Docker, Kubernetes et Terraform ; - Optimiser les flux de travail existants en identifiant les goulets d'étranglement et en proposant des solutions d'amélioration ; - Surveiller les performances du système, l'efficacité des processus et la disponibilité des services en implémentant des métriques et des outils de monitoring.
Mission freelance
developpeur Full Stack
Dev (python, GO) - Confirmé - Impératif Devops (GCP, Kubernetes, Agile) - Confirmé - Important CI/CD (github/ github actions) - Confirmé - Important Monitoring (datadog, pagerduty, promotheus) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée Au sein de notre équipe Cloud Databases, tu seras un renfort dans notre équipe en charge du Build de notre solution de déploiement et de management de base de données dans le Cloud. Tu es un développeur full stack confirmé, Curieux, force de proposition, tu souhaites t'investir au sein d 'une équipe de qualité. Alors rejoins-nous !
Offre d'emploi
Data Engineer
Nous recherchons deux Ingénieurs Data — Medior — pour concevoir, implémenter et optimiser des solutions de données basées sur le cloud. Les candidats idéaux travailleront sur des plateformes de données modernes comme Snowflake et des outils comme DBT et Wherescape RED pour soutenir nos initiatives de data warehouse, y compris l'adoption de l'architecture Data Vault 2.0. Principales responsabilités : Concevoir et implémenter des processus ETL pour migrer des données d'Oracle vers Snowflake en utilisant DBT. Développer des solutions de données cloud en utilisant des outils comme DBT pour la transformation des données. Travailler avec le cadre Data Vault 2.0 pour concevoir des solutions de data warehouse évolutives. Collaborer avec des équipes interfonctionnelles pour implémenter des pipelines CI/CD pour les workflows ETL. Rédiger et maintenir une documentation complète pour les processus ETL et les pipelines de données. Compétences et exigences : Outils : DBT, Wherescape RED, Snowflake, Oracle, Azure Synapse. Programmation : SQL, Python, ou d'autres langages de programmation modernes similaires. Contrôle de version : Maîtrise de Git pour le développement en mode trunk-based. Tests : Expérience en tests d'intégrité des données, de performance et de régression. Connaissances : Data Vault 2.0, concepts modernes de data warehousing. Résumé du rôle : Le rôles est axés sur la création de pipelines de données efficaces et évolutifs en utilisant des technologies cloud telles que Snowflake et DBT. et est davantage concentré sur l'exécution pratique et la livraison des projets. Pour postuler, envoyez votre CV et vous contacterons dans les plus brefs délais.
Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure
Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible
Mission freelance
Expert Ingenieur Cloud FinOps
Bonjour, je recherche un expert cloud Fin Ops pour venir accompagner mon client dans la stratégie de la réduction des couts cloud public AWS AZURE GCP, tout en maintenant les performances Il faudra participer au cadrage du besoin client et réaliser les ateliers Faire les soutenances et proposition commerciale Les taches afférentes : - Accompagner les architectes SI pour l'estimation des coûts des solutions envisagées, - Maintenir et optimiser le fonctionnement des outils de suivi des coûts Cloud (de la collecte des données FinOps jusqu'à la production des tableaux de bord financiers) - Audit d'optimisation de facture, analyse les données financières, identifier les opportunités d'économies - Implémentation d'optimisation - Formation - Déployer des outils de "reporting" - Développer des scripts de contrôle des couts, Automatiser - Animation de COPIL
Mission freelance
Chef de Projet Stratégie Data (H/F) - 93 ou 94
La DSI & la Direction Générale des Opérations (DGO) sont deux acteurs clés de la Data & l’IA. La Direction Facilitation, au sein de la DGO, porte deux fonctions clefs dans la définition d'une stratégie Data au profit des opérations aéroportuaires : la Fonction AMOA SI Aéro & Sûreté (AMOA), et la fonction Data & Management Science (DMS). Ces deux entités orientées métier travaillent en étroite collaboration avec la DSI qui assure la maitrise d'œuvre et la robustesse technique des systèmes aéroportuaires
Mission freelance
Gouvernance et Architecte Data
En tant que Responsable de la Gouvernance et de la Gestion de la Qualité des Données, vous serez chargé(e) de : Développer et mettre en œuvre des politiques et des processus de gouvernance des données. Assurer la qualité des données en définissant des normes et des critères de qualité. Collaborer avec les différentes équipes pour intégrer la gestion des données dans leurs processus. Mettre en place des outils et des indicateurs de suivi de la qualité des données. Former et sensibiliser le personnel à l'importance de la gouvernance des données. Réaliser des audits réguliers pour identifier les problèmes de qualité des données et proposer des solutions. Assurer la conformité aux réglementations en matière de protection des données
Offre d'emploi
Chef de projet DATA
Le candidat sera amené à piloter plusieurs projets, dont celui sur le décommissionnement d'un l'infocentre. - Gestion de l’obsolescence du SID - Assurer la continuité de service en mettant à disposition les tables encore utilisées sur la plateforme data cible La mission consiste à : - Animation des équipes projets - Planification dans ITBM - Suivi des consommés et des restes à faire - Coordination des acteurs MOE - Préparation et présentation dans les instances de la gouvernance projets - Reporting et alertes projets
Mission freelance
Architecte DATA 2
Contexte de la mission : Eclairage des solutions applicatives possibles en réponse au besoin métier remonté lors d’une Etude de faisabilité projet (EF). Identification des scénarii en cohérence avec l'existant Data du client, projection de l'effort à faire, accompagnement de l'architecte et du pilote projet sur l'EF. MISSIONS : Description des scénarii Livrable Dossier d'architecture sur le volet DATA Eclairage des volets risque et sécurité
Offre d'emploi
Ingénieur Data SAP/Snowflake
Contexte : Dans le cadre d'un programme de transformation digitale basée sur S4/HANA, mon client, acteur majeur du secteur de l'industrie recherche un Data Engineer Snowflake, ADF, SAP concernant la réalisation de l' intégration des données issues de SAP vers les applications BI.. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.
Mission freelance
Développeur Full Stack Python et Go
Nous recherchons un Développeur Full Stack confirmé pour rejoindre notre équipe Cloud Databases. Si vous êtes passionné par le développement et l'optimisation de solutions de gestion de bases de données dans le Cloud, cette opportunité est faite pour vous. La mission est basée à Ronchin (59) Vos principales missions seront les suivantes : · Participer activement à la conception, au développement et au déploiement de solutions en Python et GO . · Collaborer avec l'équipe DevOps pour gérer les infrastructures sur GCP et Kubernetes en suivant une approche Agile . · Implémenter et maintenir des pipelines CI/CD (via GitHub / GitHub Actions ) pour automatiser les déploiements. · Assurer la surveillance de l'infrastructure et des applications avec des outils tels que Datadog , PagerDuty , et Prometheus . · Travailler au sein d'une équipe dynamique et proactive, en étant force de proposition.
Mission freelance
Administrateur Opérations & Sécurité (H/F)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Administrateur Opérations & Sécurité (H/F) Mission à pourvoir en régie sur Lille Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : Assurer la sécurité opérationnelle et le suivi des KPIs de la plateforme. Gérer la remédiation des incidents et des dérives de performance. Contribuer à l'évolution des produits de la plateforme. Proposer et mettre en œuvre des améliorations techniques. Planification et suivi du déploiement des patchs REF : EFN/AOS/104140
Mission freelance
Devops
La mission consiste à : - Déploiement régulier des applications - Intégration continue - Gestion des outils de CI/CD - Gestion et automatisation des environnements des développeurs - Prise en compte de la sécurité dès la conception - Mise en place des bonnes pratiques auprès des utilisateurs - Gestion des incidents et des tickets de RUN remontés par les utilisateurs Compétences demandées : - Administration systèmes Gnu / Linux - Administration réseau (VPC, VPN, Firewall) - Kubernetes, Docker, Helm, GCP, Python, CI/CD ... - Stockage des données : PostgreSQL, MongoDB, Bigquery, ElasticSearch - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Mission freelance
GCP DevOps Engineer/ Ingénieur
Architecturer, déployer et gérer une infrastructure cloud évolutive et fiable en utilisant les services GCP tels que Compute Engine, Cloud Storage, Kubernetes Engine (GKE), BigQuery, et d'autres. Concevoir et mettre en œuvre l'infrastructure en tant que code (IaC) en utilisant des outils tels que Terraform, Cloud Deployment Manager ou Ansible pour automatiser le provisionnement et la configuration. Développer, maintenir et améliorer les pipelines CI/CD en utilisant des outils tels que Jenkins, GitLab CI, ou Cloud Build pour la livraison automatisée d'applications
Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP
o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.