Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 175 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
CDI

Offre d'emploi
Ingénieur Cloud - Lille / CDI

ITS GROUP
Publiée le
AWS Cloud
Azure
Google Cloud Platform

45k-50k €
Lille, Hauts-de-France

Vous serez un point de contact privilégié des équipes métiers pour leur présenter les principes de migration et coordonner vos actions avec les leurs : Mise à jour de Documents d`architecture Cible prenant en compte l`architecture des nouvelles landing Identifier les Matrices de flux à autoriser dans le contexte d`hébergement cible. Cahier de recette technique Pré/Post Migration Chiffrage des couts d`infrastructures Cloud lors des migration Etablissement des Playbook de Migration Transfert de connaissance au partenaire assurant les opérations Accompagner les BU et autres SLS dans la migration des applications vers les nouvelles Landing Zone Azure.

Offre premium
Freelance

Mission freelance
Tech Lead Data Analytics GCP

KatchMe Consulting
Publiée le
Data analysis
Google Analytics
Google Cloud Platform

1 an
400-850 €
Paris, France

Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.

Freelance

Mission freelance
Product Owner Big Data

INSYCO
Publiée le
Apache Spark
AWS Cloud
Big Data

15 mois
550-650 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique

Freelance

Mission freelance
SRE / SITE RELIABILITY ENGINEER

ESENCA
Publiée le
Google Cloud Platform
Kubernetes

1 an
400-450 €
Lille, Hauts-de-France

Synthèse des principaux attendus de la mission : - Déployer et maintenir les infrastructures cloud (GCP, Cloud data bases...) - Supporter l’équipe dans le déploiement de leurs applications (Kubernetes sur GKE) - Mettre en place et suivre le monitoring des différentes applications (Datadog) - Continuer le déploiement de la stratégie d'infrastructure as code (Terraform) - Animer la stratégie SRE/SLO du groupe - Accompagner les product leaders et tech leaders sur toutes les problématiques techniques liées à l'architecture cloud des futures solutions - Mettre en place et animer le DRP des produits - En constante communication avec le Lead Ops et les Head of Ops de la plateforme, s'assurer du respect des bonnes pratiques en termes de Cloud, d'infrastructure et de sécurité. - Effectuer les remédiations de sécurité lorsqu'elles touchent l'infrastructure - Être force de proposition sur les sujets de monitoring, finops, amélioration continue

Freelance

Mission freelance
Business Analyst Data /GCP / Banque

CAT-AMANIA
Publiée le
Google Cloud Platform

1 an
350-500 €
Île-de-France, France

Dans le cadre des évolutions de son application et du support aux métiers, une entreprise de renom recherche un(e) Business Analyst Data pour renforcer son équipe projet dédiée aux Risques Climatiques Physiques . Ce poste s'inscrit dans un projet stratégique visant à développer des datasets réglementaires et opérationnels sur les risques climatiques dans un environnement cloud. Vos missions principales : Documenter l’existant et rédiger les spécifications des évolutions à venir. Organiser et animer des ateliers collaboratifs. Préparer et réaliser les travaux de recette fonctionnelle. Traiter les demandes d’analyse et de requêtage de données en base (support aux équipes métier). Contribuer à la mise en place de reportings via Power BI. Environnement technique et fonctionnel : Environnement DATA , avec une préférence pour une expérience sur plateforme cloud (GCP idéalement). Connaissances en risques financiers ou risques climatiques physiques (un plus). Familiarité avec le requêtage de données et les outils de visualisation comme Power BI.

Freelance

Mission freelance
Expert sécurité GCP / IAM GCP / SECURITE RESEAUX / TERRAFORM / ANGLAIS (H/F)

OctopusGroup
Publiée le
Google Cloud Platform
IAM
Python

1 an
350-600 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire une expert Sécurité cloud GCP Objectif global : Accompagner la mise en œuvre de la sécurité du cloud GCP Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique

Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
architecte
Azure
Cloud

24 mois
325-650 €
Paris, Île-de-France

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Freelance
CDI

Offre d'emploi
EXPERT(E) CLOUDOPS Confirmé (4-10 ans)

KOMEET TECHNOLOGIES
Publiée le
Google Cloud Platform
Openshift

6 mois
40k-65k €
400-600 €
Île-de-France, France

🚀 Nous recherchons un(e) Expert(e) CloudOps pour accompagner nos projets stratégiques dans un environnement DevOps et Cloud ! 🌍 Vos missions : ✅ Intégration d'applications dans un environnement de production Cloud (GCP/OpenShift). ✅ Automatisation des déploiements via CI/CD. ✅ Gestion du support en production et mise en exploitation de nouvelles versions. ✅ Collaboration avec les équipes pour mettre en place une démarche DevOps. Compétences techniques clés : 🔹 GKE/GCP (Confirmé - Impératif) 🔹 Ansible (Tower) (Confirmé - Impératif) 🔹 GitLabCI (Confirmé - Impératif) 🔹 Helm (Confirmé - Important) Profil recherché : 🔧 Vous avez 4 à 10 ans d’expérience et êtes passionné(e) par les technologies Cloud. 🗣 Vous maîtrisez le français (courant) et l’anglais (professionnel). 🌟 Vous êtes curieux(se), force de proposition et à l’écoute des innovations technologiques. Pourquoi rejoindre ce projet ? ➡️ Vous interviendrez sur des projets à forte valeur ajoutée, au cœur des enjeux DevOps, Cloud et d’automatisation. ➡️ Vous serez au contact des dernières technologies et participerez activement à la transformation numérique. Intéressé(e) ? 📩 Envoyez-nous votre profil ou MAIS postuler uniquement sur cet offre (les autres candidatures ne seront pas étudiés). Ouvert aux Cdi, freelance et à la SST

Freelance
CDI

Offre d'emploi
Ingénieur.e DevOps

Atlanse
Publiée le
DevOps
Google Cloud Platform
Helm

1 an
40k-55k €
400-500 €
Île-de-France, France

En tant qu’ingénieur.e DevOps, vous serez chargé.e d’assurer l’intégration, le déploiement et le support des applications dans l’environnement de production Cloud (GCP / Openshift) via des pipelines CI/CD. Votre rôle Analyse des besoins et veille technologique · Recueillir les informations et analyser les besoins en équipements matériels et logiciels · Préconiser et conseiller sur les choix de solutions informatiques en collaboration avec les architectes, les experts métiers et techniques tout en respectant les standards définis par l’entreprise · Rédiger les cahiers des charges et les appels d’offres puis analyser les propositions des fournisseurs en termes de performance, fiabilité et compatibilité · Réaliser une veille technologique pour optimiser les ressources systèmes de l’entreprise Mise en place et intégration · Concevoir ou paramétrer les logiciels sélectionnés en fonction des besoins identifiés · Configurer et dimensionner les solutions matérielles selon les performances requises · Tester les systèmes mis en place et veiller à la compatibilité des éléments entre eux · Contribuer à la validation technique lors des mises en production · Veiller à la sécurité et la fiabilité des systèmes de l’entreprise Exploitation · Valider l’installation et l’intégration des nouveaux outils (systèmes, réseaux et télécoms) · Diagnostiquer et résoudre les incidents ou anomalies tout en assurant leur suivi · Participer aux actions correctives de maintenance en veillant à leur qualité · Proposer des améliorations pour optimiser l’utilisation et l’organisation des ressources existantes · Rédiger et mettre à jour la documentation des procédures et consignes d’exploitation · Assurer le transfert de compétences et l’assistance technique aux équipes d’exploitation ainsi que leur formation si nécessaire Sécurité · Respecter et suivre les règles de sécurité définies par l’entreprise · Appliquer les plans de sauvegarde et de secours définis · Assurer la sécurité physique des données en termes de sauvegarde et d’archivage

Freelance

Mission freelance
Data Scientist

ESENCA
Publiée le
Google Cloud Platform
Python

3 mois
400-500 €
Lille, Hauts-de-France

Votre mission consistera à : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA. - Mettre en œuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business - Collaborer avec les autres Data scientist de l'équipe - Industrialiser les solutions R&D - Assurer le RUN des services IA en production. - En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable Compétences techniques : Python - Expert - Impératif GCP - Confirmé - Impératif VertexAI - Expert - Impératif GenAI - Confirmé - Impératif

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform

3 ans
33k-83k €
400-900 €
Paris, France

Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Egalement, tu participeras à la migration du DWH Oracle vers Big Query GCP. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir, développer et optimiser les flux Être garant de la qualité du code Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL et PL/SQL Python Méthodologie Agile

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Ingénieur CloudOPS GCP

Cherry Pick
Publiée le
Ansible
Gitlab
Google Cloud Platform

12 mois
550-600 €
Châtillon, Île-de-France

Dans le cadre du renforcement de son équipe infra cloud, notre client recherche un nouveau profil orienté cloud GCP afin de prendre part au maintien et à l'évolution de l'infra des projets du client. En ce sens, vos missions seront : Analyse et veille technologique Recueillir et analyser les besoins techniques en collaboration avec les équipes d’architectes et métiers. Préconiser les meilleures solutions cloud pour répondre aux exigences de performance et de fiabilité. Participer à la rédaction des spécifications techniques et appels d’offre. Assurer une veille active pour rester à la pointe des innovations technologiques. Déploiement et intégration Déployer, configurer et automatiser les solutions sur des environnements cloud (GKE/GCP). Utiliser Helm pour la gestion des déploiements Kubernetes. Mettre en place et optimiser des pipelines CI/CD avec GitLab CI . Automatiser les configurations d’infrastructure avec Ansible (Tower) . Exploitation et amélioration continue Gérer les incidents techniques : diagnostic, résolution et suivi. Participer aux phases de validation et aux mises en production. Proposer des optimisations pour améliorer la performance, la scalabilité et la sécurité des environnements existants. Rédiger et maintenir la documentation technique. Sécurité des systèmes Appliquer les règles de sécurité et les plans de sauvegarde définis par l’entreprise. Garantir l’intégrité et la disponibilité des données. Processus : 2 entretiens Go - No Go

Freelance

Mission freelance
Tech Lead / Architecte Looker

ESENCA
Publiée le
Google Cloud Platform

3 mois
450-550 €
Lille, Hauts-de-France

Dans le cadre du déploiement de Looker comme solution de Data Visualization, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide du groupe.

Freelance

Mission freelance
Data Analyst

Coriom Conseil
Publiée le
Google Cloud Platform

12 mois
100-450 €
Lille, Hauts-de-France

Intégration de la solution Looker Accompagnement des équipes DEV pour la mise en place de solution Looker Optimisation de la plateforme Looker ( Gestion des coûts, intégration des nouvelles fonctionnalitées, ...) Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Français Professionnel (Impératif) Description détaillée Dans le cadre du déploiement de la plateforme Looker, la mission vise à mettre en place l'infrastructure nécessaire et à la rendre accessible aux Business Units (BU) ainsi qu'aux autres plateformes pour leur usage quotidien de la visualisation de données.

Freelance

Mission freelance
DATA Engineer GCP H/F

Karma Partners
Publiée le
Google Cloud Platform

6 mois
400-500 €
Nice, Provence-Alpes-Côte d'Azur

Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP

175 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous