Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data ingénieur - Python - GCP
Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.
Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Offre d'emploi
Ingénieur Cloud - Lille / CDI
Vous serez un point de contact privilégié des équipes métiers pour leur présenter les principes de migration et coordonner vos actions avec les leurs : Mise à jour de Documents d`architecture Cible prenant en compte l`architecture des nouvelles landing Identifier les Matrices de flux à autoriser dans le contexte d`hébergement cible. Cahier de recette technique Pré/Post Migration Chiffrage des couts d`infrastructures Cloud lors des migration Etablissement des Playbook de Migration Transfert de connaissance au partenaire assurant les opérations Accompagner les BU et autres SLS dans la migration des applications vers les nouvelles Landing Zone Azure.
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Offre d'emploi
Data analyst : looker, gcp
DÉBUT DE MISSION : 06/01/2025 DURÉE : 144 jours LIEU : Ronchin Nous recrutons pour le compte de l’un de nos clients un data analyst pour accompagner le déploiement de la plateforme Looker et sa mise à disposition des Business Units (BU) et autres plateformes. Descriptif de la mission : Votre rôle consistera à concevoir et implémenter une architecture adaptée aux besoins des utilisateurs métier, tout en respectant les standards de performance et en garantissant une expérience utilisateur optimale. Vous serez également responsable de la formation des équipes, de l’intégration des projets, et de l’accompagnement dans l’adoption de l’outil Looker. Vos principales responsabilités : Mettre en place l’infrastructure de la plateforme Looker et la rendre accessible aux BU et autres plateformes. Concevoir des architectures adaptées aux besoins des utilisateurs, tout en garantissant des performances optimales. Former et accompagner les équipes dans l’utilisation de la plateforme et de ses fonctionnalités. Créer des tableaux de bord pour le pilotage des activités des BU. Garantir l’application des bonnes pratiques et promouvoir un usage optimal de la plateforme. Compétences requises : Maîtrise de Looker et du langage LookML . Connaissances avancées en GCP , GitHub , Terraform , et API . Expérience en création de tableaux de bord et optimisation des performances de visualisation de données. Première expérience sur Looker et connaissance des outils internes, appréciées. Profil recherché : Vous êtes un professionnel confirmé dans le domaine de la DataViz, capable d’allier rigueur technique, pédagogie et esprit analytique pour accompagner les équipes dans l’adoption et l’utilisation de la plateforme Looker.
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
DATA ENGINEER GCP
Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Egalement, tu participeras à la migration du DWH Oracle vers Big Query GCP. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir et développer les Data Model Être garant de la qualité du code Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL et PL/SQL Python Méthodologie Agile
Mission freelance
ARCHITECTE APPLICATIF - CLOUD AZURE
Profil Architecte Applicatif - Cloud Azure Contexte : Notre client souhaite remplacer ses deux applications métier déployés dans plus de 40 pays et utilisés pour l'activité. Le higl level design est attendu sur S1 2024 et doit permettre de définir les grandes orientations d'architecture de la nouvelle solution. Ce cadrage se fera en collaboration avec les équipes AMOA et les équipes des applications Legacy. • Role : Architecte applicatif/solution nouvelle application métier • Missions : o Accompagnement au design applicatif de la nouvelle solution (orientation microservices interne + produit éditeur) o Aide au choix de technologies o Définition du plan de transition entre le système legacy et nouveau en prenant en compte les adhérences des autres projets o Prise en compte des guidelines technologiques (cible Azure notamment)
Offre d'emploi
Data Architect Cloud GCP
Rejoignez une entreprise leader dans l'innovation technologique et l'exploitation des données à grande échelle. En tant que Data Architect Cloud (GCP), vous jouerez un rôle clé dans la conception, l'optimisation et l'évolution de notre infrastructure de données basée sur Google Cloud Platform. Vous travaillerez au sein d'une équipe experte et collaborative, sur des projets d'envergure, dans un environnement agile et stimulant. Conception et implémentation d'architectures cloud : Définir et mettre en œuvre l'architecture des pipelines de données sur GCP. Garantir la scalabilité, la sécurité et la performance des plateformes de données. Supervision des environnements data : Gérer les infrastructures Big Data et les solutions de stockage (BigQuery, Cloud Storage). Assurer l'optimisation des traitements de données massives (batch et streaming). Accompagnement et conseil : Collaborer avec les équipes Data Engineers et DevOps pour garantir l'intégration optimale des solutions. Conseiller les équipes métiers sur les meilleures pratiques Cloud et sur l'exploitation des données. Veille technologique et innovation : Identifier les nouvelles solutions et technologies émergentes sur le Cloud GCP. Proposer des améliorations continues pour répondre aux besoins croissants en data. Expertise Cloud GCP : BigQuery, Pub/Sub, Dataflow, Cloud Storage, IAM. Outils Data : Spark, Airflow, Kubernetes. Langages : Python, SQL, Terraform. Architecture : Maîtrise des méthodologies ETL/ELT et des pipelines data. Sécurité et optimisation : Gestion des permissions (IAM), monitoring et performance cloud. Bac+5 ou plus en informatique, data ou équivalent. Expérience de 5 ans minimum en architecture cloud, dont 3 ans sur GCP. Solides compétences en design de solutions Big Data. Excellente capacité de communication pour collaborer avec des équipes techniques et métiers. Certification GCP Architect (un plus). Rémunération compétitive : Salaire attractif, bonus annuel, et avantages variés (mutuelle, RTT, etc.). Formation continue : Certifications GCP offertes, participation à des conférences internationales. Flexibilité : Télétravail et horaires adaptés. Impact : Participer à des projets stratégiques à fort impact sur l'avenir de notre entreprise. Prêt à bâtir des solutions cloud innovantes avec GCP ? Rejoignez une entreprise à la pointe de la technologie !
Mission freelance
ARCHITECTE TECHNIQUE MOVE TO CLOUD AZURE
Pour une mission exclusivement en Freelance nous recherchons un(e) architecte technique move to cloud Azure certifié Objectif : o Analyse des applications à migrer sur Azure en IaaS principalement (infra, installations, technos...) o Identifier les points d'attention liées aux standards du groupe o Accompagner les responsables applicatifs lors du design et provisionning réalisés par une société externe o Faire un contrôle des HLD/LLD Azure réalisés par cette société o Remonter les points bloquants lors des bi-weekly d'architecture o Participer au design général et à l'identification de solutions selon les besoins
Mission freelance
Data Cloud Architect
En tant que membre de l'équipe Data Capture, ce poste requiert une solide expertise technique et architecturale, ainsi qu'une expérience pratique significative dans les technologies Cloud, le développement de microservices et l'architecture pilotée par les événements (Event Driven Architecture). Il implique également une collaboration étroite avec les équipes informatiques du Groupe s, les partenaires métiers, les partenaires externes et tous les membres de l'équipe d'intégration. Objectifs et livrables : Concevoir et proposer des solutions autour des données en utilisant les technologies Azure Cloud dans notre cadre de travail Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie "Data as a Service" conformément aux meilleures pratiques architecturales Concevoir et développer des API/microservices pour enrichir notre cadre de solutions Soutenir la stratégie d'architecture pilotée par les événements basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l'enrichissement en libre-service Participer à la modernisation et à la sensibilisation technologique au sein de l'équipe Data Capture et dans l'organisation Data & Analytics Être le référent au sein de l'équipe sur tous les sujets liés au cloud Animer des ateliers et faciliter la collecte des exigences Accompagner les Data Engineers sur les sujets liés au cloud Soutenir l'équipe Sécurité sur les sujets associés Contribuer à la feuille de route et à l'évolution de Data Capture Challenger et accompagner les fournisseurs externes
Mission freelance
Azure Architect
Azure Cloud Architect, freelance, Luxembourg, 10 mois de contrat Opportunité attrayante pour un(e) Spécialiste Azure afin de rejoindre notre prestigieux client basé au Luxembourg qui opère au niveau mondial avec d’importantes activités aux quatre coins du globe ! Vous prendrez part à d’ambitieux projets pour intégrer de nouvelles solutions dans un écosystème. Missions : - Concevoir des architectures cloud, - Mettre en œuvre toutes les ressources cloud nécessaires, - Déployer et maintenir des plateformes cloud, - Collaborer et communiquer avec diverses équipes IT, - Documentation technique Contexte technique : - Azure - Terraform et PowerShell - Azure DevOps - Microsoft 365
Offre d'emploi
Data Engineer GCP
Le data Engineer, rattaché(e) à l'équipe Lead Ingénieur Analytic sera chargé de concevoir, Développer, et optimiser données de données et des solutions analytiques. Il(elle) travaillera en collaboration avec les parties prenantes, implémentera les bonnes pratiques, tirera parti des technologies afin de produire des données de hautes qualités, et piloter les domaines de productions data. Son expertise en data engineering, analyse, et problem solving supportera le pilotage data et les prises de décisions. Taches & missions : Concevoir et mettre en œuvre des pipelines de données évolutifs et des architectures de données Mettre en œuvre des processus d'intégration et de transformation des données Collaborer avec les parties prenantes pour comprendre les exigences et les priorités de l'entreprise Garantir les meilleures pratiques en matière d'ingénierie des données et d'analyse Construire et maintenir des entrepôts de données et des marts de données Développer et optimiser des modèles analytiques à l'aide de la modélisation des entrepôts de données (data marts) Assurer la qualité, l'intégrité et la gouvernance des données dans l'ensemble des systèmes par le biais de domaines de données. Automatiser les processus de données et les flux de travail pour gagner en efficacité Contrôler et optimiser les performances des systèmes et l'utilisation des ressources Évaluer et intégrer de nouvelles technologies et de nouveaux outils Dépanner et résoudre les problèmes et incidents liés aux données Contribuer à la documentation et aux initiatives de partage des connaissances Participer aux revues de code et aux sessions de programmation par les pairs Les compétences nécessaires : ETL /ELT Data Modeling Modélisation sémantique SQL (BigQuery, Postgres…) Data Transformation API Cloud platforms (ex: AWS, GCP) Sens des affaires Data Analyse Python Statistiques Big Data Contrôle des versions CI/CD DevOps BI
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.