Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Développeur Full Stack
API REST - Expert - Impératif NestJS - Expert - Impératif Kafka - Confirmé - Important Dotnet - Junior - Important Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée Il/elle est responsable du développement de plusieurs composants back et front du SI liés à la gestion de l’identité (IAM = Identity Access Management). Le socle technique utilisé par le client se compose des “outils” suivants : Github (Repository et Actions), Docker, Kubernetes (ou connaître les concepts de containerisation), Jfrog, Datadog, Vault, Redis, Kafka, GCP, SonarLint, API Gateway, Swagger. La connaissance et l’utilisation de ces outils sont des prérequis. Les développements (NestJS, TypeScript 4, VueJS 3, SQL server) porteront notamment sur : - Les développements d’API REST intermédiaires vers les API natives d’un produit du marché (création d’API de facading) - Les évolutions et corrections de briques techniques utilisés par notre portail développeur et notre API Gateway (Kong) - Les évolutions et corrections d'un portail self service pour nos Product Manager et nos desks/administrateurs - Les évolutions et corrections d'un nouvel outil de changement de mot de passe à destination de nos 150000 collaborateurs et nos 45000 partenaires/fournisseurs Le tout en adéquation avec les standards du client (proches de ceux du marché).
Mission freelance
Architecte cloud
Offre de Mission : Architecte Cloud pour une Mission à Mi-Temps (2,5 jours/semaine) Début de Mission : 1er décembre 2024 Durée : 6 mois, avec possibilité de prolongation Résumé de la Mission : En tant qu'Architecte Cloud, vous rejoindrez le Pôle Innovation Technologique et collaborerez avec le Pôle 2IA pour concevoir et déployer des solutions d'IA générative répondant aux besoins métiers. Vous jouerez un rôle central dans le développement de projets d’IA en tirant parti des avancées en traitement du langage naturel (NLP). Votre mission inclura : La conception et le déploiement de solutions d'IA générative (LLM) sur des plateformes cloud (Azure, GCP, ou AWS). La définition d'une architecture technique optimale pour le chatbot OTTO V2, avec intégration aux systèmes existants. L’entraînement et l’optimisation de modèles de langage sur des jeux de données spécifiques. Le développement de pipelines d'intégration continue et de livraison continue pour le déploiement et la mise à jour des modèles. La collaboration avec les équipes métiers pour identifier des opportunités d’application de l'IA générative. La documentation des solutions techniques et le partage de votre expertise.
Offre d'emploi
Databricks Solution Architect
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
DBA Sybase SQLServer
Descriptif : En tant que DBA Sybase/SQLServer : - Prise en charge des sujets de refresh de plateforme OS Sybase ASE - Prise en charge des sujets de migration de Sybase vers sqlserver - Développement et maintenance de scripts powershell et ksh pour automatiser les taches - Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) - Maintien en conditions opérationnelles des SGBD du périmètre Ostrum IT - Supervision des SGBDs de Production du périmètre NIM OS / Ostrum IT ( sqlserver 2014 à sqlserver 2022, Sybase ASE 16 ) - Prise en compte et traitement des incidents et des appels des utilisateurs - Participation aux cellules de crise - Contrôle et livraison des modifications de structure de base, - Prise en charge des demandes de Mise en Production, - Prise en compte des demandes d'interventions sur les différentes technologies SGBDs - Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs - Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées - Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées. - Réalisation et maintenance de la documentation d’exploitation des bases de données. - Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL2022, Interfaçage Polybase - Hadoop) - Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP. - Application de la politique générale de sécurité.
Offre d'emploi
Data Engineer h/f
Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : Conception et Développement de Pipelines de Données : Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. Gestion et Maintenance de l’Infrastructure Data : Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.
Offre d'emploi
Support Sécurité au projet (Métiers/Applicatifs et Infrastructure) - Sénior
Le consultant sera en charge de : 1/développer une offre de service à destination des Prod-App autour de la sécurité IAM dans les CLoud Public (AWS/GCP et Azure) 2/accompagnement des équipes opérationnels pour le suivi des incidents et la mise en place des contrôles sécurité - Assister et conseiller les chefs de projets Informatiques dans l'identification. Des données à caractères personnelles, des traitements associés, documenter les livrables RGPD de la méthode. - Rédiger les analyses d'impacts à la vie privée en lien avec les services juridiques, conformité du groupe. - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de sécurité et RGPD des systèmes d'information. - Assurer les suivi des alertes et des incidents de RGPD en assurer le support Notamment, pour une mission SSI : - Assister et conseiller les chefs de projets dans l'identification des risques et des solutions SSI liés à leurs activités ou projets. - Définir les exigences de sécurités , fraude, rgpd en lien avec les équipes de support - Réaliser des analyses de risques SSI pour arbitrage des risques - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de sécurité des systèmes d'information. - Assurer le suivi des alertes et des incidents de sécurité et en assurer le support Notamment, pour une mission SSI : - Assister et conseiller les chefs de projets dans l'identification des risques et des solutions SSI liés à leurs activités ou projets. - Définir les exigences de sécurités , fraude, rgpd en lien avec les équipes de support - Réaliser des analyses de risques SSI pour arbitrage des risques - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de sécurité des systèmes d'information. - Assurer le suivi des alertes et des incidents de sécurité et en assurer le support
Mission freelance
ingénieur DevSecOps et Usine Logicielle
Notre client recherche un Ingénieur DevOps expérimenté, doté de compétences solides en CI/CD, pour renforcer les équipes et participer activement à l’optimisation des processus de développement. Responsabilités : Dans un environnement technique riche (Java, .Net, Angular, Python, Datastage, Oracle, MySQL, PowerBI, Shell, Openshift, GCP, etc.), l’Ingénieur DevOps sera responsable de : Fournir un support aux composants de l’usine logicielle (Bitbucket, Jenkins, Azure DevOps, Sonar, Checkmarx, Artifactory, XLDeploy, XLRelease). Améliorer les scripts internes en Groovy pour enrichir les fonctionnalités dans les pipelines Jenkins. Accompagner les développeurs dans la création de pipelines adaptés à leurs produits. Collaborer étroitement avec les équipes de développement pour identifier et résoudre les problématiques techniques.
Mission freelance
DBA SYBASE SQL SERVER F/H
Pour l'un de nos clients grands comptes, nous recherchons un DBA Sybase/SQL Server afin d'assurer l'administration et le support d'un important parc de bases de données au sein d'une équipe de DBA. Dans ce contexte, le DBA assurera les missions suivantes : Prise en charge des sujets de refresh de plateforme OS Sybase ASE ; Prise en charge des sujets de migration de Sybase vers SQL Server ; Développement et maintenance de scripts powershell et ksh pour automatiser les tâches ; Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) ; Maintien en conditions opérationnelles des SGBD ; Supervision des SGBDs de Production ( SQL Server 2014 à SQL Server 2022, Sybase ASE 16 ) ; Prise en compte et traitement des incidents et des appels des utilisateurs ; Participation aux cellules de crise ; Contrôle et livraison des modifications de structure de base ; Prise en charge des demandes de Mise en Production ; Prise en compte des demandes d'interventions sur les différentes technologies SGBDs ; Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs ; Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées ; Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées ; Réalisation et maintenance de la documentation d’exploitation des bases de données ; Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL 2022, Interfaçage Polybase - Hadoop) ; Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP ; Application de la politique générale de sécurité.
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Développeur full stack (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack (H/F) à Lille, Hauts-de-France, France. Contexte : Dans une structure de 3 développeurs, il sera garant de ses développements et sera moteur dans la mise en place de bonnes pratiques dans les nouvelles technologies. Les missions attendues par le Développeur full stack (H/F) : Actions attendues : -Maintien en condition opérationnel de l'application -Développement d’évolutions fonctionnelles -Documentation technique et échange avec les autres développeurs. Quelques éléments techniques à maîtriser : Angular, VueJs, Typescript, Nodejs, Nestjs MongoDB, PostgreSQL GCP CI/CD, github action Kafka
Mission freelance
ML - AI Engineer // Hybrid - Paris
Identifier et mettre en œuvre les solutions d'IA les plus adaptées aux exigences et aux objectifs des cas d'usage, en s'appuyant sur une analyse approfondie des spécifications techniques et fonctionnelles. Concevoir des solutions Data S cience et IA génératives pour répondre aux enjeux de produits et de services de nos clients . Contribuer à l’ensemble du cycle de vie de projet Data Science : définition du Use Case, architecture technique, mise en œuvre de POCs / POVs , implémentation et intégration à des environnements de production. Garantir la sécurité et la conformité réglementaire en respectant l es mesures de sécurité et l es protocoles de confidentialité pour protéger les données sensibles. Participer aux chantiers d’innovations et de veille continue sur les IA et les pratiques MLOps / LLMOp s Ce que nous pouvons attendre de vous : Compétences techniques recommandées : Domaine s d’expertise : Machine Learning, NLP, Deep Learning GenAI : LLM, R AG , Vect or Databas e , Sea rch Engines, LLMOps ,… Cloud : Azure (Azure ML, Azure OpenAI , Azure Prompt Flow, Databricks ,…) , GCP, AWS Programmation : Python, SQL et outils d’analyse de données . Framework & Tools : Langchain , Chroma, FAISS , H ugging Face Devops / MLOps : Git, Docker, Kubernetes
Mission freelance
Développeur expert Python (h/f)
emagine recherche pour son client final grand compte, un Développeur expert Python . Le développeur sera chargé de concevoir, développer et maintenir des solutions logicielles robustes tout en intégrant des outils d'automatisation et d'orchestration d'infrastructure. Il interagira avec l'équipe DevOps et d'autres parties prenantes techniques pour assurer l'alignement des solutions logicielles et des environnements d'infrastructure. Les principales responsabilités seront les suivantes : Développement d’applications en Python : Concevoir, développer et optimiser des applications backend en Python. Intégrer des API tierces et des services internes dans un environnement microservices. Assurer la qualité du code et des pratiques de développement en utilisant des tests unitaires, l'intégration continue et la revue de code. Développement Java et intégration : Apporter un support dans les parties du projet nécessitant Java (Spring Boot, etc.). Assurer l'intégration de composants Java avec les applications Python et la gestion des environnements de déploiement. Gestion de l'infrastructure avec Terraform : Utiliser Terraform pour automatiser et déployer l'infrastructure sur des environnements cloud (AWS, Azure, GCP, etc.). Gérer les configurations des environnements de développement, test et production. Orchestration avec Kubernetes : Déployer, gérer et superviser des applications conteneurisées sur Kubernetes. Travailler avec l’équipe DevOps pour améliorer la scalabilité et la performance des clusters Kubernetes. Automatiser le déploiement et la gestion des applications en utilisant des pipelines CI/CD. Le candidat idéal devra disposer des compétences et qualifications suivantes : Langages de programmation : Python (expertise) : Maîtrise des meilleures pratiques de développement Python (3.x), connaissance des frameworks courants tels que Flask, Django, etc. Java (bonne maîtrise) : Expérience avec Java, notamment avec des frameworks comme Spring Boot, pour des intégrations avec des applications Python et autres services. Gestion de l’infrastructure et déploiement : Terraform : Expérience dans la gestion d’infrastructure as code (IaC) avec Terraform, principalement pour les environnements cloud. Kubernetes : Expertise en déploiement, gestion et orchestration de conteneurs sur des clusters Kubernetes. Docker : Bonne maîtrise de Docker pour la containerisation des applications. DevOps et CI/CD : Expérience avec les pipelines CI/CD, les outils comme GitLab CI, Jenkins, ou CircleCI. Connaissance des pratiques DevOps et de l’intégration continue pour l'automatisation des tests et des déploiements. Communication et niveau d'anglais : Niveau d'anglais courant (oral et écrit), capable de participer à des réunions techniques et de rédiger de la documentation technique en anglais. Capacité à travailler dans un environnement international et à communiquer clairement avec des équipes diverses. Expérience : Minimum 5 à 10 ans d'expérience professionnelle en développement logiciel, avec une expertise en Python et une bonne maîtrise de Java, Terraform, et Kubernetes. Formation : Bac+5 ou équivalent en informatique, ingénierie logicielle ou domaine similaire. Autonomie et collaboration : Capacité à travailler de manière autonome tout en collaborant efficacement avec une équipe multidisciplinaire. Anglais : Bon niveau d'anglais, tant à l'oral qu'à l'écrit, pour échanger avec les équipes internationales. Code source propre, commenté et optimisé, respectant les spécifications du cahier des charges. Documentation technique complète (conception, API, infrastructures). Tests unitaires et d’intégration, avec couverture de tests élevée. Automatisation des processus de déploiement avec Terraform et Kubernetes, incluant des scripts et des configurations.
Mission freelance
Azure Cloud Engineer
Durée du contrat : 12 mois Lieu : Paris Présentation : Nous recherchons un Expert Azure Cloud Engineer pour accompagner une grande banque dans ses initiatives de transformation cloud. Ce rôle est essentiel pour concevoir, implémenter et optimiser des solutions basées sur Azure, répondant aux exigences d'un environnement bancaire fortement réglementé. Responsabilités principales : Concevoir et implémenter une infrastructure Azure pour des applications bancaires critiques, en garantissant le respect des cadres de conformité (ex. : RGPD, DORA). Automatiser les déploiements à l'aide d'outils d' Infrastructure as Code (IaC) tels que Bicep ou Terraform . Optimiser les configurations réseau sur Azure, incluant VNet Peering , connectivité hybride ( ExpressRoute , VPN Gateway ) et NSG . Assurer la résilience et l'évolutivité des services via Azure Load Balancer , Azure Traffic Manager et Azure Monitor . Collaborer avec les équipes de sécurité pour mettre en œuvre des bonnes pratiques, notamment avec Azure Security Center , Key Vault et Privileged Identity Management (PIM) . Construire et maintenir des pipelines CI/CD avec Azure DevOps pour des déploiements d’applications fluides. Surveiller et résoudre les problèmes des services Azure tels que Azure Kubernetes Service (AKS) , Logic Apps et Azure Functions afin d'atteindre les performances attendues. Fournir une documentation complète et transférer les connaissances aux équipes internes. Compétences clés : Expertise approfondie de Microsoft Azure , incluant App Services , Azure SQL , Storage Accounts et Event Grid . Maîtrise des outils IaC comme Terraform , Bicep ou ARM templates . Compétences avancées en scripting avec PowerShell ou Python . Solide compréhension des technologies de containerisation et d’orchestration (Docker, Kubernetes). Expérience pratique avec Azure AD , politiques IAM et solutions d’identité hybride. Connaissance des normes de conformité et de sécurité dans le secteur bancaire (ex. : PCI DSS, RGPD). Exigences : Expérience confirmée dans le déploiement de solutions Azure dans des environnements d’entreprise à grande échelle et réglementés. Excellentes compétences analytiques et capacité à travailler de manière autonome. Bonnes aptitudes à la communication et à la documentation. Atouts : Connaissance des environnements multi-cloud (ex. : GCP, AWS). Certifications telles que Azure Solutions Architect Expert ou Azure DevOps Expert . Date de début : Dès que possible Si vous êtes un expert Azure Cloud prêt à relever un défi stimulant dans le secteur bancaire, nous souhaitons vous rencontrer !
Mission freelance
DBA Sybase/SQLServer de Production
Contexte : Environnement multi SGBD majoritairement SQLServer avec du Sybase et mySQL/PostgreSQL. MISSIONS En tant que DBA Sybase/SQLServer : - Prise en charge des sujets de refresh de plateforme OS Sybase ASE - Prise en charge des sujets de migration de Sybase vers sqlserver - Développement et maintenance de scripts powershell et ksh pour automatiser les taches - Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) - Maintien en conditions opérationnelles des SGBD du périmètre Ostrum IT - Supervision des SGBDs de Production du périmètre NIM OS / ( sqlserver 2014 à sqlserver 2022, Sybase ASE 16 ) - Prise en compte et traitement des incidents et des appels des utilisateurs - Participation aux cellules de crise - Contrôle et livraison des modifications de structure de base, - Prise en charge des demandes de Mise en Production, - Prise en compte des demandes d'interventions sur les différentes technologies SGBDs - Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs - Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées - Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées. - Réalisation et maintenance de la documentation d’exploitation des bases de données. - Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL2022, Interfaçage Polybase - Hadoop) - Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP. - Application de la politique générale de sécurité de Natixis. La mission proposée est soumise aux dispositifs d'astreintes et horaires décalées.
Mission freelance
DBA PostgreSQL , SQL server et Azure sur Orléans (3 jours sur site)
Notre client (secteur luxe) intervient en expertise sur les infrastructures systèmes et sur la gestion des bases de données et applications pour l’ensemble des maisons de leur groupe. Nous recherchons un/une administrateur DB expérimenté(e) sur les domaines : - BDD SQL Server et PostgreSQL niveau maitrise ou expertise en secondaire Oracle et MySQL - BDD Azure & GCP - Infrastructures Windows & Linux Il interviendra sur : - Support N3 sur le run - Support sur MCO complexe - Ponctuellement contributeur sur projets BDD
Offre d'emploi
Data Engineer - Retail H/F
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans le cadre de nos priorités stratégiques DATA, nous cherchons un DATA Engineer expérimenté. Vos missions et responsabilités : Vous rejoignez l'équipe Supply Chain en charge des échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Actuellement l'équipe est composée de 3 ingénieurs Data, 1 Product Owner, 1 Scrum Master, 2 Business Analyst et 1 Tech Lead. Nous recherchons un ingénieur Data pour renforcer l'équipe pour assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Vos missions : - Traitement d'activités de support / maintenance corrective ; - Analyse et cadrage technique des différents besoins ou problématiques remontées par les Bus ; - Réalisation et maintien de la documentation technique du produit (Spécification technique, dossier d'architecture, etc...) ; - Réalisation des développements du produit (Modules GCP, Terraform, Python, BigQuery) ; - Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops)) ; - Appliquer les normes de qualités définies pour le groupe Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la Data.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Arce 7 mois après la création de l'entreprise ?
- Close de non concurrence freelance à portgae salarial
- situation compliquée fin de mission pression client comment gèrer ?
- 🎯 Recherche Expert pour Accompagnement sur SCCM et Intune 🚀
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Calcul frais télétravail en étant propriétaire