Trouvez votre prochaine offre d’emploi ou de mission freelance Transmission Control Protocol (TCP)
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-wD1ynxeswJ45sz9O.jpg)
Offre d'emploi
Développeur C (F/H)
📑 CDI (42-48K€) / CDI OU Freelance OU Portage salarial - 🏠 2 à 3 jours de télétravail / semaine - 📍 Saverne - 🛠 Expérience de 5 ans minimum (hors stages / alternance) Contribuez à l’avenir de la mobilité électrique ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur C pour intervenir chez un de nos clients. 💻💼 Vous intégrerez une équipe dédiée à l’innovation dans le domaine de l’électromobilité afin de concevoir les produits de recharge de véhicules électriques de demain, en combinant expertise technique et passion pour des solutions durables. Pourquoi nous rejoindre ? - Contribuez à une industrie au cœur de la transition énergétique - Évoluez dans un environnement où la technique et l'innovation sont au service de solutions durables - Rejoignez une équipe qui valorise l’autonomie, la collaboration et l’expertise technique 🎯 Votre rôle au quotidien : - Développement embarqué : Concevoir et développer des logiciels bas niveau et middleware pour systèmes embarqués, répondant aux contraintes de temps réel et s’intégrant dans une architecture existante - Qualité et validation : Garantir la qualité fonctionnelle et technique des livrables en participant aux revues de code et à la validation des solutions - Modélisation et optimisation : Définir les stratégies de flux de données et modéliser les comportements nécessaires pour répondre aux exigences fonctionnelles - Cybersécurité : Assurer la conformité des solutions développées aux standards de cybersécurité et au GDPR - Travail collaboratif et veille technologique : Collaborer étroitement avec les équipes hardware, validation et industrialisation, tout en maintenant une veille active sur les innovations en matière de recharge électrique ⚙️ Votre environnement technique : - Langage : Programmation en C sur microcontrôleurs (STM32, ESP32) - Systèmes temps réel : RTOS (FreeRTOS, VxWorks, QNX, etc.) - Gestion de version : GIT, SVN - Bus de communication : CAN, SPI, I2C
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-Js1BS61zgXEsXfoD.jpg)
Mission freelance
Data Engineer GCP SSIS (Google Cloud Platform)
Je recherche pour un de mes clients un Data Engineer GCP ayant des connaissances sur SSIS afin d' accompagner ce dernier dans le RUN SSIS et la migration sur GCP. Vous intégrer une équipe Hyper sympa. Vous participerez à l’analyse et planification de la migration SQL Serveur (on prem) vers GCP Experience avec Data Form Expérience dans la mise en place de pipeline ETL et ELT Maitrise des langages SQL et Python travailler en équipe et excellente compétence en communication Connaissance de SQL serveur serait un plus Certification GCP est un plus Capacité au former et faire monter une équipe en compétence sur GCP
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-383hW35ckssxWuPL.png)
Offre d'emploi
PRE EMBAUCHE Ingénieur SQL Server / BI Microsoft
PRE EMBAUCHE Ingénieur SQL Server / BI Microsoft Bonjour, Nous recherchons un/ une Ingénieur SQL Server / BI Microsoft en PRE EMBAUCHE (CDI) au terme de 6 mois de prestation chez notre client Grand Compte. Vous justifiez de 3 à 5 ans d’expérience sur le maniement du SGBD SQL sachant que SQL Server Analyse de données doit absolument être maitrisé. Rémunération selon profil. Vous aurez la charge de concevoir, déployer et optimiser des pipelines de données tout en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies Microsoft SSIS, SSAS, SSRS avec une ouverture recommandée sur Talend, OpenText et les solutions cloud de Google Cloud Platform (GCP). Description du poste : • Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l’optimisation des performances, l’orchestration des traitements complexes et l’intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. • Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. • Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. • Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. • Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. • Identifier et résoudre les goulots d’étranglement affectant les performances des pipelines de données. • Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. • Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). • Assurer la résilience et le monitoring des traitements de données. • Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. • Rédiger la documentation technique associée aux pipelines et aux traitements. • Participer aux phases de recette et garantir la conformité des livrables. Compétences techniques : • Expertise avérée sur SSIS pour le développement de processus ETL complexes. • Connaissance des technologies Talend, OpenText (souhaité). • Expérience sur Google Cloud Platform, incluant les outils BigQuery, Dataform et Cloud Composer. • Maîtrise avancée en SQL pour la manipulation et l’optimisation des bases de données. • Connaissance des concepts de Data Warehousing et des modèles en étoile et en flocon. Compétence clée et obligatoire : SQL SQL Server Analyse de données
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-xbM7eXGW9aV7nAQ4.png)
Offre d'emploi
Ingénieur MLOPS GCP/Vertex IA
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingenieur MLOPS sur GCP/Vertex IA Tâches: Conception jusqu’à la mise en production en prenant en charge les aspects techniques permettant d’obtenir un processus industriel depuis l’apprentissage d’un modèle IA jusqu’à la mise en production du modèle. Mise en en œuvre des technologies Devops et Mlops pour construire les livrables de façon sécurisée et le plus automatique possible. Réalisation des chaînes CICD et MLOPS. Construction des tableaux de bord avec des KPI adaptés pour permettre le monitoring de la solution IA en production. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-Q8Y6fxstOgAcNJwt.png)
Mission freelance
Data Engineer Big Query/GCP
Nous recherchons pour notre client un Data Engineer Big Query/GCP. Missions de l'équipe : - Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs - Accompagner les utilisateurs de Data4All dans leurs usages - Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes - Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consistera à participer à/au(x) : - La mise en place de pipelines de traitement de données - Développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - Différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/K66NJghg-logo.png)
Mission freelance
Architecte DATA expert GCP (mission courte)
Dans le cadre de son plan de transformation notre client recherche un profil Architecte DATA/ Expert GCP ayant également une expertise en modélisation et des compétences Power BI pour accompagner l’équipe DSI et métier dans le démarrage de sa data plateforme. Missions : Expertise architecture Data / Modélisation Garantir la performance et la qualité des données mises à disposition pour la DataViz Assurer la gouvernance et la cohérence des données (gestion des accès, conformité, catalogage). Définir l’architecture cible assurant une haute disponibilité et une performance optimale. Veille technologique et recommandations sur les meilleures pratiques Cloud & BI adaptées aux besoins métier. Assurer un accompagnement technique pour le choix des solutions d’ingestion de donnés dans bigQuery Produire les documents d’architecture générale et technique Émettre des recommandations priorisées, chiffrées et argumentées en termes de ROI/Bénéfice. Documentation rigoureuse des étapes clés du projet (DAT, PTI, DEX…). Développement et optimisation Expert de l’environnement GCP (BigQuery, dataform, Terraform) Maitrise de Power BI et de l’optimisation des performances des modèles Power BI (DAX, VertiPaq, Power Query). Assurer un accompagnement technique Sécurité et conformité Implémenter les meilleures pratiques en matière de gestion des accès et autorisations. Sécuriser les flux de données et garantir la conformité aux réglementations en vigueur (RGPD, best practices cloud). Définir et mettre en place une stratégie de sauvegarde et récupération des données.
Mission freelance
Développeur Backend Golang
Rejoignez une équipe tech d’élite et façonnez l’avenir d’un réseau social en pleine ascension ! 🚀 Qui sont ils ? Je recrute pour une startup en pleine croissance qui révolutionne la manière dont les gens interagissent sur les réseaux sociaux. Leur mission ? Encourager l’authenticité et les connexions sincères. Aujourd’hui, ils comptent plus de 40 millions d’utilisateurs actifs mensuels et une équipe internationale de 30+ passionnés . Ils ont pour ambition de devenir un acteur incontournable du social media, utilisé par des centaines de millions de personnes à travers le monde. 🎯 Votre mission: Ils ont bâti notre produit avec une petite équipe d’ingénieurs ultra-talentueux , et ils comptent bien garder cette approche agile tout en passant à l’échelle. Ici, pas de bureaucratie : vous aurez une grande autonomie pour prendre des décisions et livrer des fonctionnalités innovantes plus vite que n’importe quel autre réseau social . Relevez des défis techniques uniques : des millions d’utilisateurs se connectent en seulement 2 minutes , un vrai challenge d’architecture et de scalabilité. Construisez une infrastructure robuste et performante capable de supporter une croissance massive. Collaborez étroitement avec les équipes produit et tech pour imaginer et développer de nouvelles fonctionnalités . Participez aux décisions techniques clés : trade-offs, architecture, performance, résilience. Apportez votre expertise en revue de code et en conception . 🔥 stack technique: 💾 Backend : Go 🖥️ Infrastructure : GCP, Kubernetes, Pub/Sub, GitHub Actions, ArgoCD 🗄️ Base de données : Spanner, PostgreSQL, Redis 💡 Le profil que nous recherchons : ✅ 5+ ans d’expérience sur des API en architecture distribuée ✅ Maîtrise de Go et expérience confirmée sur des microservices à fort volume ✅ Autonomie, sens de l’initiative et goût pour les défis techniques ✅ Expérience en startup ou environnement tech exigeant ✅ Anglais et français courants (notre équipe est internationale) ✅ Master en informatique ou domaine connexe ⚡ Pourquoi nous rejoindre ? 🔥 Un impact direct : chaque ligne de code que vous écrivez améliore l’expérience de millions d’utilisateurs. 🚀 Un challenge technique unique : travailler sur une plateforme avec des pics de charge impressionnants. 👩💻 Une équipe d’experts : travaillez avec des ingénieurs brillants et passionnés. 🌍 Un projet à dimension internationale : une croissance rapide, des opportunités infinies. 🎯 Un environnement agile et innovant : zéro lourdeur, place à l’efficacité et à la créativité. 📅 Disponibilité : ASAP 🎯 Vous croyez en notre vision et avez envie d’un vrai challenge ? Vous êtes au bon endroit. 📩 Prêt à relever le défi ? Postulez dès maintenant !
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/vdBKfDY8-logo.png)
Mission freelance
Data analyste (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyste (H/F) à Lille, France. Contexte : Après une période de cadrage et de validation, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. Les missions attendues par le Data analyste (H/F) : C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration - Mise en production des livrables validés - Tests intermédiaires des livrables - Analyse du niveau 1 des Bugs remontés Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/maRkRRPI-logo.png)
Mission freelance
Développeur FullStack
Développeur FullStack C/Pro C/BASH/Shell Contexte Dans le cadre d’un projet stratégique, nous recherchons un Développeur FullStack expérimenté en C, Pro C et BASH/Shell pour assurer le développement et la maintenance d’applications critiques. Missions: Développement et maintenance en C, Pro C et BASH/Shell Analyse des besoins fonctionnels et techniques Développement des User Stories (JIRA) et correction des anomalies Relecture de code (Peer Review) et corrections Gestion des obsolescences techniques et recodage si nécessaire Mise à jour des versions système et logicielles Rédaction de documentation technique Réalisation de tests unitaires et d’intégration Participation aux réunions Agile (SCRUM) Support technique et gestion des incidents Astreinte d’une semaine par mois sur une application stratégique Livrables Attendues: Code source documenté sur GitLab Spécifications techniques et procédures User Stories et cahiers de tests unitaires
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-mqCblWEeY3NMhL2Z.jpg)
Mission freelance
INGENIEUR RESEAU NAC & DDI Nationalité française
Ingénieur Réseau / NAC & DDI Objectif : Assurer la livraison réussie du projet en coordonnant efficacement les parties prenantes tout en main-tenant une approche agile et dynamique. Contexte : Cette solution s’inscrit dans un environnement comprenant plusieurs parties prenantes (Poste de Travail, PKI, An-nuaire Active Directory, Réseaux, Sécurité, RSSI, la DSI, …). Le prestataire devra intervenir principalement sur des projets liés à la mise en place et à l'optimisation des solu-tions de Network Access Control (NAC) sur Cisco ISE, ainsi que sur la gestion des services critiques tels que le DNS et le DHCP basé sur Infoblox. Objectifs : - Mettre en oeuvre et optimiser les solutions NAC pour sécuriser les accès au réseau. - Garantir la disponibilité et la performance des services DNS et DHCP. - Apporter une expertise système et réseau pour améliorer la gestion des postes de travail dans un environ-nement hybride (physique et virtuel). - Renforcer les capacités opérationnelles de l'équipe interne en apportant des compétences techniques avancées. Périmètre de la mission - NAC : o Déploiement et configuration de solutions NAC. o Gestion des politiques d'accès réseau. o Analyse et résolution des incidents liés au contrôle d'accès. - DNS/DHCP : o Administration, optimisation et sécurisation des services DNS et DHCP. - Systèmes et Postes de Travail : o Participation à la configuration des images systèmes. o Contribution à l'automatisation de la gestion des postes (GPO, outils comme SCCM ou Intune).
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/kKsRcFfw-logo.png)
Mission freelance
Data engineer
Le projet consiste à migrer l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports SAP BO (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration pour les BU - Mise en production des livrables validés par les BU - Tests intermédiaires des livrables suite à la livraison OpenAudit (Notre partenaire en charge de la migration automatique) et mise à disposition à la BU - Analyse du niveau 1 des Bugs remontés par les BU puis remonté à Open Audit Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement par le partenaire (Univers Board -> Explores looker) - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/2OoeEgnC-logo.png)
Mission freelance
Architecte GCP (H/F)
Notre client dans le secteur Aérospatial et défense recherche un/une Architecte GCP H/F Description de la mission : Notre client, acteur majeur du secteur aéronautique et spatial, recherche son futur Architecte GCP en freelance. Dans le cadre d'un programme visant à rendre l'IA accessible à tous, notre client souhaite accompagner ses équipes métier dans l'expérimentation et l'adoption de l'IA générative (Gen AI). L'objectif est de mettre ces outils à disposition dans un environnement sécurisé et testé. Le programme est en phase de pré-production, avec des expérimentations concluantes prévues à la fin du premier trimestre. L’architecte GCP aura un rôle clé dans la mise en production et l’évolution de la plateforme IA. Missions principales : Architecture et mise en œuvre GCP : Définir et optimiser l'architecture cloud en lien avec les besoins IA Transition et optimisation : Collaborer avec les experts Google Cloud pour rationaliser les coûts et améliorer la performance Accompagnement technique : Être un référent pour les équipes en place, assurer un support technique avancé au quotidien Synchronisation IA & Cloud : Travailler en étroite collaboration avec les équipes IA et cloud pour garantir la cohérence et la robustesse des solutions mises en place Mise en production et itérations : Accompagner la mise en production, ajuster les solutions en fonction des retours terrain et des retours utilisateurs Évolution de la plateforme : Développer de nouvelles fonctionnalités, améliorer les connectivités et la cartographie des services Documentation et standards : Rédiger des documents techniques et établir des bonnes pratiques pour optimiser l’usage de GCP Veille technologique : Suivre les évolutions des services cloud et IA, notamment Vertex AI Gestion des feedbacks utilisateurs : Analyser les retours et proposer des améliorations pertinentes
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-KzSSwVXQrMsAgndS.png)
Mission freelance
Expert Télécom/IP Bastia
DÉBUT DE MISSION : ASAP DURÉE : 6 mois – Temps partiel (½ ETP : 1 semaine sur site, 1 semaine en distanciel) LIEU : Bastia (2B) – Hybride Nous recherchons pour l’agence de Bastia un Expert Télécom/IP pour accompagner des projets stratégiques et intervenir sur des missions variées, mêlant dépannage, SAV, et déploiement d’équipements réseau et télécom. Descriptif de la mission : En lien avec notre centre de service, vous serez responsable des interventions terrain et à distance pour : Dépannage et SAV terrain , en étroite collaboration avec le centre de service. Déploiement et mise en service des équipements suivants : IPBX Mitel A5000 . Switches et bornes WiFi Aruba . Configuration et gestion de portails captifs ( Telmat , Ucopia ). Assurer une astreinte technique lors de votre semaine de présence sur site. Compétences techniques requises : Expertise sur Mitel A5000 . Compétences avancées en IP LAN & WiFi , idéalement avec une expérience sur Aruba . Connaissance des portails captifs ( Telmat , Ucopia ). La maîtrise du Mitel MV400 serait un plus. Profil recherché : Professionnel confirmé en télécommunications et réseaux, avec une capacité à intervenir sur des environnements techniques variés. Autonome, rigoureux, et doté d’un excellent sens du service client. Disponible pour travailler en mode hybride : 1 semaine sur site à Bastia et 1 semaine en distanciel .
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-ZSqgyYp4f7G3TbHG.jpg)
Offre d'emploi
Développeur Big Data GCP - ENTRE 3 ET 6 ANS
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/YGcDCei1-logo.jpg)
Offre d'emploi
Data Engineer / Data Ops GCP
Nous recherchons un Consultant GCP spécialisé en Data Engineering et DataOps pour accompagner nos clients dans la mise en place et l’optimisation de leurs solutions de données sur Google Cloud Platform (GCP). Vous serez en charge de la conception, du développement et de la gestion des pipelines de données, tout en garantissant des processus DevOps efficaces pour l’intégration continue et le déploiement. Missions : Data Engineering : Concevoir et développer des pipelines de données sur GCP (BigQuery, Cloud Storage, Dataflow, etc.). Développer des scripts Python pour automatiser le traitement des données. Implémenter des modèles et des transformations de données avec DBT et SQL. Garantir la qualité des données et optimiser les performances des requêtes. DataOps : Déployer des solutions de DataOps sur Kubernetes et Docker. Mettre en place et gérer des processus CI/CD sur GitLab pour l'automatisation des déploiements. Utiliser Helm pour gérer des applications et services dans Kubernetes. Collaborer avec les équipes DevOps pour améliorer les workflows et la scalabilité des solutions data. Compétences requises : GCP : BigQuery, Dataflow, Cloud Storage, Composer, etc. Data Engineering : Python, SQL, DBT, ETL, modélisation de données. DataOps : Kubernetes, Docker, GitLab CI/CD, Helm, Cloud-native tools. Excellente maîtrise des outils de gestion de version (Git). Capacité à travailler dans un environnement agile et à collaborer avec des équipes pluridisciplinaires. Profil recherché : Vous justifiez d’une expérience significative en tant que Consultant Data Engineering ou DataOps, avec une forte expertise GCP. Vous êtes autonome, rigoureux(se) et avez une capacité à résoudre des problèmes complexes. Vous êtes passionné(e) par les technologies cloud et souhaitez évoluer dans un environnement innovant.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/kKsRcFfw-logo.png)
Mission freelance
Data Ops
Nous recherchons un consultant DataOps Engineer pour la mise en place et l'optimisation d'infrastructures fiables et scalables pour répondre aux besoins des produits digitaux Eco-responsables et sociaux du Groupe. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration et les simuler. STACK TECHNIQUE : - Terraform, Docker, Kubernetes, Git, - Connaissance Cloud GCP - Python PS : La présence sur site est obligatoire à hauteur de 3j par semaine.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.