Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-qxXDVJSrhfECKplU.png)
Mission freelance
Cloud GCP Python Data Scientist - IA & Medias (H/F) - 13+75 & Remote
Vous ferez partie de l'équipe IA pour la mise en place de prototype à destination principalement des médias : Conception de Prototypes et Pilotes : Élaborer et développer des prototypes et des projets pilotes pour démontrer la faisabilité et la valeur des solutions IA. Framing des Projets IA : Définir et structurer les projets d'intelligence artificielle en collaboration avec les parties prenantes, en identifiant les objectifs, les ressources nécessaires et les étapes clés. Conseil et Accompagnement : Fournir des conseils stratégiques et techniques aux clients pour les aider à intégrer les solutions IA dans leurs processus métier. Livrables : Prototypes IA sur les médias Documentation, code propre Framing de sujet, comprenant ROI attendus, solution technique, architecture, etc.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-DGQ9ZTicXqzyxaQA.png)
Mission freelance
POT8209-Un Chef de Projet Infrastructure Technique sur Orléans
Almatek recherche pour l'un de ses clients, Un Chef de Projet Infrastructure Technique sur Orléans Profil recherché : Expérience confirmée en gestion de projets techniques, idéalement dans le domaine des infrastructures IT. Bonne connaissance des environnements techniques (réseaux, systèmes, cloud, virtualisation). Capacité à travailler en mode transversal avec des équipes pluridisciplinaires. Excellentes compétences en communication et leadership. Connaissance des méthodologies Agile et/ou ITIL est un plus. Anglais courant (souhaité ) Compétences techniques : Environnements systèmes : Windows, Linux, virtualisation (VMware, Hyper-V). Réseaux : LAN, WAN, sécurité réseau. Outils de gestion de projet : MS Project, Jira, Confluence, etc. Solutions Cloud : AWS, Azure, ou GCP (un plus).
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/EaiBrNNH-logo.png)
Mission freelance
Data Engineer
Présentiel obligatoire 3 jours sur site par semaine Le livrable est - Compétences techniques Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-A2j2Y7klre6U4xjA.png)
Mission freelance
Expert Réseaux Multi Cloud Senior - PARIS
Missions principales Vous serez en charge de la conception, l’optimisation et le déploiement d’architectures réseau dans des environnements multi Cloud (AWS, GCP, Azure, …), en assurant l’alignement avec les meilleures pratiques FinOps et DevOps. Vos principales responsabilités incluent : Définition d’architectures réseau pour des environnements multi Cloud. Optimisation des coûts Cloud dans une approche FinOps. Configuration et gestion des composants Cloud Provider, tels que DirectConnect, VIF, Proxy, Bucket S3, TGW, NLB/ALB, DNS hybride (Route53 / Infoblox), etc. Automatisation des tâches via des outils comme Ansible et Terraform. Intégration avec des environnements DevOps tels que GitLab et Proxmox. Gestion et administration des pare-feu Palo Alto.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/AyfKgynH-logo.png)
Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer confirmé GCP pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives en temps réel dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-Q8Y6fxstOgAcNJwt.png)
Mission freelance
Consultant DevOps Confirmé
Nous recherchons pour notre client un Consultant DevOps confirmé. L’objectif est de renforcer l’équipe DevOps en charge de la modernisation des infrastructures et des déploiements applicatifs. Le consultant interviendra sur l’automatisation des processus, l’optimisation des performances et la gestion des environnements Cloud et CI/CD. Compétences Recherchées : Infrastructure & Cloud : Kubernetes, Docker, Terraform, Ansible, CI/CD (Jenkins, GitLab CI) Langages : Python, Bash Supervision & Sécurité : Prometheus, ELK, Dynatrace Environnements : Linux, Cloud (GCP, Azure)
Mission freelance
Achitect Infrastructure
JCW est à la recherche d'un Architect infrastructure pour l'un de ces clients. Profil recherché: Au moins 7-8 ans d'expérience en tant qu'architecte Expertise sur VMware - Kubertnestes/Redhat Openshift - GCP sera impératif Expertise sur Big Data et C4 Model sera également impératif Connaissance de d'autres outils sera appréciée La Mission: Démarrage ASAP Localisation: Ile-de-France Durée: 1 an renouvelable Fréquence: 3 jours sur site et deux jours de remote Langues: Francais et anglais impératif Si vous êtes intéressées, ou connaissez des personnes qui pourraient l'être, merci de m'envoyer vos/ leur CV à pour une considération immédiate.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-wD1ynxeswJ45sz9O.jpg)
Offre d'emploi
Développeur back end Java 21 (H/F)
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous recherchons un.e Développeur.euse back-end Cloud pour intégrer une équipe technique et participer à des projets innovants liés à la gestion et à l’exploitation de données dans un environnement agile et moderne. Vos missions principales : Développer et implémenter des solutions backend en Java 21 avec Spring Boot. Produire un code propre, commenté et conforme aux standards de développement. Réaliser des tests techniques unitaires. Documenter les solutions développées dans Confluence. Participer aux rituels Agile pour garantir une collaboration efficace. Collaborer avec des équipes multidisciplinaires pour répondre aux besoins.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/CdHQGHih-logo.jpg)
Offre d'emploi
Engineering Manager Connectivités – Martech – Aix en Provence F/H
Principales missions : Concevoir et développer une architecture de plateforme distribuée et scalable. Intégrer des connecteurs pour les API et services tiers. Optimiser les performances de la plateforme en termes de traitement des données. Missions annexes : Supervision de la sécurité et de la résilience des flux de données. Collaboration avec les équipes interfonctionnelles pour aligner les objectifs techniques et commerciaux. Stack technique À maîtriser : Java, Spring, Quarkus Systèmes distribués, traitement de données à grande échelle Bases de données distribuées (Cassandra, MongoDB) API REST Cloud (AWS, GCP, Azure) Environnement technique global : Agrégateurs (Amadeus Hospitality, Sabre, Travelport, GetYourGuide) Outils de gestion de projets Agile
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/AyfKgynH-logo.png)
Mission freelance
Data Engineer GCP confirmé – Expertise Spark, Kafka, Scala – Secteur bancaire
Nous recherchons un Data Engineer confirmé pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/kKsRcFfw-logo.png)
Mission freelance
Lead dev Java/vuejs
contexte du projet : Dans un contexte de transformation digitale et d’organisation d’entreprise en mode plateforme, nous travaillons sur la modernisation de notre SI. Nous te proposons d’intégrer, au sein de l'enjeu digital data l’équipe Configurateurs pour travailler sur la réalisation du configurateur Volets Battants sur une architecture cloud ready (GCP/openshift). Ce nouveau configurateur a fait l'objet d'une nouvelle étude UX. Les wireframes du projet sont déjà réalisées (un UI se chargera d'effectuer le découpage et la mise aux normes) Pour cela, tu collabores au sein d'une squad composée de plusieurs développeurs, d’un Product Owner, d'un UX et d'un UI. La méthodologie Agile Scrum ainsi que le BDD (Behaviour-Driven Development) et le TDD devront être utilisés pour ce projet. En tant que lead développeur, ton rôle est de concevoir ce nouveau configurateur en collaboration avec ta squad. Tu es notamment en charge : De concevoir et réaliser des solutions standardisées (Back & Front) De déployer et maintenir nos solutions (Evolutions & corrections) De garantir la sécurité de nos solutions (accès au SI, stockage des données, …) De contribuer aux études et définitions des spécifications applicatives et techniques De garantir la qualité des livraisons En tant que développeur tu connais les nouvelles tendances & opportunités technologiques et tu sais les partager (Slack, Workplace, Confluence). Tu es également très autonome et force de propositions. Tu es en relation avec les autres équipes en charge des applications de vente.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-EoBZnkLfZ11z2hcq.png)
Mission freelance
DevOps Kubernetes/Grafana/Open Telemetry
Au sein de notre du agence lilloise, pour le compte de notre client issu du secteur de la grande distribution, nous recherchons un DevOps pour accompagner l'équipe Observabilité et être acteur dans la construction de la plateforme d'observabilité composée de plusieurs outils d'alerting, monitoring, log management et APM pour des applications à la fois hébergées on Premise et dans le cloud. La mission est basée à Ronchin (59) Plus généralement, vos tâches seront les suivantes : - Contribution à la définition des spécifications générales, - Réalisation à l'analyse technique et l'étude détaillée, - Adaptation et paramétrage des progiciels applicatifs (ERP), - Réalisation du prototypage, - Elaboration des jeux d'essais pourles tests unitaires d'intégration, - Tests unitaires, - Identification et traitement des dysfonctionnements, - Réalisation des modules (objets et composants logiciels), - Assemblage des composants, - Rédaction des documentations, - Maintenance corrective et évolutive, - Administration des composants logiciels réutilisables et met à jour la nomenclature de ces composants. Plus particulièrement, vos taches seront les suivantes : - Design, intégration, templatisation, déploiement, paramétrage des composants de la plateforme d'observabilité, - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'observabilité, - Accompagnement et conseils des utilisateurs dans l'utilisation de la plateforme d'observabilité et sur l'amélioration de la performance des applications/projet métiers (à l'international), - Construction d'une stack open source d'observabilité, de la collecte (logs, métriques, traces) à l'exploitation dans les backends, - Rédaction de la documentation et des dossiers d’exploitation afin de former et de transférer les compétences aux équipes techniques internes. Livrables : - Code documenté suivant les règles et référentiels de l'entreprise - Indicateurs de performances : Nombre de corrections en phase de recette, performance des composants développés (via des benchmarks), respect du délai dans la réalisation des modifications, nombre de régressions
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-KzSSwVXQrMsAgndS.png)
Offre d'emploi
Data Engineer DWH GCP
DÉBUT DE MISSION : ASAP DURÉE : 12 mois LIEU : Noisy-Le-Grand – Travail hybride CATÉGORIE TECHNIQUE : Systèmes (Infras, Cloud, DevOps, ...), Réseaux, Sécurité Nous recherchons pour l’un de nos clients grands comptes un Data Engineer DWH GCP expérimenté, pour contribuer à un projet de transformation IT ambitieux. Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet stratégique de migration du Data Warehouse France On-Premise (Oracle – PL/SQL) vers la Google Cloud Platform (Big Query). Ce projet inclut : L’utilisation de Dataform , Cloud Functions , et Cloud Run . La migration des données et processus existants, incluant un ETL développé en interne et certains programmes en Natural (éditeur SAG) . Vos missions principales : Participer à la migration du Data Warehouse vers Big Query sur GCP. Développer et optimiser des scripts en PL/SQL et Python pour les processus de transformation des données. Collaborer sur la conception et l’intégration des pipelines de données via les outils GCP. Analyser et réaliser des tests unitaires, d’intégration et de non-régression . Documenter les processus et assurer un transfert de compétences aux équipes. Participer activement aux rituels Agiles et utiliser Jira pour la gestion des tickets. Analyser les résultats des tests via des outils internes et ajuster les développements en conséquence. Créer et utiliser des scripts Linux KSH pour les opérations nécessaires. Profil recherché : Expérience : Minimum 8 ans dans un rôle similaire. Compétences techniques : Langages : PL/SQL (Confirmé), Python (Confirmé). Bases de données : Oracle et Big Query (Confirmé). Connaissance des outils GCP, y compris Dataform , Cloud Functions , Cloud Run . Familiarité avec des outils de Data Visualisation tels que Looker , SAP BO , ou Spotfire . Expérience en tests logiciels et outils de ticketing comme Jira . Bonne connaissance des environnements Linux et scripting KSH . Qualités personnelles : Capacité à travailler en équipe et dans un environnement Agile. Sens de l’analyse et autonomie dans l’exécution des tâches. Adaptabilité et capacité à gérer des environnements techniques complexes.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-Mr1KW4aVBTbdkMd1.png)
Mission freelance
Software Engineer IA & Computer Vision | Casablanca 100% Remote
Dans le cadre de l'industrialisation de modèles d'intelligence artificielle basés sur des techniques de computer vision , vous serez intégré(e) au service Data Science pour contribuer à la mise en place et à l’optimisation des pipelines de données et des workflows IA. Vos responsabilités Collaborer avec l’équipe Data Science pour déployer et maintenir des modèles d’IA en production. Concevoir, développer et optimiser des pipelines de données avec Apache Airflow pour garantir une gestion efficace des workflows. Mettre en place des infrastructures cloud sur Google Cloud Platform (GCP) , en utilisant des outils comme Docker et Kubernetes pour une gestion scalable et robuste des environnements. Intégrer les meilleures pratiques DevOps/DataOps (CI/CD, monitoring, automatisation) dans les projets IA. Garantir l’intégration des modèles basés sur des bibliothèques de data science et computer vision dans des systèmes opérationnels. Participer à l’amélioration continue des process d’industrialisation des modèles IA. Environnement technique Outils et technologies : Docker, Kubernetes (expertise requise), Airflow, Git. Cloud : Google Cloud Platform (GCP). Domaines d'application : Intelligence artificielle, Computer Vision, Data Science. Langages et bibliothèques : Python (librairies data science comme TensorFlow, PyTorch, OpenCV, etc.).
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/kKsRcFfw-logo.png)
Mission freelance
Devops GCP
Au sein des équipes opérationnelles, la mission de devops consiste à - assurer l'intégration continue des solutions développées - maintenir les plateformes - Suivre le monitoring de la plateforme - Implémenter des évolutions sur les scripts de fichiers sources de l'usine logicielle (script de packaging/paramétrage, job de build / livraison). - Implémenter les outillages et procédures de répétitions (ex: backup, automatisation, test de paramétrage). - Supporter des équipes de développements et de recette sur les activités de BUILD et de RUN. Le poste requiert des astreintes
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/hPesbXDZ-logo.jpg)
Mission freelance
Senior Data Scientist
Rôle : Data Scientist senior Durée du contrat : 6 mois (extensible) Travail à distance* (déplacements occasionnels dans les 2 bureaux du client) Date de début : ASAP Responsabilités : Concevoir et développer des prototypes et des projets pilotes pour démontrer la valeur des solutions d'intelligence artificielle. Définir et structurer les projets d'IA, en travaillant en étroite collaboration avec les parties prenantes. Identifier les objectifs et les ressources nécessaires pour assurer la faisabilité du projet Fournir aux clients des conseils stratégiques et techniques pour les aider à intégrer les solutions d'IA dans leurs processus d'affaires. Processus de documentation précis N'hésitez pas à nous contacter si ce poste vous intéresse !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.