Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 600 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Ingénieur développement C++ - Aéronautique et Défense F/H

SOLENT
Publiée le
Bash
C/C++
Python

37k-50k €
Pontoise, Île-de-France

Vous rejoindrez notre centre de services Recherche & Technologies (R&T) composé d'une trentaine d'ingénieurs et d'experts en logiciel embarqué. Ce dispositif a pour vocation à contribuer au déploiement de technologies nouvelles sur les futurs produits de notre client, spécialisé dans le développement de produits pour l'aéronautique et la défense. Dans ce cadre, SOLENT intervient principalement pour développer des drivers sur OS temps réel, construire des systèmes logiciels sur mesure pour des solutions embarquées, appliquer des principes de cybersécurité ou encore intégrer des algorithmes de traitement complexes. Vous participerez à la conception, au développement et aux phases de tests de ces logiciels embarqués. Quelques exemples : Développement et intégration d'algorithmes de traitement d'images sur un drone pour une exécution en temps réel sur la cible Développement d'IHM pour démonstrateur d'acquisition vidéo d'un viseur Architecture et développement de modules de préparation de données et synchronisation des flux dans le logiciel back-end d'une architecture client-serveur Analyser les besoins métier ; Estimer la charge de développement tout en respectant l'architecture existante ou à venir ; Développer et implémenter en langage C++ ; Réaliser les tests et garantir la qualité et la robustesse des fonctionnalités développées tout en s'interfaçant avec les équipes système ; Assurer l'analyse et la correction de bugs ; Documenter les développements effectués ; Participer au partage de connaissances par le biais de réunions d'experts. Stack technique : langage C++, Bash, Python Source Code Management : Git Écosystème : Linux/Windows Équipe : Intégré dans notre équipe R&T dans les locaux de notre client (Massy ou Eragny) Encadrement : La méthode SOLENT ! Un management technique, couplé à un parcours d'onboarding jalonné d'objectifs clairs qui te permettront de monter en compétences rapidement et efficacement sur le projet. 👨‍🎓👩‍🎓 Vous êtes diplômé d'une école d'ingénieur ou équivalent universitaire en développement logiciel. 💼 Vous avez une première expérience en développement embarqué C++ ? 👉 Vous avez d'autres compétences techniques en C ? Java ? OS temps réel ? Réseaux ? 👉 " Qui dit industrie, dit process, dit documentation ! " Cela vous est familier ? 👉 Vous avez un bon niveau d’anglais (oral et écrit) ? 👉 Vous possédez d'excellentes compétences en communication interpersonnelle et en collaboration d'équipe ? 👉 Vous êtes avide de challenge ? De technique ? 👉 Vous avez un sens critique ? Un sens du service ? Un esprit de synthèse ? Une rigueur et une organisation dans vos projets ? Si vous vous reconnaissez, alors n’hésitez plus et rejoignez nos équipes pour une nouvelle aventure ! Nous cherchons aujourd’hui nos talents de demain… 🦸‍♀️🦸‍♂️

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Chef de Projet SAS Confirmé H/F

Reactis
Publiée le
Apache Spark
Cloudera
Python

12 mois
700-800 €
Paris, France

Dans le cadre de la transformation de son activité Décisionnel, le client recherche un Chef de projet SAS H/F pour l’accompagner sur deux sujets de transformation (à mi-temps) : - Migration des utilisateurs SAS de Teradata vers Hadoop - Appel d’offre, choix et acquisition d’un nouvel outil en vue de remplacer SAS Le chef de projet H/F pilotera l’activité de transformation avec une équipe dédiée, sur Lyon et sur Paris. Des déplacements sont donc à prévoir dans le cadre de ce pilotage. Vous accompagnerez le client sur la migration vers SAS-Hadoop, et le process d’acquisition d’un nouvel outil en vue de remplacer SAS dans les prochaines années. Un premier benchmark de solution du marché est en cours de réalisation avant de démarrer le projet, avec un recensement des cas d’usages utilisateur. Fort de votre expérience sur cette technologie et de vos compétences en gestion de projet, vous piloterez le projet par les jalons, gérerez les risques et alerterez la hiérarchie en cas de glissement. Vous devrez également préparer et animer la comitologie du projet de transformation SAS. Rattaché(e) au responsable Transformation Décisionnel, vos principales missions sont : Faire un état des lieux technique et fonctionnel de l’existant Mener des entretiens utilisateurs afin de faire un état des lieux des usages SAS et les besoins futurs Accompagner les utilisateurs dans la migration de SAS-Teradata vers SAS-Hadoop, et piloter ce plan de migration Planifier et suivre l’avancement des travaux liés à la transformation Gérer les risques inerrants au projet, Préparer et animer les différents comités (Comité suivi, Comité opérationnel ,.. ) Assister le responsable Transformation Décisionnel pour la préparation des comités de pilotage Jouer un rôle de conseil sur les bonnes pratiques en termes de gestion de projet, ainsi que sur les fonctionnalités SAS à utiliser dans Hadoop. Accompagner les utilisateurs sur les aspects techniques de SAS. Être amené(e) à coordonner les différentes équipes techniques, recette et métier tout au long de la phase de migration Piloter les démarches pour le choix et l’acquisition d’un nouvel outil, en relation avec l’ensemble des parties prenantes Rédaction de documents de synthèse sur les deux périmètres Rédaction et dépouillement des appels d’offre A noter que cette mission est à pourvoir à mi-temps. Environnement technique SAS Teradata Python et le stack Cloudera (HDFS, Hive, Spark, Impala, HBase, …), pour des usages Big Data

Freelance
CDI

Offre d'emploi
Data Engineer AWS

KP2i
Publiée le
Apache Spark
API
API Platform

1 an
13k-63k €
200-700 €
Paris, France

Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants

CDI
Freelance

Offre d'emploi
 Data Engineer   Python MLOps AZURE

HIGHTEAM
Publiée le
AWS Cloud
Azure
DevOps

3 ans
51k-66k €
550-600 €
Île-de-France, France

Vos missions Développement de pipelines de traitement de données et de modèles (préparation des features, entraînement, tuning, inférence). Conception et mise en œuvre de solutions robustes et maintenables (typage fort, design patterns avancés). Collaboration avec les Quants et Data Scientists pour résoudre les problématiques liées au cycle de vie des modèles ML. Rédaction de spécifications techniques détaillées. Implémentation et automatisation des tests. Mise en production des développements, suivi et évolution des solutions. Création de tableaux de bord d’activité.

Freelance

Mission freelance
Expert Cybersécurité opérationnelle PKI

EMGS CONSULTING
Publiée le
API
Docker
Kubernetes

6 mois
500-600 €
Lille, Hauts-de-France

Dans le cadre de cette mission, nous recherchons un profil ayant une solide expertise en sécurité technique et en développement sécurisé, idéalement dans un environnement DevSecOps. Voici les attentes et prérequis pour ce poste : Vous justifiez d'une expérience significative de 5 à 6 ans minimum dans des fonctions d'expert en sécurité technique ou de développeur sécurisé, avec des résultats probants. Vous êtes familier avec des environnements complexes et évolutifs, incluant des pratiques DevSecOps avancées.

Freelance
CDI

Offre d'emploi
Data Analyst (Exp. Secteur Média OBLIGATOIRE) - Suisse

DATSUP
Publiée le
Microsoft Power BI
Python
SQL

6 mois
200k €
3k €
Genève, Suisse

Intégrer une équipe en charge des problématiques de Data Engineering et Data Analytics. Équipe de 5 personnes. Collecte, Traitement, Nettoyage et Analyse des données (plateforme web / mobile, streaming, ...). Conception et maintenance des dashboards. Requetage des bases SQL. Restitution, exploitation et reporting des données sous Power BI. Solides connaissances en développement (ex : Python) un gros plus. Solides connaissances des concepts d'orchestration des données, GIT, DBT, ... un gros plus.

CDI

Offre d'emploi
Support technico-fonctionnel Finance de Marché

Atlanse
Publiée le
Python
SQL

10k-65k €
Île-de-France, France

Vous interviendrez en tant que support technico fonctionnel avec une parfaite compréhension du secteur financier dans un contexte international. Missions : Effectuer le support fonctionnel et le support à la production Assurer le maintien en condition opérationnelle des plateformes applicatives Réaliser le monitoring des flux de données Suivre et résoudre les incidents Coordonner le projet Assurer une communication régulière auprès des métiers Effectuer des reportings réguliers La maîtrise de l’anglais technique est indispensable pour mener à bien cette mission.

CDI

Offre d'emploi
Data Scientist

Zsoft Consulting
Publiée le
Business Intelligence
Cloud
Data science

38k-45k €
La Défense, Île-de-France

Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.

CDI

Offre d'emploi
Ingénieur DevOps

Zsoft Consulting
Publiée le
Administration systèmes et réseaux
Automatisation
Bash

38k-45k €
La Défense, Île-de-France

Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Ingénieur DevOps. En tant qu'ingénieur DevOps, vous jouerez un rôle clé dans l'automatisation et l'optimisation des processus de déploiement, de monitoring et de gestion des infrastructures cloud ou on-premise. Vous collaborez étroitement avec les équipes de développement et d'exploitation pour assurer la qualité, la stabilité et la scalabilité des applications et des systèmes. Responsabilités Principales: Automatisation : Développer et maintenir des pipelines CI/CD pour assurer des déploiements continus et fiables. Infrastructure as Code (IaC) : Concevoir et gérer les infrastructures avec des outils comme Terraform ou Ansible. Monitoring et Logs : Implémenter et surveiller les systèmes de monitoring (Prometheus, Grafana, ELK, etc.) pour garantir la disponibilité des services. Collaboration : Travailler en étroite collaboration avec les développeurs pour intégrer les pratiques DevOps dans les cycles de développement. Cloud Computing : Déployer et gérer des applications dans des environnements cloud (AWS, GCP, Azure). Sécurité : Participer à la mise en œuvre des bonnes pratiques de sécurité dans les pipelines et les systèmes. Compétences Techniques Requises: Systèmes : Bonne maîtrise des systèmes Linux (CentOS, Ubuntu) et bonne connaissance de Windows Server . Conteneurisation : Expérience avec Docker et orchestration via Kubernetes . Outils CI/CD : Familiarité avec des outils comme Jenkins, GitLab CI/CD, ou GitHub Actions. Infrastructure as Code (IaC) : Connaissance de Terraform , CloudFormation ou Ansible. Langages de script : Compétences en Bash , Python ou Go pour automatiser les tâches. Cloud : Expérience avec au moins un fournisseur cloud ( AWS, GCP, Azure ). Versionning : Bonne maîtrise de Git et des workflows Git ( GitFlow, GitOps ). Monitoring : Expérience avec des outils comme Prometheus, Grafana, ou des solutions APM ( Datadog, New Relic) .

Freelance
CDI

Offre d'emploi
Ingénieur DevOps & SRE

Deodis
Publiée le
DevOps
Elasticsearch
Python

3 ans
45k-50k €
450-500 €
Montpellier, Occitanie

Nous recherchons un(e) Ingénieur DevOps et SRE pour renforcer notre équipe d’exploitation. Garant de la qualité de service (QoS), l’équipe assure la gestion de plus de 900 services applicatifs, principalement basés sur des solutions Open Source. En collaboration avec les équipes projet, nous intervenons à chaque étape, depuis la conception jusqu'au déploiement en production, pour garantir la fiabilité et l’exploitabilité des applications. Votre mission principale consistera à : Remédier : Participer au Support en Temps Réel (STR) en traitant les alertes et incidents complexes sur des environnements Open (Linux, Docker, Java). Fiabiliser : Apporter un soutien aux projets dès les phases de conception pour intégrer les bonnes pratiques SRE, garantir la sécurité des mises en production majeures et améliorer l’exploitabilité des applications. Supporter : Sécuriser les déploiements sensibles en production et traiter les demandes de travaux dans l’outil Snow. Principaux Livrables Élaboration de tableaux de bord de suivi des applications (Dynatrace, ELK) en collaboration avec les équipes projet et exploitation. Mise en œuvre de techniques et procédures d’exploitation automatisées (scripts Open, Ansible). Vérification et application des règles et standards d’exploitabilité (documentation, consignes). Résolution des incidents dans ServiceNow et traitement des demandes de travaux Faciliter et animer les cérémonies Agile (sprints, rétrospectives, cartes Jira...)

Freelance

Mission freelance
Data Analyst

WHEEL OF WORK
Publiée le
Microsoft Power BI
PostgreSQL
Python

1 an
350-450 €
Lille, Hauts-de-France

Mission Intégrer et optimiser la plateforme Looker pour son déploiement au sein des Business Units et autres plateformes chez un acteur majeur du retail. Concevoir une architecture répondant aux besoins métiers, garantir des performances optimales, et accompagner les équipes dans l’adoption de Looker. Créer et maintenir des tableaux de bord pour le pilotage des activités tout en assurant une gestion des coûts et une mise à jour des fonctionnalités Looker. Compétences techniques Expertise confirmée sur Looker (LookML, API, bonnes pratiques). Maîtrise des outils Google Cloud Platform (GCP), GitHub, et Terraform. Expérience en optimisation de plateformes et en intégration de solutions analytiques. Connaissances en visualisation de données et accompagnement d’équipes techniques.

Freelance

Mission freelance
data engineer python / spark MLOPS senior / databricks (forcasting)

Gentis Recruitment SAS
Publiée le
Apache Spark
Databricks
Machine Learning

3 ans
400-600 €
Paris, France

Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus.

Freelance

Mission freelance
ML Ops / DevOps Data Toulouse (3 jours sur site)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Docker
Python
Pytorch

6 mois
450-550 €
Toulouse, Occitanie

La prestation consiste à renforcer avec un MLOps engineer notre équipe Datalab, qui est une équipe transverse de 6 data scientists internes. Chaque data scientist peut travailler sur des sujets différents, sur des périodes de 3 mois à 1 an, pour différentes applications demandées par les différentes Business Units. Les activités des data scientists peuvent être de plusieurs natures (régression, classification, segmentation sémantique), sur différentes données (images satellites, données météo ou océanographiques, télémétrie, trajectoires) en utilisant la technologie la plus adapté au besoin (du simple processing simple à du Machine-Learning ou du Deep-Learning). Il y a 2 ans, une plateforme (KFPC, KubeFlow Processing Chain) a été développée basée sur Kubeflow. Cette solution n'est utilisée aujourd'hui que pour l'inférence, de chaîne ML ou non ML et nécessite beaucoup de temps pour la maintenir. Cette solution ne permet pas ou n'est pas utilisée pour gérer les activités de data collection, préparation, experiment tracking, training et model registry. Pour cette prestation, les objectifs sont de: - mettre en places les outils, process et bonnes pratiques pour la phase amont du process MLOps jusqu'au model registry au moins, - participer aux activités Data Science. Ses activités consisteront à : - comprendre et analyser le problème posé par les data scientists, - définir le besoin de fonctionnalités nécessaires, process, frameworks et outils, - proposer une roadmap d'implémentation, - développer la solution en collaboration avec l'équipe IT (plateforme, réseau, infra), - valider l'implémentation avec les data scientists pour s'asurer de l'impact positif. Expérience demandée de plus de 6 ans

Freelance

Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON

YGL consulting
Publiée le
API
AWS Cloud
Big Data

12 mois
600-750 €
Paris, France

Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME

Freelance
CDI

Offre d'emploi
Développeur Python

MSI Experts
Publiée le
Docker
Kubernetes
Python

1 an
35k-42k €
300-400 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons pour notre client sur Lyon un Développeur python expérimenté afin de : Développer, exploiter et maintenir des applications. Assurer le développement et le déploiement de votre code via Docker et Kubernetes. Collaborer directement avec les Product Owners (PO) pour clarifier et développer les tickets. Participer aux sessions de backlog refinement avec l’équipe. Mettre à jour et gérer la documentation technique. Réaliser des Proofs of Concept (POC) et chercher à améliorer les solutions existantes.

600 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous