Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 432 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Ingénieur SysOps Cloud

Phaidon London- Glocomms
Publiée le
Ansible
AWS Cloud
DevOps

12 mois
400-550 €
Toulouse, Occitanie

Titre du poste : Ingénieur SysOps Cloud Lieu : Toulouse Secteur : Leader de l'industrie aérospatiale Durée du projet : Contrat de 6 mois (renouvelable) Durée totale du projet : 3 ans Travail à distance : 3 jours sur site, 2 jours en télétravail par semaine À propos de l'entreprise Notre client est un acteur mondial de premier plan dans l'industrie aérospatiale, spécialisé dans la conception, la fabrication et la livraison de produits et services innovants aux compagnies aériennes et entreprises de l’aviation à travers le monde. Engagé dans le développement des technologies de pointe, il vise à améliorer la connectivité dans le secteur de l'aviation. Description du poste Nous recherchons un Ingénieur SysOps Cloud talentueux et passionné pour rejoindre notre équipe dynamique et innovante à Toulouse. En tant qu'Ingénieur SysOps Cloud, vous jouerez un rôle clé dans l'efficacité opérationnelle et l'optimisation des systèmes d'information de notre client. Vous serez responsable de la gestion des infrastructures informatiques, de la supervision des services, de la résolution des incidents et de l'amélioration continue. Responsabilités Maintenir l'état opérationnel de l'infrastructure interne. Analyser, résoudre et dépanner les problèmes de performance ou de scalabilité. Développer et maintenir la documentation de support opérationnel pour les équipes. Automatiser les tâches répétitives et gérer l’infrastructure globale. Assurer une supervision et une couverture d'alertes appropriées pour tous les systèmes. Fournir un support de niveau 3 dans votre domaine d'expertise. Compétences et qualifications requises : Automatisation & Infrastructure as Code (IaC) : Expertise en Ansible et Terraform pour l'automatisation des déploiements et de la maintenance. Dépannage : Solides compétences en résolution de problèmes pour diagnostiquer et résoudre efficacement les incidents. Langages de programmation : Maîtrise de Python. Processus & Pratiques : Connaissance des processus d'industrialisation, y compris les pratiques SysOps et DevOps. Virtualisation & Conteneurs : Expérience en virtualisation et orchestration de conteneurs, comme Docker et Kubernetes. Supervision : Capacité à superviser les systèmes avec des outils tels que Prometheus et Grafana. Formation & Expérience : Diplôme minimum BAC+2/3 en informatique. Au moins 3 ans d'expérience dans la gestion d'infrastructures cloud (AWS, Azure, OVH).

CDI

Offre d'emploi
Ingénieur développement C++ - Aéronautique et Défense F/H

SOLENT
Publiée le
Bash
C/C++
Python

37k-50k €
Pontoise, Île-de-France

Vous rejoindrez notre centre de services Recherche & Technologies (R&T) composé d'une trentaine d'ingénieurs et d'experts en logiciel embarqué. Ce dispositif a pour vocation à contribuer au déploiement de technologies nouvelles sur les futurs produits de notre client, spécialisé dans le développement de produits pour l'aéronautique et la défense. Dans ce cadre, SOLENT intervient principalement pour développer des drivers sur OS temps réel, construire des systèmes logiciels sur mesure pour des solutions embarquées, appliquer des principes de cybersécurité ou encore intégrer des algorithmes de traitement complexes. Vous participerez à la conception, au développement et aux phases de tests de ces logiciels embarqués. Quelques exemples : Développement et intégration d'algorithmes de traitement d'images sur un drone pour une exécution en temps réel sur la cible Développement d'IHM pour démonstrateur d'acquisition vidéo d'un viseur Architecture et développement de modules de préparation de données et synchronisation des flux dans le logiciel back-end d'une architecture client-serveur Analyser les besoins métier ; Estimer la charge de développement tout en respectant l'architecture existante ou à venir ; Développer et implémenter en langage C++ ; Réaliser les tests et garantir la qualité et la robustesse des fonctionnalités développées tout en s'interfaçant avec les équipes système ; Assurer l'analyse et la correction de bugs ; Documenter les développements effectués ; Participer au partage de connaissances par le biais de réunions d'experts. Stack technique : langage C++, Bash, Python Source Code Management : Git Écosystème : Linux/Windows Équipe : Intégré dans notre équipe R&T dans les locaux de notre client (Massy ou Eragny) Encadrement : La méthode SOLENT ! Un management technique, couplé à un parcours d'onboarding jalonné d'objectifs clairs qui te permettront de monter en compétences rapidement et efficacement sur le projet. 👨‍🎓👩‍🎓 Vous êtes diplômé d'une école d'ingénieur ou équivalent universitaire en développement logiciel. 💼 Vous avez une première expérience en développement embarqué C++ ? 👉 Vous avez d'autres compétences techniques en C ? Java ? OS temps réel ? Réseaux ? 👉 " Qui dit industrie, dit process, dit documentation ! " Cela vous est familier ? 👉 Vous avez un bon niveau d’anglais (oral et écrit) ? 👉 Vous possédez d'excellentes compétences en communication interpersonnelle et en collaboration d'équipe ? 👉 Vous êtes avide de challenge ? De technique ? 👉 Vous avez un sens critique ? Un sens du service ? Un esprit de synthèse ? Une rigueur et une organisation dans vos projets ? Si vous vous reconnaissez, alors n’hésitez plus et rejoignez nos équipes pour une nouvelle aventure ! Nous cherchons aujourd’hui nos talents de demain… 🦸‍♀️🦸‍♂️

Freelance

Mission freelance
Niort - Expert LINUX

Signe +
Publiée le
Apache Tomcat
Linux
Python

250 jours
350-400 €
Niort, Nouvelle-Aquitaine

Contrainte forte du projet : 3 jours de présence à NIORT CONTEXTE Dans le cadre de l’évolution de son système d’information, notre client a identifié le besoin de s’adjoindre l’expertise d’une société de prestation de services disposant de compétences avérées en matière d'expertise Linux. EXPERTISES ATTENDUES Compétences Techniques : - Connaissances solides des environnements Red Hat Enterprise Linux / RedHat Satellite (administration/conception) - Maitrise des langages de programmation Python et Bash - En capacité de reprendre ou de créer des rôles/playbook ansible en liens avec les assets Linux - En capacité de configurer des outils tel qu'apache, openldap, tomcat - Comprendre et savoir utiliser les architectures exposant des API - Acculturation aux bonnes pratiques de l'ANSSI - Capacité de rédaction de modes opératoire et procédures en suivant le formalisme attendu. - Expérience d'administration des outils de supervision et d'observabilité Dynatrace et Zabbix - Bonne maitrise des mécanismes de gestion des certificats TLS (protocole ACME) - Participer aux cérémonies AGILE de la squad et la tribu - Expérience appréciée sur les environnements de conteneurisation et d'orchestration - Expérience appréciée sur l'environnement GitLAB

Freelance

Mission freelance
Chef de Projet SAS Confirmé H/F

Reactis
Publiée le
Apache Spark
Cloudera
Python

12 mois
700-800 €
Paris, France

Dans le cadre de la transformation de son activité Décisionnel, le client recherche un Chef de projet SAS H/F pour l’accompagner sur deux sujets de transformation (à mi-temps) : - Migration des utilisateurs SAS de Teradata vers Hadoop - Appel d’offre, choix et acquisition d’un nouvel outil en vue de remplacer SAS Le chef de projet H/F pilotera l’activité de transformation avec une équipe dédiée, sur Lyon et sur Paris. Des déplacements sont donc à prévoir dans le cadre de ce pilotage. Vous accompagnerez le client sur la migration vers SAS-Hadoop, et le process d’acquisition d’un nouvel outil en vue de remplacer SAS dans les prochaines années. Un premier benchmark de solution du marché est en cours de réalisation avant de démarrer le projet, avec un recensement des cas d’usages utilisateur. Fort de votre expérience sur cette technologie et de vos compétences en gestion de projet, vous piloterez le projet par les jalons, gérerez les risques et alerterez la hiérarchie en cas de glissement. Vous devrez également préparer et animer la comitologie du projet de transformation SAS. Rattaché(e) au responsable Transformation Décisionnel, vos principales missions sont : Faire un état des lieux technique et fonctionnel de l’existant Mener des entretiens utilisateurs afin de faire un état des lieux des usages SAS et les besoins futurs Accompagner les utilisateurs dans la migration de SAS-Teradata vers SAS-Hadoop, et piloter ce plan de migration Planifier et suivre l’avancement des travaux liés à la transformation Gérer les risques inerrants au projet, Préparer et animer les différents comités (Comité suivi, Comité opérationnel ,.. ) Assister le responsable Transformation Décisionnel pour la préparation des comités de pilotage Jouer un rôle de conseil sur les bonnes pratiques en termes de gestion de projet, ainsi que sur les fonctionnalités SAS à utiliser dans Hadoop. Accompagner les utilisateurs sur les aspects techniques de SAS. Être amené(e) à coordonner les différentes équipes techniques, recette et métier tout au long de la phase de migration Piloter les démarches pour le choix et l’acquisition d’un nouvel outil, en relation avec l’ensemble des parties prenantes Rédaction de documents de synthèse sur les deux périmètres Rédaction et dépouillement des appels d’offre A noter que cette mission est à pourvoir à mi-temps. Environnement technique SAS Teradata Python et le stack Cloudera (HDFS, Hive, Spark, Impala, HBase, …), pour des usages Big Data

Freelance
CDI

Offre d'emploi
Data Analyst (Exp. Secteur Média OBLIGATOIRE) - Suisse

DATSUP
Publiée le
Microsoft Power BI
Python
SQL

6 mois
200k €
3k €
Genève, Suisse

Intégrer une équipe en charge des problématiques de Data Engineering et Data Analytics. Équipe de 5 personnes. Collecte, Traitement, Nettoyage et Analyse des données (plateforme web / mobile, streaming, ...). Conception et maintenance des dashboards. Requetage des bases SQL. Restitution, exploitation et reporting des données sous Power BI. Solides connaissances en développement (ex : Python) un gros plus. Solides connaissances des concepts d'orchestration des données, GIT, DBT, ... un gros plus.

CDI

Offre d'emploi
Développeur Python Sénior (H/F)

Amiltone
Publiée le
développeur
h-f
Python

30k-42k €
Bordeaux, Nouvelle-Aquitaine

Vos missions ? Intégré à nos équipes sur nos projets au forfait ou chez nos clients vous interviendrez sur un projet de développement back-end. En tant que Développeur Python Sénior (H/F), vous assurez les missions suivantes : - Concevoir et implémenter des algorithmes & nouvelles fonctionnalités du logiciel ; - Maintenir et améliorer l'architecture ainsi que les fonctionnalités existantes ; - Gérer et réaliser toutes les phases de développement logiciel de l'architecture à la mise en production ; - Réaliser des tests unitaires. La Stack Technique: - Python - Framework : Django - Librairies Pandas et Numpy Outils: Git, Jenkins, Ansible, Squash TM

CDI

Offre d'emploi
Support technico-fonctionnel Finance de Marché

Atlanse
Publiée le
Python
SQL

10k-65k €
Île-de-France, France

Vous interviendrez en tant que support technico fonctionnel avec une parfaite compréhension du secteur financier dans un contexte international. Missions : Effectuer le support fonctionnel et le support à la production Assurer le maintien en condition opérationnelle des plateformes applicatives Réaliser le monitoring des flux de données Suivre et résoudre les incidents Coordonner le projet Assurer une communication régulière auprès des métiers Effectuer des reportings réguliers La maîtrise de l’anglais technique est indispensable pour mener à bien cette mission.

CDI

Offre d'emploi
Data Scientist

Zsoft Consulting
Publiée le
Business Intelligence
Cloud
Data science

38k-45k €
La Défense, Île-de-France

Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.

CDI

Offre d'emploi
Ingénieur DevOps

Zsoft Consulting
Publiée le
Administration systèmes et réseaux
Automatisation
Bash

38k-45k €
La Défense, Île-de-France

Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Ingénieur DevOps. En tant qu'ingénieur DevOps, vous jouerez un rôle clé dans l'automatisation et l'optimisation des processus de déploiement, de monitoring et de gestion des infrastructures cloud ou on-premise. Vous collaborez étroitement avec les équipes de développement et d'exploitation pour assurer la qualité, la stabilité et la scalabilité des applications et des systèmes. Responsabilités Principales: Automatisation : Développer et maintenir des pipelines CI/CD pour assurer des déploiements continus et fiables. Infrastructure as Code (IaC) : Concevoir et gérer les infrastructures avec des outils comme Terraform ou Ansible. Monitoring et Logs : Implémenter et surveiller les systèmes de monitoring (Prometheus, Grafana, ELK, etc.) pour garantir la disponibilité des services. Collaboration : Travailler en étroite collaboration avec les développeurs pour intégrer les pratiques DevOps dans les cycles de développement. Cloud Computing : Déployer et gérer des applications dans des environnements cloud (AWS, GCP, Azure). Sécurité : Participer à la mise en œuvre des bonnes pratiques de sécurité dans les pipelines et les systèmes. Compétences Techniques Requises: Systèmes : Bonne maîtrise des systèmes Linux (CentOS, Ubuntu) et bonne connaissance de Windows Server . Conteneurisation : Expérience avec Docker et orchestration via Kubernetes . Outils CI/CD : Familiarité avec des outils comme Jenkins, GitLab CI/CD, ou GitHub Actions. Infrastructure as Code (IaC) : Connaissance de Terraform , CloudFormation ou Ansible. Langages de script : Compétences en Bash , Python ou Go pour automatiser les tâches. Cloud : Expérience avec au moins un fournisseur cloud ( AWS, GCP, Azure ). Versionning : Bonne maîtrise de Git et des workflows Git ( GitFlow, GitOps ). Monitoring : Expérience avec des outils comme Prometheus, Grafana, ou des solutions APM ( Datadog, New Relic) .

Freelance
CDI

Offre d'emploi
Ingénieur DevOps & SRE

Deodis
Publiée le
DevOps
Elasticsearch
Python

3 ans
45k-50k €
450-500 €
Montpellier, Occitanie

Nous recherchons un(e) Ingénieur DevOps et SRE pour renforcer notre équipe d’exploitation. Garant de la qualité de service (QoS), l’équipe assure la gestion de plus de 900 services applicatifs, principalement basés sur des solutions Open Source. En collaboration avec les équipes projet, nous intervenons à chaque étape, depuis la conception jusqu'au déploiement en production, pour garantir la fiabilité et l’exploitabilité des applications. Votre mission principale consistera à : Remédier : Participer au Support en Temps Réel (STR) en traitant les alertes et incidents complexes sur des environnements Open (Linux, Docker, Java). Fiabiliser : Apporter un soutien aux projets dès les phases de conception pour intégrer les bonnes pratiques SRE, garantir la sécurité des mises en production majeures et améliorer l’exploitabilité des applications. Supporter : Sécuriser les déploiements sensibles en production et traiter les demandes de travaux dans l’outil Snow. Principaux Livrables Élaboration de tableaux de bord de suivi des applications (Dynatrace, ELK) en collaboration avec les équipes projet et exploitation. Mise en œuvre de techniques et procédures d’exploitation automatisées (scripts Open, Ansible). Vérification et application des règles et standards d’exploitabilité (documentation, consignes). Résolution des incidents dans ServiceNow et traitement des demandes de travaux Faciliter et animer les cérémonies Agile (sprints, rétrospectives, cartes Jira...)

Freelance
CDI

Offre d'emploi
Data Engineer AWS

KP2i
Publiée le
Apache Spark
API
API Platform

1 an
13k-63k €
200-700 €
Paris, France

Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants

CDI
Freelance

Offre d'emploi
 Data Engineer   Python MLOps AZURE

HIGHTEAM
Publiée le
AWS Cloud
Azure
DevOps

3 ans
51k-66k €
550-600 €
Île-de-France, France

Vos missions Développement de pipelines de traitement de données et de modèles (préparation des features, entraînement, tuning, inférence). Conception et mise en œuvre de solutions robustes et maintenables (typage fort, design patterns avancés). Collaboration avec les Quants et Data Scientists pour résoudre les problématiques liées au cycle de vie des modèles ML. Rédaction de spécifications techniques détaillées. Implémentation et automatisation des tests. Mise en production des développements, suivi et évolution des solutions. Création de tableaux de bord d’activité.

Freelance
CDI

Offre d'emploi
CONSULTANT INFRASTRUCTURE OPS AAP F/H | NANTES (44)

HIGHTEAM GRAND SUD
Publiée le
Ansible
API
Go (langage)

3 ans
13k-58k €
100-550 €
Nantes, Pays de la Loire

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité de Consultant Infrastructure spécialisé en automatisation et gestion d'infrastructures avec Ansible et Ansible Automation Platform (AAP). Vous interviendrez dans un environnement technique avancé, avec un focus sur l'automatisation des procédures d'exploitation et l'installation des environnements à travers AAP. A ce titre, vous interviendrez sur 4 axes majeurs et serez en charge de : Assurer l'automatisation de l'infrastructure : Développer, maintenir et améliorer les scripts d'automatisation (Ansible, Terraform). Participer à la mise en œuvre et au déploiement via AAP. Documenter les procédures d'exploitation et les processus d'installation. Gérer l'Infrastructure as Code (IaC) : Maintenir l’outillage lié à l’infrastructure (Ansible, Terraform). Collaborer avec les équipes en charge du catalogue de services. Assurer les développements et l'intégration : Interagir avec les API. Développer des scripts en Python (ou Go/Golang). Contribuer au backend du portail de services. Assurer un support et un accompagnement : Assister les utilisateurs dans l’utilisation des services. Apporter un soutien technique et partager les bonnes pratiques. Environnement Technique : Ansible / AAP (Red Hat Ansible Automation Platform), Terraform (IaC), API, Python, Go/Golang. Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous devrez assurer une présence sur site à 100%.

Freelance

Mission freelance
Expert Cybersécurité opérationnelle PKI

EMGS CONSULTING
Publiée le
API
Docker
Kubernetes

6 mois
500-600 €
Lille, Hauts-de-France

Dans le cadre de cette mission, nous recherchons un profil ayant une solide expertise en sécurité technique et en développement sécurisé, idéalement dans un environnement DevSecOps. Voici les attentes et prérequis pour ce poste : Vous justifiez d'une expérience significative de 5 à 6 ans minimum dans des fonctions d'expert en sécurité technique ou de développeur sécurisé, avec des résultats probants. Vous êtes familier avec des environnements complexes et évolutifs, incluant des pratiques DevSecOps avancées.

Freelance

Mission freelance
ML Ops / DevOps Data Toulouse (3 jours sur site)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Docker
Python
Pytorch

6 mois
450-550 €
Toulouse, Occitanie

La prestation consiste à renforcer avec un MLOps engineer notre équipe Datalab, qui est une équipe transverse de 6 data scientists internes. Chaque data scientist peut travailler sur des sujets différents, sur des périodes de 3 mois à 1 an, pour différentes applications demandées par les différentes Business Units. Les activités des data scientists peuvent être de plusieurs natures (régression, classification, segmentation sémantique), sur différentes données (images satellites, données météo ou océanographiques, télémétrie, trajectoires) en utilisant la technologie la plus adapté au besoin (du simple processing simple à du Machine-Learning ou du Deep-Learning). Il y a 2 ans, une plateforme (KFPC, KubeFlow Processing Chain) a été développée basée sur Kubeflow. Cette solution n'est utilisée aujourd'hui que pour l'inférence, de chaîne ML ou non ML et nécessite beaucoup de temps pour la maintenir. Cette solution ne permet pas ou n'est pas utilisée pour gérer les activités de data collection, préparation, experiment tracking, training et model registry. Pour cette prestation, les objectifs sont de: - mettre en places les outils, process et bonnes pratiques pour la phase amont du process MLOps jusqu'au model registry au moins, - participer aux activités Data Science. Ses activités consisteront à : - comprendre et analyser le problème posé par les data scientists, - définir le besoin de fonctionnalités nécessaires, process, frameworks et outils, - proposer une roadmap d'implémentation, - développer la solution en collaboration avec l'équipe IT (plateforme, réseau, infra), - valider l'implémentation avec les data scientists pour s'asurer de l'impact positif. Expérience demandée de plus de 6 ans

432 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous