Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Développeur Python/Django
Missions Principales : En tant que Développeur Python/Django, vous jouerez un rôle central dans le développement de solutions logicielles robustes, performantes et évolutives, tout en contribuant à l'infrastructure DevOps. Vos responsabilités incluent : Développement Backend : Conception et maintenance d’applications basées sur Django. Gestion de Code Source : Utilisation des bonnes pratiques Git et GitOps pour gérer le cycle de vie du développement. Collaboration sur l’Infrastructure : Mise en place et amélioration de l’infrastructure via des outils et processus DevOps. Automatisation : Développement de scripts et automatisations pour simplifier les workflows (CI/CD, déploiements). Qualité et Documentation : Rédaction de documentation technique et suivi des normes de qualité logicielle.
Mission freelance
Consultant DEVOPS
Dans le cadre de la création d'une solution d'orchestration cloud native, nous cherchons à construire une offre complète afin que nos clients puissent consommer nos services facilement, avec un haut niveau de service (disponibilité élevée, tolérance aux pannes, etc.). Pour cela, nous recherchons un profil possédant les compétences suivantes : 1/ Maîtrise de l'orchestration de workflows Installation, configuration et gestion de solutions d'orchestration. Création et optimisation des templates et workflows YAML. Débogage et résolution des erreurs liées aux exécutions de workflows. 2/ Connaissances Kubernetes Maîtrise des concepts clés : Pods, Services, ConfigMaps, Secrets, et RBAC. Monitoring et optimisation des ressources dans Kubernetes. 3/ CI/CD et Automatisation Intégration de solutions d'orchestration dans des pipelines CI/CD existants. Expérience avec des outils d'orchestration supplémentaires. Maîtrise du concept de HelmChart. 4/ Gestion des Conteneurs Création et optimisation des images Docker. Utilisation d’une registry Docker. 5/ Programmation et Scripting Langages pertinents : Python, Go, ou Bash pour écrire des scripts et automatiser des tâches. Familiarité avec la gestion de code et des configurations via Git.
Offre de stage
[STAGE] Ingénieur deep learning - Automobile F/H
📑 Stage 6 mois temps complet - 📍 Saint-Cloud - 🛠 1200 € brut Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Dans le cadre de notre campagne annuelle « Offre Jeunes Diplômés » pour l’année 2025, nous proposons un stage de fin d'études pour valider votre diplôme. Contexte du stage : Les systèmes d'infotainment dans les véhicules modernes sont devenus des outils polyvalents, intégrant non seulement des fonctions multimédias mais aussi des capacités avancées pour la gestion et le diagnostic des pannes. Ce projet vise à développer un algorithme intelligent permettant de faciliter la maintenance des véhicules vie serie. Sujet détaillé : Projet de développement d’algorithme de détection et d’analyse des problèmes sur un IVI (In-Vehicle Infotainment) Objectifs du projet : Détection des signatures et traces de problèmes : - Développer un module intégré au système IVI qui collecte en temps réel les journaux d’événements et les traces des anomalies sur l'ECU. - Identifier les "signatures" de problèmes grâce à des modèle d’IA générative ou des règles définies (patterns connus). Analyse des signatures et des traces : - Implémenter un moteur d’analyse capable de classifier les signatures en fonction de leur criticité. - Prioriser les anomalies critiques susceptibles d’affecter la sécurité ou les performances. Consultation de la base Lemone : - Interfacer l’algorithme avec la base de données Lemone pour identifier les bugs déjà connus. - Proposer des solutions correctives automatiques ou des recommandations si une signature est identifiée. Suivi et statistiques des anomalies : - Établir un tableau de bord qui liste les bugs rencontrés. - Analyser les performances des différentes versions logicielles livrées pour identifier les plus stables. - Générer des rapports exploitables pour les équipes de développement.
Mission freelance
Data Engineer Python Spark - Confirmé/fa
Data Engineer Python Spark - Confirmé client Banque basé à Paris Gare de Lyon, un Data Engineer - Confirmé avec un minimum de 4 ans d’expériences. Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Contribuer à la Fabrication des Produits des équipes dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) Contribuer à la fabrication d'un entrepôt de données interne dans un environnement Python - PostGresql Etre force de proposition et expertise sur les techno manipulées Principaux livrables : Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et les équipes) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences requises : Python (requis), Spark - spark streaming et batch (requis), Kafka (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Autonomie, Adaptabilité, Bonne communication (lien direct avec les PO ou DEV), Apprécié - activités BI : BDD Teradata, xDI, SQL Data viz : Microstrategy
Offre d'emploi
Développeur .net / Python - H/F
En tant que Développeur .NET / Python , vous jouerez un rôle clé dans le développement, l'optimisation et la maintenance de nos applications. Vous collaborerez avec une équipe dynamique sur des projets innovants, tout en apportant votre expertise dans les environnements .NET et Python. Développement d'applications : Concevoir, développer et maintenir des applications en .NET et Python. Analyse des besoins : Participer aux discussions avec les parties prenantes pour comprendre les besoins métiers et traduire ces exigences en solutions techniques. Optimisation et maintenance : Identifier les opportunités d'amélioration et résoudre les problèmes techniques. Tests et déploiement : Mettre en œuvre des tests unitaires, fonctionnels et assurer le déploiement des solutions. Collaboration : Travailler avec des équipes pluridisciplinaires (front-end, DevOps, produit) pour assurer la réussite des projets. Veille technologique : Suivre les dernières tendances en .NET, Python et dans le développement logiciel.
Offre d'emploi
Booking & Risk - Cross Asset - Fixed income - RAD / Commando Excel C# Python
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les commandos ont pour mission principale de fournir (et maintenir) à nos utilisateurs Trading, en collaboration avec l’essentiel des services de la banque (IT, Quants, etc) les UDA (User Developed Application (Excel)) ou SPA (Single Page Application (Web)) nécessaires aux suivis du PnL et des Risk, au pricing de leur trade et à la gestion de leur market data. Une premiere experience en commando Front Office Fixed Income est nécessaire 2 jours de télétravail par semaine.
Offre d'emploi
Expertise en sécurité Opérationnelle - N4
💼 Poste: Expertise en sécurité Opérationnelle - N4 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Accompagner Accompagner la mise en œuvre de la sécurité du cloud GCP Contrainte forte du projet Dans le cadre de notre transition vers le cloud opérée en 2018 et de notre utilisation croissante de Google Cloud Platform (GCP), nous souhaitons renforcer notre posture de sécurité. Nous recherchons un consultant spécialisé en sécurité cloud, plus particulièrement sur GCP, afin de nous accompagner dans l'évaluation, la mise en œuvre et l'optimisation de nos pratiques de sécurité. 🤝 Livrables : Compétences techniques Sécurité GCP - Expert - Impératif Sécurité réseaux (firewall, proxy, NSG, WAF) - Confirmé - Important Dev. Terraform, Python - Confirmé - Important IAM GCP - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) 🤝 Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations.
Mission freelance
Data Architect
Dans un contexte de transition énergétique , le Data Architect contribue à la définition de la feuille de route BI et Advanced Analytics . Vous jouez un rôle clé dans la conception de l' architecture DATA cible et l'implémentation de la future plateforme Data & Analytics . Vous guidez les équipes Data sur l'analyse des données et le développement des modèles de reporting et d'analyse avancée. Au sein de la DSI, vous intégrez une équipe de 8 experts (Architectes Fonctionnels, Architectes Techniques, Digital Architect, Architecte Infrastructure, Support & Contrôle SDLC) et vous rapportez au Responsable de l'équipe d'architecture . Cette équipe collabore avec les équipes IT et Business pour développer des solutions d'architecture technique, applicative et data. Vision et gouvernance des architectures : Évaluer et maintenir la vision architecturale (logique et technique) de la BI et de l’Advanced Analytics. Conception des architectures : Développer et documenter l' architecture DATA cible (données, applications, intégrations, techniques) pour les futures solutions BI et Analytics. Opportunités de Data Science : Identifier les opportunités d’évolution des capacités en Data Science et Advanced Analytics . Analyse d’impact : Participer aux analyses d'impact sur le domaine BI et Advanced Analytics et valider la cohérence des solutions proposées. Meilleures pratiques : Mettre en œuvre les meilleures pratiques d'architecture de l'information pour la conception, la documentation et le déploiement. Support à la gouvernance des données : Accompagner l' établissement d'une gouvernance des données et favoriser l’évolution vers une culture Data Driven . Collaboration inter-équipe : Travailler avec les administrateurs de bases de données, les équipes d'infrastructure et de support, ainsi qu'avec les autres architectes d'entreprise pour assurer l'intégration du domaine BI dans le paysage applicatif global. Développement d’un Modèle de Données Commun (CDM) : Concevoir un modèle de données commun pour les applications principales afin de soutenir le développement des plateformes BI, Analytics et l'intégration des applications.
Offre d'emploi
expert Stockage et Sauvegarde
Nous recherchons un Expert Stockage pour un de nos client du secteur bancaire. La mission consiste à assurer l'expertise et le maintien en conditions opérationnelles des infrastructures de Stockage. Le client organise ses données de type "bloc" autour des technologies SAN Cisco et des baies de disques PureStorage La maitrise des solutions SAN Cisco et PureStorage sont indispensables . L’ensemble de ces architectures est administré à partir d’un site sur Charenton le Pont.. Un travail régulier avec des collaborateurs situés à Porto implique la maitrise de l'anglais.
Mission freelance
NetDevops
Contexte de la mission : La prestation de référent technique au sein de l'équipe réseaux sur le DevOps a pour objectif d'automatiser les processus liées à la gestion de l'infrastructure réseaux et sécurité réseaux. Elle s'effectue en étroite collaboration avec le product Owner du chantier automatisation réseaux et les ingénieurs réseaux de l'équipe. Elle nécessite la livraison d'outils développements en fonction de la raodmap revue et validée avec le product Owner. Lieu d'exécution : Paris SUD Démarrage : ASAP
Mission freelance
Data Engineer
Participer à des projets de data engineering basés sur un framework méthodologique Développer, industrialiser et maintenir des pipelines de données (principalement ETL et ML) Effectuer de l’exploration de données et du prototypage rapide Mettre en application les meilleures pratiques : versioning, tests automatisés, CI/CD Participer activement à l’automatisation des infrastructures basées sur des services de Cloud Computing Implémenter des architectures de type Lakehouse pour casser les silos Déployer des algorithmes de machine learning at scale et sur des flux de streaming Collaborer avec l’ensemble des équipes depuis les spécifications fonctionnelles jusqu’aux validations métiers des solutions implémentées Contribuer à la mise en place de méthodologies Agile de type Scrum
Mission freelance
Data Scientist IA
Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban
Offre d'emploi
Administrateurs système Linux Redhat / Ansible
Vous serez intégrez au sein de l’équipe Système Unix qui assure des missions de conseil, d’ingénierie, expertise et de support de niveau 3. L’industrialisation et l’automatisation sont des enjeux forts de cette année 2023 pour notre client. Les objectifs : Maintien en condition opérationnelle des environnements Linux Gestion de la demande et des incidents de niveaux complexes Support technique aux équipes de RUN Support technique aux équipes cluster métier et des socles Contribution aux projets d’infrastructures : Mise en place de solutions système, expertise technique, Obsolescence, Mise à jour des outils d’administrations, etc… Industrialisation/automatisation des tâches d’administration Contribution à des projets liés à la sécurité des environnements Linux. Automatisation de gestes d'administrations via Ansible et python Maitrise des environnements conteneurisés (docker, podman)
Offre d'emploi
Développeur Python/Django
Au sein d'une équipe dynamique composée de 6 personnes, vous contribuez activement à la conception, au développement et à l'évolution d'une stack technique dédiée à l'exploitation des réseaux radio du groupe. Les outils que vous développez sont destinés à des ingénieurs spécialisés en radio et en réseau. Vous serez impliqué dans toutes les phases, de la conception à la mise en production, en passant par le suivi en environnement full stack. Développement et maintenance : Concevoir, développer, opérer et maintenir des applications. Prototyper rapidement (POC) et explorer des solutions innovantes pour améliorer les outils existants. Collaboration avec les équipes : Interagir directement avec les Product Owners (PO) pour clarifier les besoins. Développer des tickets validés et estimés par l’équipe. Participer activement aux sessions de backlog refinement. Livraison et documentation : Construire et déployer vos solutions via Docker et Kubernetes. Rédiger et maintenir une documentation technique complète et à jour. Mentorat et partage des connaissances : Accompagner les développeurs moins expérimentés dans l’atteinte de leurs objectifs techniques. Alpineo est une société Suisse de conseil spécialisée dans les métiers des technologies de l’information, de l’Ingénierie et des Life-Sciences. Les défis de transformation technologique et digital deviennent toujours plus déterminants pour les organisations. Pour répondre à leurs enjeux, elles se doivent de gagner en efficacité, en optimisant leurs processus, leurs performances et surtout en recrutant les meilleurs éléments du marché. Cette capacité à capter des talents, à capitaliser sur leurs ressources humaines et technologiques est indispensable pour rester compétitif dans un marché toujours plus concurrentiel. Alpineo accompagne ses clients dans la réalisation de leurs projets de transformation en leur mettant à disposition ses équipes de consultants.
Offre d'emploi
Expert Stockage et Sauvegarde (H/F)
🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Traiter des demandes et incidents 🔸 Apporter une expertise et un support aux clients des infrastructures 🔸 Participer aux projets d’évolution de ces infrastructures, notamment les migrations 🔸 Proposer et développer des outils / méthodes d'optimisation 🔸 Intervenir en production pour des actions à forte valeur ajoutée technique dans le cadre d'incidents, problèmes et changements 🔸 Améliorer le fonctionnement du SI, dans le respect du niveau de qualité et de coût attendu et en assurant une bonne maîtrise des risques 🔸 Réaliser des études d'opportunité en lien avec son domaine d'expertise technologique (analyse détaillée) et apporter sa connaissance des produits dans l'élaboration des projets associés
Mission freelance
ML Engineer / ML Ops Senior (8/10 ans d'expé)
Mission longue Démarrage décembre Remote hybride Langue d'usage français et à l'écrit anglais Notre client a des modèles de ML et des pipelines trop lourds et cherche un ML Enginer ou Data Engineer avec background en data science pour les alléger et ajouter de l'automatisation. Equipe composée de 5 data scientists et 1 lead data science / data engineer qui travaille sur des sujets de R&D et de temps réel. Machine Learning Engineer Our R&D team, currently composed of 6 Data Scientists, has demonstrated that this system is capable of detecting objects and intruders This data throughput requires extremely efficient data processing pipelines and machine learning algorithms in on-prem servers. We are therefore looking for a Machine Learning Engineer to join our production team to build efficient, data-driven predictive systems. The candidate should be highly skilled in math/statistics and programming, with the ability to organize and analyze large amounts of data. The candidate should also be able to execute tests and optimize data pipelines and machine learning algorithms. Job responsibilities Transform data science prototypes into production-quality code and solutions Optimize data pipelines and machine learning algorithms across heterogeneous on-prem computing platforms (CPU, GPU) Perform benchmarking for solution selection based on constraints (performance, resources, real-time, latency, …) Develop and maintain CI/CD pipelines to automate testing, integration, and deployment of solutions for different use cases and across different sites Establish monitoring solutions to track the performance of deployed solutions and identify differences in data distribution that could affect performance in real-world situations Tech stack Python, NumPy, SciPy, CuPy, Pandas, scikit-learn, PyTorch MLflow, Docker, GitLab-CI, DevOps, MLOps, Linux
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.