Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur développement C++ - Aéronautique et Défense F/H
Vous rejoindrez notre centre de services Recherche & Technologies (R&T) composé d'une trentaine d'ingénieurs et d'experts en logiciel embarqué. Ce dispositif a pour vocation à contribuer au déploiement de technologies nouvelles sur les futurs produits de notre client, spécialisé dans le développement de produits pour l'aéronautique et la défense. Dans ce cadre, SOLENT intervient principalement pour développer des drivers sur OS temps réel, construire des systèmes logiciels sur mesure pour des solutions embarquées, appliquer des principes de cybersécurité ou encore intégrer des algorithmes de traitement complexes. Vous participerez à la conception, au développement et aux phases de tests de ces logiciels embarqués. Quelques exemples : Développement et intégration d'algorithmes de traitement d'images sur un drone pour une exécution en temps réel sur la cible Développement d'IHM pour démonstrateur d'acquisition vidéo d'un viseur Architecture et développement de modules de préparation de données et synchronisation des flux dans le logiciel back-end d'une architecture client-serveur Analyser les besoins métier ; Estimer la charge de développement tout en respectant l'architecture existante ou à venir ; Développer et implémenter en langage C++ ; Réaliser les tests et garantir la qualité et la robustesse des fonctionnalités développées tout en s'interfaçant avec les équipes système ; Assurer l'analyse et la correction de bugs ; Documenter les développements effectués ; Participer au partage de connaissances par le biais de réunions d'experts. Stack technique : langage C++, Bash, Python Source Code Management : Git Écosystème : Linux/Windows Équipe : Intégré dans notre équipe R&T dans les locaux de notre client (Massy ou Eragny) Encadrement : La méthode SOLENT ! Un management technique, couplé à un parcours d'onboarding jalonné d'objectifs clairs qui te permettront de monter en compétences rapidement et efficacement sur le projet. 👨🎓👩🎓 Vous êtes diplômé d'une école d'ingénieur ou équivalent universitaire en développement logiciel. 💼 Vous avez une première expérience en développement embarqué C++ ? 👉 Vous avez d'autres compétences techniques en C ? Java ? OS temps réel ? Réseaux ? 👉 " Qui dit industrie, dit process, dit documentation ! " Cela vous est familier ? 👉 Vous avez un bon niveau d’anglais (oral et écrit) ? 👉 Vous possédez d'excellentes compétences en communication interpersonnelle et en collaboration d'équipe ? 👉 Vous êtes avide de challenge ? De technique ? 👉 Vous avez un sens critique ? Un sens du service ? Un esprit de synthèse ? Une rigueur et une organisation dans vos projets ? Si vous vous reconnaissez, alors n’hésitez plus et rejoignez nos équipes pour une nouvelle aventure ! Nous cherchons aujourd’hui nos talents de demain… 🦸♀️🦸♂️
Offre d'emploi
Data Engineer Python MLOps AZURE
Vos missions Développement de pipelines de traitement de données et de modèles (préparation des features, entraînement, tuning, inférence). Conception et mise en œuvre de solutions robustes et maintenables (typage fort, design patterns avancés). Collaboration avec les Quants et Data Scientists pour résoudre les problématiques liées au cycle de vie des modèles ML. Rédaction de spécifications techniques détaillées. Implémentation et automatisation des tests. Mise en production des développements, suivi et évolution des solutions. Création de tableaux de bord d’activité.
Mission freelance
Expert Cybersécurité opérationnelle PKI
Dans le cadre de cette mission, nous recherchons un profil ayant une solide expertise en sécurité technique et en développement sécurisé, idéalement dans un environnement DevSecOps. Voici les attentes et prérequis pour ce poste : Vous justifiez d'une expérience significative de 5 à 6 ans minimum dans des fonctions d'expert en sécurité technique ou de développeur sécurisé, avec des résultats probants. Vous êtes familier avec des environnements complexes et évolutifs, incluant des pratiques DevSecOps avancées.
Mission freelance
Data Analyst
Mission Intégrer et optimiser la plateforme Looker pour son déploiement au sein des Business Units et autres plateformes chez un acteur majeur du retail. Concevoir une architecture répondant aux besoins métiers, garantir des performances optimales, et accompagner les équipes dans l’adoption de Looker. Créer et maintenir des tableaux de bord pour le pilotage des activités tout en assurant une gestion des coûts et une mise à jour des fonctionnalités Looker. Compétences techniques Expertise confirmée sur Looker (LookML, API, bonnes pratiques). Maîtrise des outils Google Cloud Platform (GCP), GitHub, et Terraform. Expérience en optimisation de plateformes et en intégration de solutions analytiques. Connaissances en visualisation de données et accompagnement d’équipes techniques.
Mission freelance
ML Ops / DevOps Data Toulouse (3 jours sur site)
La prestation consiste à renforcer avec un MLOps engineer notre équipe Datalab, qui est une équipe transverse de 6 data scientists internes. Chaque data scientist peut travailler sur des sujets différents, sur des périodes de 3 mois à 1 an, pour différentes applications demandées par les différentes Business Units. Les activités des data scientists peuvent être de plusieurs natures (régression, classification, segmentation sémantique), sur différentes données (images satellites, données météo ou océanographiques, télémétrie, trajectoires) en utilisant la technologie la plus adapté au besoin (du simple processing simple à du Machine-Learning ou du Deep-Learning). Il y a 2 ans, une plateforme (KFPC, KubeFlow Processing Chain) a été développée basée sur Kubeflow. Cette solution n'est utilisée aujourd'hui que pour l'inférence, de chaîne ML ou non ML et nécessite beaucoup de temps pour la maintenir. Cette solution ne permet pas ou n'est pas utilisée pour gérer les activités de data collection, préparation, experiment tracking, training et model registry. Pour cette prestation, les objectifs sont de: - mettre en places les outils, process et bonnes pratiques pour la phase amont du process MLOps jusqu'au model registry au moins, - participer aux activités Data Science. Ses activités consisteront à : - comprendre et analyser le problème posé par les data scientists, - définir le besoin de fonctionnalités nécessaires, process, frameworks et outils, - proposer une roadmap d'implémentation, - développer la solution en collaboration avec l'équipe IT (plateforme, réseau, infra), - valider l'implémentation avec les data scientists pour s'asurer de l'impact positif. Expérience demandée de plus de 6 ans
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Mission freelance
data engineer python / spark MLOPS senior / databricks (forcasting)
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus.
Offre d'emploi
Cloud DevOps GCP
Poste : Ingénieur Cloud DevOps GCP Durée : Longue (Voire 3 ans) Lieu : Ile De France Description du Poste : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom , nous recherchons un Ingénieur Cloud DevOps spécialisé GCP . Vous serez chargé de concevoir, déployer et optimiser des solutions d’infrastructure cloud sur la plateforme Google Cloud Platform (GCP) , en assurant leur robustesse, leur performance et leur alignement avec les objectifs métiers. Responsabilités : - Expertise approfondie des services GCP et des outils natifs pour la conception et la gestion d'infrastructures cloud complexes ; - Solides compétences en Terraform et Ansible pour l'infrastructure as code et l'automatisation ; - Maîtrise de la mise en place et de la gestion de pipelines CI/CD avec GitLab CI , adaptés aux exigences d’un secteur bancaire ; - Orchestrer et gérer des conteneurs avec Kubernetes et Docker , en exploitant pleinement les capacités de Google Kubernetes Engine (GKE) ; - Bonne connaissance des outils ArgoCD , Maven , et SonarQube pour la gestion des configurations, des builds, et de la qualité logicielle ; - Optimiser les coûts et l’efficacité des ressources cloud en exploitant des services GCP tels que Compute Engine , Cloud Storage , et BigQuery .
Offre d'emploi
Développeur GO Confirmé H/F
Intégré(e) à une équipe, vos principales missions sont notamment : - Lire les spécifications systèmes et logicielles - Coder les composants physiques Modules de la solution : briques de monitoring (orchestration, container, réseau) et Data Integration Layer. Développement de la « Glue » logicielle entre les COTS/OSS de la plateforme. Création d'adaptateurs et de contrats d’insertion avec les logiciels applicatifs des produits. Mettre en place et gérer les pipelines CI/CD en conformité avec les règles de développement - Rédiger et exécuter les cas de tests, ainsi que les procédures de tests automatiques au cours du développement logiciel. - Définir et réaliser les cas de tests et procédures de tests manuelles complémentaires. - Collecter et tracer les résultats des tests par rapport aux exigences. - Configurer les COTS intégrés aux composants physiques de la solution conformément à la définition du Tech Lead. - Participer à l’écriture du manuel utilisateur.
Offre d'emploi
Support technico-fonctionnel Finance de Marché
Vous interviendrez en tant que support technico fonctionnel avec une parfaite compréhension du secteur financier dans un contexte international. Missions : Effectuer le support fonctionnel et le support à la production Assurer le maintien en condition opérationnelle des plateformes applicatives Réaliser le monitoring des flux de données Suivre et résoudre les incidents Coordonner le projet Assurer une communication régulière auprès des métiers Effectuer des reportings réguliers La maîtrise de l’anglais technique est indispensable pour mener à bien cette mission.
Offre d'emploi
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Offre d'emploi
Ingénieur DevOps
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Ingénieur DevOps. En tant qu'ingénieur DevOps, vous jouerez un rôle clé dans l'automatisation et l'optimisation des processus de déploiement, de monitoring et de gestion des infrastructures cloud ou on-premise. Vous collaborez étroitement avec les équipes de développement et d'exploitation pour assurer la qualité, la stabilité et la scalabilité des applications et des systèmes. Responsabilités Principales: Automatisation : Développer et maintenir des pipelines CI/CD pour assurer des déploiements continus et fiables. Infrastructure as Code (IaC) : Concevoir et gérer les infrastructures avec des outils comme Terraform ou Ansible. Monitoring et Logs : Implémenter et surveiller les systèmes de monitoring (Prometheus, Grafana, ELK, etc.) pour garantir la disponibilité des services. Collaboration : Travailler en étroite collaboration avec les développeurs pour intégrer les pratiques DevOps dans les cycles de développement. Cloud Computing : Déployer et gérer des applications dans des environnements cloud (AWS, GCP, Azure). Sécurité : Participer à la mise en œuvre des bonnes pratiques de sécurité dans les pipelines et les systèmes. Compétences Techniques Requises: Systèmes : Bonne maîtrise des systèmes Linux (CentOS, Ubuntu) et bonne connaissance de Windows Server . Conteneurisation : Expérience avec Docker et orchestration via Kubernetes . Outils CI/CD : Familiarité avec des outils comme Jenkins, GitLab CI/CD, ou GitHub Actions. Infrastructure as Code (IaC) : Connaissance de Terraform , CloudFormation ou Ansible. Langages de script : Compétences en Bash , Python ou Go pour automatiser les tâches. Cloud : Expérience avec au moins un fournisseur cloud ( AWS, GCP, Azure ). Versionning : Bonne maîtrise de Git et des workflows Git ( GitFlow, GitOps ). Monitoring : Expérience avec des outils comme Prometheus, Grafana, ou des solutions APM ( Datadog, New Relic) .
Offre d'emploi
Ingénieur DevOps & SRE
Nous recherchons un(e) Ingénieur DevOps et SRE pour renforcer notre équipe d’exploitation. Garant de la qualité de service (QoS), l’équipe assure la gestion de plus de 900 services applicatifs, principalement basés sur des solutions Open Source. En collaboration avec les équipes projet, nous intervenons à chaque étape, depuis la conception jusqu'au déploiement en production, pour garantir la fiabilité et l’exploitabilité des applications. Votre mission principale consistera à : Remédier : Participer au Support en Temps Réel (STR) en traitant les alertes et incidents complexes sur des environnements Open (Linux, Docker, Java). Fiabiliser : Apporter un soutien aux projets dès les phases de conception pour intégrer les bonnes pratiques SRE, garantir la sécurité des mises en production majeures et améliorer l’exploitabilité des applications. Supporter : Sécuriser les déploiements sensibles en production et traiter les demandes de travaux dans l’outil Snow. Principaux Livrables Élaboration de tableaux de bord de suivi des applications (Dynatrace, ELK) en collaboration avec les équipes projet et exploitation. Mise en œuvre de techniques et procédures d’exploitation automatisées (scripts Open, Ansible). Vérification et application des règles et standards d’exploitabilité (documentation, consignes). Résolution des incidents dans ServiceNow et traitement des demandes de travaux Faciliter et animer les cérémonies Agile (sprints, rétrospectives, cartes Jira...)
Mission freelance
MLOps
Mission Développer et automatiser des produits et algorithmes Data (IA/Machine Learning) pour améliorer les décisions stratégiques au sein du périmètre marketing client. Créer des pipelines de données robustes et garantir la qualité via des sondes et une cartographie détaillée des données (structurées et non structurées). Mettre en œuvre des solutions de DataViz (PowerBI/Looker) pour fournir des insights exploitables et accompagner la stratégie Data du business. Compétences techniques Expertise en Python, Shell, CI/CD, Airflow, Dataflow, AppEngine, et FastAPI. Maîtrise des outils GCP (BigQuery), Git/GitHub, et des solutions de visualisation (PowerBI/Looker). Connaissance des méthodologies agiles (Scrum, Kanban) et des bonnes pratiques de gestion de données. Expérience avérée dans l’industrialisation de modèles ML/IA à grande échelle et la mise en production de pipelines complexes.
Mission freelance
Data Scientist Confirmé - Segmentation & Connaissance Client
En tant que Data Scientist Confirmé, vous serez chargé(e) de : 1. Concevoir et implémenter des segmentations clients avancées : ○ Utiliser des techniques de machine learning (clustering, classification) pour identifier des groupes de clients homogènes. ○ Intégrer des données transactionnelles, comportementales et démographiques pour enrichir les analyses. ○ Assurer la mise à jour dynamique des segmentations pour un suivi temps réel des évolutions. 2. Optimiser la connaissance client : ○ Explorer et analyser les données pour identifier des insights sur les comportements et attentes des clients. ○ Développer des tableaux de bord interactifs permettant aux équipes Marketing d'accéder à une vision détaillée et actionnable des segmentations. 3. Accompagner la montée en compétences des équipes métiers : ○ Assurer la vulgarisation des modèles et insights auprès des non-techniciens. ○ Former les équipes sur l'utilisation des nouvelles segmentations et outils analytiques.
Offre d'emploi
CONSULTANT INFRASTRUCTURE OPS AAP F/H | NANTES (44)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité de Consultant Infrastructure spécialisé en automatisation et gestion d'infrastructures avec Ansible et Ansible Automation Platform (AAP). Vous interviendrez dans un environnement technique avancé, avec un focus sur l'automatisation des procédures d'exploitation et l'installation des environnements à travers AAP. A ce titre, vous interviendrez sur 4 axes majeurs et serez en charge de : Assurer l'automatisation de l'infrastructure : Développer, maintenir et améliorer les scripts d'automatisation (Ansible, Terraform). Participer à la mise en œuvre et au déploiement via AAP. Documenter les procédures d'exploitation et les processus d'installation. Gérer l'Infrastructure as Code (IaC) : Maintenir l’outillage lié à l’infrastructure (Ansible, Terraform). Collaborer avec les équipes en charge du catalogue de services. Assurer les développements et l'intégration : Interagir avec les API. Développer des scripts en Python (ou Go/Golang). Contribuer au backend du portail de services. Assurer un support et un accompagnement : Assister les utilisateurs dans l’utilisation des services. Apporter un soutien technique et partager les bonnes pratiques. Environnement Technique : Ansible / AAP (Red Hat Ansible Automation Platform), Terraform (IaC), API, Python, Go/Golang. Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous devrez assurer une présence sur site à 100%.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.