Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data scientist NLP H/F
Au sein d'une équipe de data scientists, le consultant accompagnera l'équipe, en particulier, il lui sera confié : - projet 1 : le déploiement de deux cas d'usages (déploiement des scripts d'inférence, interactions avec l'IT pour préparer l'infrastructure de déploiement, rédaction des scripts de monitoring des algos, définition des contrôles de qualité des données à mettre en oeuvre, reporting PBI pour le monitoring) - projet 2 : finaliser une analyse NLP de compte rendu d'entretiens en réponse à un besoin métier - projet 3 : contribuer à un travail d'annotations en cours.
Offre d'emploi
Data Steward (F/H)
📑 CDI (42-50K€) / CDI OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 5 ans minimum Si vous êtes passionné.e par l'Agilité et la Data, cette opportunité pourrait bien être celle que vous attendiez ! 🚀 Nous poursuivons notre croissance et avons besoin de votre expertise pour accompagner un de nos clients sur des projets ambitieux. En tant que Data Steward | Scrum Master, vous jouerez un rôle clé dans le déploiement des solutions data et l'optimisation des processus agiles. 💻💼 Vos missions au quotidien : - Accompagner l'équipe dans la gestion du backlog pour garantir le bon déploiement des offres à grande échelle - Piloter les cérémonies agiles (sprint planning, rétrospective, daily meetings) en tant que Scrum Master pour favoriser une démarche Agile fluide - Superviser la data gouvernance : gestion des demandes de validation, soutien aux équipes de production applicative et édition - Rédiger des documentations utilisateurs claires et précises pour accompagner le déploiement des solutions
Offre d'emploi
Tech Lead – Python & Django (H/F)
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Tech Lead – Python & Django pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Réaliser des études techniques approfondies pour garantir la qualité et la pérennité des projets - Estimer les charges de travail et participer à l'élaboration de la roadmap pour une planification efficace - Assurer un suivi rigoureux de la livraison et de l'intégration jusqu'en production pour un déploiement fluide - Fournir un support technique de haut niveau pour garantir le bon fonctionnement en production - Participer activement aux discussions sur les bonnes pratiques de développement et d'architecture logicielle - Produire une documentation technique claire et concise pour faciliter la compréhension et la maintenance du produit
Offre d'emploi
Data Scientist Senior NLP DevOps (9 ans d'xp)
Le client est un grand groupe dans le secteur banque / assurance. Au sein d'une équipe de data scientists, le consultant accompagnera l'équipe, en particulier, il lui sera confié : - projet 1 : le déploiement de deux cas d'usages (déploiement des scripts d'inférence, interactions avec l'IT pour préparer l'infrastructure de déploiement, rédaction des scripts de monitoring des algos, définition des contrôles de qualité des données à mettre en oeuvre, reporting PBI pour le monitoring) - projet 2 : finaliser une analyse NLP de compte rendu d'entretiens en réponse à un besoin métier - projet 3 : contribuer à un travail d'annotations en cours.
Offre d'emploi
Architecte Cloud AWS F/H
Contexte de la mission : Dans le cadre de sa stratégie de transformation numérique, notre client a constitué une équipe spécialisée pour favoriser l’adoption et l’optimisation du Cloud. Cette équipe multidisciplinaire a pour mission de définir les standards, d’établir les bonnes pratiques et d’accompagner les équipes internes dans leurs projets de migration vers le Cloud. Missions principales : En tant qu’Architecte Cloud AWS, vous jouerez un rôle clé dans la conception, l’optimisation et la sécurisation des infrastructures Cloud de notre client. Vos responsabilités incluront : Concevoir, développer et optimiser la plateforme Cloud en adéquation avec la stratégie de l’entreprise et les exigences des différents projets. Implémenter des outils d'observabilité pour monitorer la plateforme (ex : Prometheus, Grafana, ELK, Datadog, Zabbix) et de sécurité (SIEM, firewall, IAM). Accompagner les équipes techniques et projets en apportant votre expertise sur des problématiques d’architecture Cloud, de sécurité, d’infrastructure réseau et d’architecture applicative. Participer à la conception des infrastructures Cloud et accompagner les équipes dans la migration de leurs applications. Définir les standards et les bonnes pratiques pour garantir la conformité, la sécurité et la maintenabilité des services Cloud. Contribuer à l’amélioration continue de la Landing Zone , en assurant que les infrastructures déployées respectent les exigences de sécurité, de gouvernance et de scalabilité. Livrables attendus : Améliorations continues de la Landing Zone via des livraisons alignées sur la roadmap de l’équipe Cloud. Implémentation des fondations techniques en lien avec les besoins des équipes projet, avec des livraisons à chaque sprint. Documents d’architecture technique et guides pratiques pour le Cloud.
Mission freelance
Data Analyst IOT & Analytics Anglais Courant
Contexte : Notre client, recherche un Data Analyst IoT & Analytics spécialisé en opérations et maintenance. En tant que membre clé de l’équipe data, vous serez responsable de l’ingestion, transformation et analyse des données IoT en provenance des équipements connectés pour optimiser la performance et la maintenance des opérations. Vous interviendrez dans un environnement technologique avancé, orienté cloud et big data. Missions principales : Ingestion de données : Assurer l’ingestion de données à froid dans le Datawarehouse Snowflake en utilisant Python et Airflow en remplacement de Talend. Traitement de données en temps réel : Mettre en œuvre et optimiser les solutions d’ingestion en temps réel avec Nifi pour des flux de données basés sur Kafka , API et AWS Lambda sous Python . Transformation de données : Utiliser SQS/SNS/Snowpipe pour gérer les flux d’ingestion de données vers Snowflake et transformer les données pour les rendre exploitables par les équipes de maintenance et opérations. Analyse de données IoT : Analyser les données IoT pour identifier des tendances et des patterns, soutenir la maintenance prédictive et améliorer les processus opérationnels. Collaboration inter-équipe : Travailler en étroite collaboration avec les équipes de maintenance et opérationnelles pour comprendre leurs besoins et fournir des insights exploitables. Documentation et reporting : Documenter les processus d’ingestion et transformation, et fournir des rapports analytiques sur les performances des équipements et les recommandations d’optimisation. Compétences techniques requises : Solide expérience avec Python et Airflow pour l’ingestion et le traitement des données. Connaissance approfondie de Snowflake comme Datawarehouse pour la gestion des données IoT. Maîtrise des technologies d’ingestion en temps réel, notamment Nifi , Kafka , API et AWS Lambda . Expérience avec SQS , SNS et Snowpipe pour l’automatisation de l’ingestion et la transformation des données. Bonne compréhension des concepts IoT et de l’analyse de données pour la maintenance prédictive.
Mission freelance
Ingénieur SysOps (Dynatrace)
Rejoignez notre équipe Cloud Operations en tant qu'Ingénieur SysOps Notre client, leader dans le secteur de l'environnement, est à la recherche d'un(e) Ingénieur(e) SysOps expérimenté(e) pour intégrer notre équipe Cloud Operations dynamique et innovante. Responsabilités principales Assurer la gestion, le déploiement et le monitoring des systèmes et applications cloud sur AWS Automatiser les processus d'exploitation à l'aide de Python et d'outils tels que Dynatrace Gérer les tickets d'incident et les demandes de service via ServiceNow Participer à la conception et à la mise en œuvre de solutions d'infrastructure cloud évolutives et sécurisées Qualifications requises Minimum de 7 ans d'expérience réussie dans un rôle d'ingénieur SysOps ou un poste similaire Excellente maîtrise des services cloud AWS Solides compétences en automatisation avec Python et familiarité avec les outils de monitoring comme Dynatrace Expérience avérée dans la gestion des tickets et des requêtes via ServiceNow Capacité à travailler de manière autonome et à gérer plusieurs projets simultanément Excellentes compétences en communication et en travail d'équipe
Offre d'emploi
TechLead DevOps
Anglais : Courant Localisation : Issy Les Moulineux 2 jours de TT par semaine Au sein de l'équipe Infrastructure et Architecture, vous contribuerez à l'amélioration continue de notre infrastructure logicielle et de nos solutions d'hébergement pour les systèmes Core Group IT, en utilisant des technologies de pointe telles que Kubernetes, Kafka et des bases de données répliquées. Curieux d’apprendre de nouvelles technologies et doté de solides compétences en résolution de problèmes, vous collaborerez avec les équipes Agiles Infrastructure et SRE pour concevoir et implémenter les composants on-premises utilisés par les applications Geopost. Vous assurerez également le transfert de connaissances avec l’équipe SRE sur les systèmes développés. Les principales activités et responsabilités sont : - Participer aux cérémonies de l'équipe (Daily, Sprint Planning) ; - Concevoir et mettre en œuvre des composants d'infrastructure répondant aux besoins des applications ; - Participer aux revues de code ; - Documenter et maintenir les solutions techniques ; - Résoudre les problèmes système au fur et à mesure qu'ils surviennent ; - Mesurer la performance des systèmes mis à jour ou nouvellement installés. Exigences Techniques - Infrastructure : Kubernetes, Kafka, Redis, Apache Reverse Proxy, Ha Proxy,... ; - Continuous Delivery & Deployment: Git, Gitlab CI, Maven, Terraform, Ansible, Vault ; - CI/CD : Gitlab/Terraform/Vault ; - Solid Programming Language : Ansible/Python/Shell/Java ; - Database : PostgresQL, MariaDB, Cassandra, MongoDB, …
Offre d'emploi
Data engineer Databricks
Objet de la prestation Nous recherchons Un Data Engineer expérimenté H/F pour accompagner la mise en production de "data products" sur une plateforme d'analytics Databricks. Le candidat idéal aura un profil de développeur Python orienté data avec une expérience sur le traitement de grande volumétrie de données. Le candidat devra être capable d’intéragir avec des datascientists et avoir une bonne compréhension des principes algorithmiques. Le travail consiste, entre autre, à reprendre et industrialiser des preuves de concept (PoCs) développées par notre centre de recherche et de les déployer sur la plateforme Databricks. Activités · Participer avec l’équipe technique à la mise en place de la gouvernance de la platforme · Collaborer (en anglais) avec les chercheurs pour comprendre les algorithmes existants · Implémenter les pipelines d’ingestion de données brut · Implémenter et optimiser les algorithmes de traitement en pyspark · Suivre les jobs en production
Offre d'emploi
Lead QA Test Automation - Équipements Connectés - IDF (H/F)
## Contexte du poste Au sein d'une entreprise innovante spécialisée dans la conception et la production d'équipements connectés, localisée en Île-de-France, nous faisons face à une croissance rapide de notre activité et à une expansion de notre gamme de produits. Notre équipe de R&D dynamique et expérimentée, composée actuellement de 3 membres dont un apprenti, cherche à intégrer un Lead QA Test Automation motivé et compétent pour garantir la qualité de nos solutions haut de gamme. Ce poste est ouvert pour répondre à nos enjeux de qualité et d'innovation produit, ainsi que pour renforcer nos process de tests face aux nouvelles exigences du marché. Intégrez une équipe à l'avant-garde de la technologie dans les équipements connectés et prenez part à des projets ambitieux et diversifiés. ## Missions ### Principales : Concevoir, planifier et exécuter des tests automatiques et manuels sur l'ensemble de nos produits. Gérer une équipe QA, les former et les monter en compétences. Être le garant de la qualité des versions déployées, de la détection des bugs à leur résolution. Collaborer avec les équipes de développement pour l'intégration et l'amélioration continue des process de QA. ### Annexes : Contribuer à la mise en place et à l'évolution des outils de tests. Participer à l'amélioration des pratiques Agile en tant que Scrum Master ponctuellement.## Stack technique ### À maîtriser : Python pour l'automatisation des tests sur nos équipements Selenium pour les tests sur nos applications web ### Environnement technique global : Frameworks et outils de tests automatiques (Ranorex, ou autres équivalents) Certification ISTQB Connaissance en gestion de projet et outils Agile
Offre d'emploi
Data scientist - H/F
Nous accompagnons notre client, acteur majeur du secteur [secteur d’activité de l’entreprise cliente], dans l’exploitation et la valorisation de ses données. Nous recherchons un(e) Data Scientist F/H pour rejoindre une squad Agile dédiée aux projets Big Data. Vous serez chargé(e) de créer et maintenir des modèles prédictifs, de gérer les environnements de données distribués, et de contribuer aux projets d’intégration des données pour l’équipe métier. Vos missions seront les suivantes : Développer, entraîner et déployer des modèles de Machine Learning avec l’outil Dataiku, et adapter les solutions de traitement de données à l’architecture Hadoop ; Concevoir et réaliser des dashboards interactifs sous Tableau (Desktop et Serveur) pour répondre aux besoins des métiers en matière de visualisation de données ; Concevoir des pipelines de données robustes en développant en Python, Scala ou SQL, et en intégrant les meilleures pratiques de gestion d’APIs et web services ; Garantir la qualité de code et la gestion des versions sous Git, et documenter les projets sous Confluence et JIRA pour une coordination efficace au sein de l’équipe ; Assurer le suivi de production des modèles et flux de données en collaboration avec les équipes d’exploitation, et participer aux cérémonies Agile (sprint planning, rétrospectives, etc.). Environnement technique : Hadoop (Hue, Zeppelin, Hive), Dataiku, Tableau, Python/Scala, JavaScript, SQL, web services/API, Shell, Git, JIRA, Confluence, Sciforma, Office 365, Teams.
Offre d'emploi
Commando-Ingénieur financier Produits structurés / Python
💡 Contexte /Objectifs : Equipe est en charge des configurations des produits exotiques dans la chaine full automatique (Pricing, Booking, Documentation). La prestation consiste à contribuer à/au(x): - Ajouts de nouveaux produits dans la chaine automatique - Faire évoluer les produits existants (ajout de variations) Expertises spécifiques : Code (Python) Produits financiers EQD Exotiques Les livrables attendus sont : Modelisation des produits/ templates exotiques equity dans les chaines automatiques
Offre d'emploi
Booking & Risk - Cross Asset - Fixed income - RAD / Commando Python/React/C#
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les commandos ont pour mission principale de fournir (et maintenir) à nos utilisateurs Trading, en collaboration avec l’essentiel des services de la banque (IT, Quants, etc) les UDA (User Developed Application (Excel)) ou SPA (Single Page Application (Web)) nécessaires aux suivis du PnL et des Risk, au pricing de leur trade et à la gestion de leur market data. Une premiere experience en commando Front Office Fixed Income est nécessaire 2 jours de télétravail par semaine.
Offre d'emploi
BA market Risk and PnL
Missions Equipe, composée de 8 personnes, intervient sur des projets IT au sein des chaînes de calcul de Risk et Pnl au contact de développeurs, analystes quantitatifs, traders et opérationnels en charge du calcul du Pnl et de la direction des Risques. Application 1 est un planificateur de batches au sein duquel les requêtes à Application 2 sont configurées. Apllication 2 à son tour interagit avec des applications de booking, de stockage de la configuration des différents scénarios et indicateurs de risque ainsi que les fournisseurs de données de marché et le pricer de la banque afin de générer les rapports de risque (marché/contrepartie) ainsi que l’explication de PnL à destination du trading, de la direction des risques et des opérationnels Middle Office. A travers les différents projets autour des chaînes de calcul de risque et de pnl, les principales tâches consisteront à • Comprendre, créer, transformer les configurations dans les différents systèmes selon les besoins du projet • Rédiger les spécifications pour les développeurs des différentes applications et analystes quantitatifs • Apporter son expertise sur tous les projets le nécessitant • Conduire les ateliers afin de récolter les besoins des utilisateurs, rédiger les spécifications sur les nouvelles fonctionnalités, tester et valider les développements avant la mise en production • Analyser les problèmes techniques ou fonctionnels afin d’en trouver la solution ou l’équipe en charge • Adapter son langage aux interlocuteurs (IT / métier) En tant que Business Analyst, vous serez amené à travailler sur divers projets consistant à Analyser l’existant • Rédiger des spécifications techniques et fonctionnelles répondant au besoin du projet • Tester les développements • Tester de bout-en-bout lorsque le changement a lieu dans des systèmes en amont • Remonter les erreurs aux bonnes équipes en utilisant les workflows adaptés (Jira, …)
Offre d'emploi
Développeur Senior React NextJs Python
Nous recherchons un Développeur Senior polyvalent et passionné, ayant une solide expertise en React, Next.js et Python, pour rejoindre notre équipe dynamique. Dans un contexte de mission évolutif, vous jouerez un rôle clé dans le développement d'applications performantes et scalables, en intervenant à la fois sur le front-end et le back-end de nos projets. Autonomie et proactivité dans la résolution des problèmes. Excellente communication et esprit d’équipe. Capacité à s’adapter à un environnement en constante évolutio
Offre d'emploi
Expert Système : Administrer Infrastructures de Sauvegarde - Rubrik et Spectrum ProtectL Sénior
💼 Poste : Ixpert Système : Administrer Infrastructures de Sauvegarde - Rubrik et Spectrum ProtectL - plus 9 ans d'expérience 🏭 Secteurs stratégiques : Banque 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Objectif global :Administrer Infrastructures de Sauvegarde Contrainte forte du projet Environnement Rubrik et Spectrum Protect 🤝 Livrables attendus: Compétences techniques Rubrik - Expert - Impératif Python - Confirmé - Important Spectrum Protect - Junior - Souhaitable NetApp - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Administrer les infrastructures de sauvegarde Rubrik, Storage Protect, DataDomain et NetApp. Activités de Build/Run N3 sur ces infrastructures. L'expertise Rubrik est indispensable et une forte expérience sur Storage Protect sera très appréciée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.