Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 763 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
DevOps (h/f)

SCALIAN
Publiée le
Ansible
AWS Cloud
Docker

12 mois
50k-55k €
450-550 €
Paris, France

Nous recherchons un Ingénieur DevOps passionné(e) par l’automatisation et les technologies cloud pour rejoindre notre équipe dynamique. Vous travaillerez sur des projets innovants, optimiserez les pipelines CI/CD, et contribuerez à la stabilité et à la scalabilité de nos environnements. Développer, déployer et maintenir des pipelines CI/CD pour assurer un déploiement continu. Collaborer avec les équipes de développement pour intégrer les outils DevOps dans le cycle de vie des applications. Gérer l’infrastructure cloud (AWS, Azure, GCP) et en assurer l’optimisation. Implémenter des outils de monitoring et de logs pour garantir la stabilité des services. Automatiser les processus pour réduire les interventions manuelles. Participer à l’élaboration des bonnes pratiques de sécurité et de conformité.

Offre premium
Freelance

Mission freelance
Data Scientist

DEV AND CONNECT
Publiée le
Data analysis
Data science

6 mois
500-650 €
Paris, France

👉 Contexte : Je recherche un Data scientist senior pour intervenir chez notre partenaire sur deux projets. Les deux nécessiteront des connaissances en Python , SQL et Azure . Le premier projet nécessite quelqu'un qui soit très compétent en traitement du signal . Nous cherchons à optimiser les paramètres des machines d'usine pour réduire les déchets et garantir la meilleure qualité. La partie la plus difficile de cette tâche sera de trouver la meilleure approche pour extraire le signal du bruit. Nous recherchons un data scientist qui possède de vastes connaissances en découverte causale et en inférence causale . Il serait aussi intéressant d'avoir une expérience dans la création d' algorithmes d'apprentissage par renforcement . Le deuxième domaine relève de la R&D. C'est un projet from scratch qui a pour objectif de relier les données (et de trouver des moyens de les acquérir, lorsqu'elles manquent) à partir de diverses sources.

Freelance

Mission freelance
Ingénieur de Production Openshift/ AWS/ XLDeploy/ XLRelease/ Control M / anglais opérationnel (H/f)

OctopusGroup
Publiée le
AWS Cloud
Control-M
Openshift

6 mois
100-350 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire, un ingénieur de production confirmé ayant des compétences avancées sur Openshift et AWS ainsi que sur XlRelease et XLdeploy Maintien en conditions opérationnelles du SI Suivi des incidents et des demandes Suivi des migrations techniques Description détaillée : Missions : -Garantir la disponibilité des ressources techniques -Analyser et corriger les incidents en niveaux 2 et 3 -Participer activement aux processus de mise en production et de développement logiciel en relation avec les Opérateurs Editeurs et fournir un support opérationnel aux équipes projets -Mettre en œuvre des solutions techniques de résolution d’incidents. Réaliser des diagnostics pour identifier les causes de dysfonctionnement, propose et met en œuvre des corrections et des solutions de "back-up". -Maintenir en condition opérationnelle les applications du système d’information dans un objectif de qualité, de productivité et de sécurité. -Analyser les risques opérationnels et les impacts clients de son domaine de responsabilité -Assurer la gestion des environnements (définition des besoins, validation des environnements de développement et de recette, suivi) -Assurer un rôle de conseil, d’assistance, d’information, de formation et d’alerte en matière d’intégration (définition des composants du SI, pilotage de la mise en œuvre et garantie du niveau de qualité requis). -Participer à la définition des exigences d’exploitabilité sur son domaine de responsabilité et assurer, si nécessaire, l’interface des experts des autres domaines et gérer les échanges avec les fournisseurs. -Participer à la fiabilisation, la sécurisation et l’optimisation de la sécurité sur son domaine de responsabilité -Proposer des solutions innovantes pour améliorer les performances de son domaine d’activité -Garantir le bon niveau de qualité de service en cohérence avec les exigences des contrats de services (SLA) sur son domaine de responsabilité Vous serez intégré au dispositif d'astreinte de l'équipe 24/24 7/7. Spécificités pour les tests techniques : - Prise de connaissance du changement et de son contexte technique - Complète le plan de tests proposé - Prépare les infrastructures de tests - Valide les documents et les procédures à destination de la production - Réalise les différents tests techniques - Analyse les résultats - Contribue au diagnostic en cas de dysfonctionnement - Rédige les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production - Constitue ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures - Effectue le reporting vers le Responsable Intégration - Contribue à l'amélioration continue - Industrialise les tests techniques récurrents (automatisation, outillage?)

Freelance
CDI
CDD

Offre d'emploi
Data Engineer

bdevit
Publiée le
AWS Cloud
Dataiku
Docker

36 mois
50k-60k €
550-600 €
Île-de-France, France

Dans le cadre de son plan stratégique, une entreprise internationale poursuit son développement en exploitant la donnée et les APIs pour apporter davantage de valeur à ses clients et partenaires, notamment sur le marché du crédit à la consommation. Pour relever ces défis, l'équipe IT renforce ses compétences en mobilisant des experts capables d’intervenir sur des domaines variés : Datawarehouse, Datalab, Sécurité Financière, Automobile, Risques, etc. L’objectif est de structurer et faire évoluer les solutions techniques tout en accompagnant les entités locales dans leurs projets. MISSIONS PRINCIPALES : Participation à l’industrialisation du socle technologique Data & API : - Mise en œuvre et évolution des capacités techniques ; - Création de composants génériques pour faciliter le développement ; - Amélioration et migration vers de nouveaux socles (Snowflake, AWS) ; - Support aux équipes locales (IT) en phase de cadrage et de build. Expertise technique : - Analyse des besoins métiers et proposition de solutions adaptées ; - Veille technologique et alignement des solutions avec les normes techniques ; - Documentation des assets pour garantir leur maintenance et réutilisation. Développement et support : - Développement de composants facilitant les flux de données (Talend, Java, Python…) ; - Gestion du support technique niveau 3 ; - Suivi des migrations et optimisation des processus. Monitoring et amélioration des flux Datawarehouse : - Mise en place d’un système de monitoring centralisé ; - Suivi des performances des outils et des bases de données (Vertica, Oracle, Snowflake). ACTIVITÉS ET LIVRABLES : - Référent technique pour plusieurs applicatifs ; - Support technique pour les outils DevOps (GitLab, Jenkins, Kubernetes, etc.) ; - Coordination avec les sous-traitants et validation des livrables ; - Reporting et suivi des projets auprès des équipes et des responsables.

Freelance

Mission freelance
un consultant SAP Quantum

CRYSTAL PLACEMENT
Publiée le
AWS Cloud

1 an
550-1 050 €
Lyon, Auvergne-Rhône-Alpes

Je recherche pour mon client un consultant SAP Quantum : Les principales responsabilités seront : Travailler au sein de l'équipe de support et de maintenance pour résoudre des tickets d'évolution ou d'incidents, soutenir les utilisateurs finaux, et suivre tous les tickets liés à Quantum via Service One. Effectuer certaines activités en tant que membre du projet pour suivre les livrables principaux du projet (mise à jour de Quantum/migration vers le cloud (AWS)), en assurant la livraison du projet dans les délais, les tests, etc. Être le principal point de contact pour le support avec les utilisateurs clés comme DT T&ITC. Connaissances fonctionnelles des processus Quantum : Contrats, paiements, intégration des relevés bancaires dans Quantum, réconciliation des comptes, gestion de trésorerie, reporting, analyses, taux, statistiques, etc. Trésorerie globale – processus FX, gestion des risques, etc. Support centré sur la clôture mensuelle (D4), personnalisation, gestion des données de base et reporting pendant l'installation/des requêtes. Connaissance des interfaces Quantum (Reuters, Bloomberg, 360T, Finastra, pour l'importation des taux et des contrats). Connaissance de l'intégration des taux de change (FIXING) dans Quantum et SAP SFTP, FileZilla, ainsi que des langages de scripts, Citrix AG, planification des tâches, Crystal Reports, connaissances en Analytics, configuration des tâches et suivi des traitements. Connaissance des formats de fichiers de paiement MT101, etc. Coordination des mises à jour nécessaires de FIS et exécution des tests de routine associés (SSO, certificats, etc.). Travailler dans SAP sur les interfaces Quantum – analyse des écritures comptables. Préparer et effectuer des tests individuels en IT pour valider les changements effectués par FIS (évolutions).

Freelance
CDI

Offre d'emploi
Business Analyst – Data & Transformation(H/F)

CELAD
Publiée le
Big Data

1 an
40k-45k €
450 €
Paris, France

Nous recherchons un Business Analyst spécialisé dans le domaine Data et Transformation pour intervenir sur des projets stratégiques au sein d'une grande plateforme d'assurance. Vos missions principales : En tant que Business Analyst au sein du domaine Solutions Data MAP , vous serez amené(e) à : Collaborer en mode agile avec : Les métiers de l’assurance de personnes. Les filières SI de la plateforme d’assurance. Les partenaires Data du groupe et des prestataires externes. Accompagner le Manager Produit dans : Maintenir la cohérence du produit Data en collaboration avec les tech leads et les architectes. Piloter la transformation Data et la rationalisation des outils. Animer la communauté Scrum pour prioriser le backlog des demandes liées à la transformation. Porter les exigences non fonctionnelles avec les équipes (infogérance, sécurité, habilitations). Contribuer au suivi du bon fonctionnement des solutions Data.

CDI

Offre d'emploi
Data Scientist

Zsoft Consulting
Publiée le
Business Intelligence
Cloud
Data science

38k-45k €
La Défense, Île-de-France

Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.

CDI
Freelance

Offre d'emploi
Data Scientist – Domaine de l’environnement(H/F)

CELAD
Publiée le
Data science

12 mois
38k-40k €
300-400 €
Toulouse, Occitanie

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Scientist pour intervenir chez un de nos clients dans le domaine de l’environnement💻💼 💡 Votre futur rôle ? Vous souhaitez travailler au sein d’une équipe d’experts passionnés par la data et l’innovation ? Rejoignez ce projet transverse composé de 6 Data Scientists, où chaque mission est une opportunité de relever de nouveaux défis analytiques ! 🧪 Vos terrains de jeu : • Les données : images satellites, données météo, données océanographiques, télémétrie et trajectoires. • Les méthodes : régression, classification, segmentation sémantique. • Les technologies : de l’analyse classique au Machine Learning et Deep Learning. 📚 Vos missions à la loupe Chaque mission dépend du backlog du Datalab. Pour autant, voici ce que l’on peut déjà vous assurer : • 🦜 Comprendre et analyser le besoin : vous échangerez avec les experts métiers pour cerner le problème à résoudre. • 🧬 Définir la stratégie d’analyse : choix des algorithmes à mobiliser (data processing, ML, DL) en fonction des objectifs. • 💻 Coder et développer des modèles performants : créer des solutions robustes et maintenables en respectant les bonnes pratiques de développement. • 📊 Restituer et déployer : livrer des dashboards percutants et, si nécessaire, mettre les modèles en production. • 👨‍👩‍👦 Collaborer au quotidien : échanger régulièrement avec les experts métiers pour affiner les solutions.

Freelance

Mission freelance
EXPERT SPLUNK OBSERVABILITY – Freelance - (H/F)

SWING-ONE
Publiée le
AWS Cloud
CI/CD
Docker

6 mois
500-600 €
Île-de-France, France

CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk observability. MISSIONS TYPES : 1) Audit et cadrage : Évaluer l'existant en termes de supervision et observabilité. Proposer des améliorations pour la collecte et l'analyse des données de logs, métriques et traces. 2) Implémentation et configuration : Mettre en place les solutions Splunk Observability (SignalFx, Infrastructure Monitoring, APM). Intégrer les sources de données des systèmes cloud, conteneurs (Docker/Kubernetes), et infrastructures traditionnelles. 3) Création de dashboards et alertes : Développer des tableaux de bord personnalisés pour les équipes opérationnelles et les décideurs. Configurer des alertes proactives basées sur des seuils dynamiques et des tendances. 4) Formation et transfert de compétences : Accompagner les équipes internes dans l'utilisation optimale de Splunk Observabilité. Définir les bonnes pratiques en termes de monitoring et d'analyse. 5) Amélioration continue : Participer à la résolution des incidents critiques en exploitant les données d'observabilité. Mettre en place des solutions automatisées pour améliorer la disponibilité des systèmes.

CDI

Offre d'emploi
EXPERT SPLUNK OBSERVABILITY – CDI - (H/F)

SWING-ONE
Publiée le
AWS Cloud
CI/CD
Docker

50k-60k €
Île-de-France, France

CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk observability. MISSIONS TYPES : 1) Audit et cadrage : Évaluer l'existant en termes de supervision et observabilité. Proposer des améliorations pour la collecte et l'analyse des données de logs, métriques et traces. 2) Implémentation et configuration : Mettre en place les solutions Splunk Observability (SignalFx, Infrastructure Monitoring, APM). Intégrer les sources de données des systèmes cloud, conteneurs (Docker/Kubernetes), et infrastructures traditionnelles. 3) Création de dashboards et alertes : Développer des tableaux de bord personnalisés pour les équipes opérationnelles et les décideurs. Configurer des alertes proactives basées sur des seuils dynamiques et des tendances. 4) Formation et transfert de compétences : Accompagner les équipes internes dans l'utilisation optimale de Splunk Observabilité. Définir les bonnes pratiques en termes de monitoring et d'analyse. 5) Amélioration continue : Participer à la résolution des incidents critiques en exploitant les données d'observabilité. Mettre en place des solutions automatisées pour améliorer la disponibilité des systèmes.

Freelance

Mission freelance
STream Lead Sénior-S4Hana MM & data migration

EBMC
Publiée le
Data management
SAP

6 mois
400-700 €
Paris, France

Mission: Stream Lead SAP S4 Hana MM + data migration lead Activités principales: - Animation ateliers de conception détaillées sur SAP MM + data migration - Pilotage de l'équipe MM et data migration (release D1 MEP prévue février 2025 + RUN de 6 mois) - Paramétrage de la solution SAP S4 (module MM) - Connaissance des fonctionnalités modèle de prévisions / MRP / S&OP / Template handling - Préparation et suivi de la phase des SIT + Recette - Construction et suivi du plan de bascule avec les différents stream lead - Préparation des comité de suivi projet - Reporting rigoureux au management projet Profil: Senior/ (min 5 ans d'expériences sur SAP S4 Hana MM)

Freelance

Mission freelance
Product Owner Big Data

INSYCO
Publiée le
Apache Spark
AWS Cloud
Big Data

15 mois
550-650 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique

Freelance

Mission freelance
Architecte Data Solution - CIB

ABSIS CONSEIL
Publiée le
Architecture
Big Data
Domain Driven Design (DDD)

3 ans
700-750 €
Paris, France

Nous recherchons un Architecte Data Solution expérimenté ayant des expérience au sein du secteur bancaire CIB. Vos missions : Mise en place du data mesh en temps réel pour gérer les flux de données Travailler sur des modèles de données normalisés tels que Common Domain Model (CDM) et Financial Products Markup Language (FPML) pour standardiser les processus Architecture hexagonal et DDM : conception et mise en oeuvre des architectures hexagonales basées sur le Distributed Data Management Pré-requis : bac + 5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte Data Solution avec une ou plusieurs expérience dans le secteur bancaire, idéalement CIB vous avez obligatoirement travailler sur la mise en place du data mesh , travailler sur le CDM, FPML et l'architecture hexagonal (DDM) Maitrise de l'anglais maitrise de la stack technique big data : Kafka, Hive, Spark et Oozie

Freelance

Mission freelance
Ingénieur Data

ALLEGIS GROUP
Publiée le
Big Data
PySpark
Scala

3 mois
150-650 €
Île-de-France, France

TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).

Freelance

Mission freelance
Tech Lead - Splunk Observability F/H

METSYS
Publiée le
AWS Cloud
Gitlab
GitLab CI

6 mois
550-600 €
Évry, Île-de-France

METSYS est un intégrateur de solutions Cloud, Cybersécurité et Microsoft. Pour l'un de nos clients grands-comptes fortement reconnu dans son secteur, nous recherchons un.e Tech Lead ayant une expérience solide sur la technologie Splunk Observability (F/H), pour un démarrage début janvier 2025. Dans ce cadre-là, vous aurez notamment en charge les missions suivantes (liste non exhaustive) : 1. Conception et mise en œuvre : o Concevoir et mettre en œuvre la solution Splunk Observability dans un environnement hybride on prem/cloud AWS ; o Définir les bonnes pratiques et assurer leur application pour garantir un déploiement optimal ; 2. Intégration : o Intégrer Splunk Observability avec des systèmes d’information existants (infrastructures, conteneurs, microservices) ; o Configurer des tableaux de bord, des alertes et des métriques clés pour la supervision en temps réel des systèmes et applications ; 3. Accompagnement : o Transférer les compétences aux équipes internes et assurer leur montée en compétence sur l'utilisation de Splunk Observability ; o Produire une documentation claire et exhaustive sur les travaux réalisés ; 4. Support et suivi : o Assurer le support et résoudre les incidents liés à la solution Splunk Observability ; o Participer à la résolution de problèmes complexes impactant la supervision des systèmes.

Freelance

Mission freelance
Chef de Projet RH – Référentiel de Compétences Data Science (H/F) - IDF

Mindquest
Publiée le
Data science
SIRH

3 mois
400-700 €
Île-de-France, France

Dans le cadre de la structuration d’une fonction stratégique dédiée à la Data Science , nous recherchons un(e) Chef de Projet RH spécialisé(e) en gestion des compétences et en organisation RH. Ce projet clé vise à développer un référentiel de compétences pour accompagner les métiers techniques et soutenir la gouvernance de la Data Science. L’objectif est de formaliser les rôles, compétences et parcours dans un domaine en pleine évolution, tout en alignant ces éléments avec les ambitions stratégiques du client en matière de données et d’innovation. Vos principales missions Piloter la phase de diagnostic pour analyser les missions, services, et besoins spécifiques liés à la Data Science . Construire un référentiel de compétences incluant des fiches de poste, grilles d’évaluation, et parcours de carrière adaptée aux métiers de la Data Science. Identifier et proposer des plans de formation pour accompagner la montée en compétences des équipes. Collaborer étroitement avec les RH, les managers techniques, et les parties prenantes pour valider et ajuster les livrables. Participer aux comités projets (copils) et rédiger les comptes-rendus de réunion. Garantir une vision claire et cohérente des compétences nécessaires pour soutenir la stratégie Data Science à long terme.

763 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous