Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Consultant – Data RH – Expert Dataiku

Consultant Confirmé – Data RH – Expert Dataiku *** - Contexte de la mission Au sein d'une Direction RH, le pôle People Analytics accompagne les équipes RH dans l’exploitation des données afin d'améliorer l'expérience employé et faciliter le pilotage stratégique. Le pôle People Analytics construit des produits analytiques destinés à : - Aider à la décision stratégique - Optimiser l’expérience collaborateur - Valoriser les actions RSE RH auprès des parties prenantes externes - Digitaliser les processus RH Grâce à une plateforme centralisée, l’équipe crée et maintient différents DataMarts nécessaires au pilotage des activités RH. - Prestations attendues La mission concerne l’intégration sur la plateforme centrale de développements analytiques existants réalisés localement. Ces développements évolueront selon les besoins. Les prestations attendues sont : - Analyse des processus et des données RH existantes - Challenge des traitements existants sur Alteryx - Intégration des données sur la plateforme centrale (Oracle) - Structuration des données sous Dataiku selon les règles définies - Construction des indicateurs nécessaires aux dashboards Tableau existants - Contrôle qualité et vérification de l’adaptation des dashboards Tableau - Documentation technique (dictionnaire de données, modes opératoires, wiki) - Formation des équipes internes à la maintenance et à l’évolution des données - Animation des échanges et partage avec les équipes internes Secteur d’activité : Banque – Direction RH Calendrier : 7 mois (du 07/04/2025 au 31/10/2025) Profil recherché - Séniorité : 6 à 9 ans - Expertises : Data, Dataviz - Métier : Ressources Humaines - Périmètre fonctionnel : Processus, indicateurs et données RH - Solutions et outils : Dataiku, Tableau, Alteryx, Oracle - Anglais : Opérationnel TJM : 450€/j
Ingénieur DATAIKU

Au sein de l'équipe de notre client, vous interviendrez en particulier sur tous les SGBD / DATA utilisés pour les solutions mises à disposition. Missions : Réaliser l'administration courante de l’ensemble des SGBD de technologies DATAIKU spécifiques aux applications client en vue de garantir un taux de disponibilité des applications conforme aux attentes Faire le suivi des consommations et usages des plateformes SGBD, analyser, identifier et remonter tout changement de comportement. Maintien en condition opérationnelle des plateformes de Production, Homologation et Cycle Projet. Résoudre les incidents en lien avec les serveurs usages applicatifs. Apporter le support nécessaire aux tours applicatives. Maintenir à jour les documentations, les faire évoluer et les adapter aux changements (FCR ; Astreintes ; pilotages ; …) Accompagner les intervenants du cluster pour tous les sujets touchant aux SGBD DATAIKU (demandes, projets, exploitation, …) Automatiser les processus du périmètre (Run, Build) Participer aux astreintes pour une couverture du service 7j/7 et 24h/24 Missions associées : Activités Projets Gérer les projets, suivre et mettre en œuvre les échanges avec la chefferie de projet métier et technique Mettre au point la documentation des processus de mise en œuvre, de mise à jour et d’exploitation des composants Participer aux mises en production des applications / déploiement des solutions Activités Fonctionnement Gérer des incidents et problèmes ; proposer et mettre en œuvre des plans d’actions dans le cadre de la gestion des problèmes Assurer une assistance technique, analyser l’état de santé, élaborer des enquêtes techniques et effectuer les diagnostics de perturbations Assurer le support du fonctionnement pour respecter les niveaux de service attendus de la Production concernant la disponibilité et les performances des applications. Apprécier les niveaux d’usage, de disponibilité et de performances des applications. Mettre en place les Tableau de bord de suivi. Suivre les obsolescences Anticipation des évolutions applicatives et techniques Maintenir et participer à des développements internes (industrialiser l'administration, automatiser les créations / décommissionnements, fiabiliser les interventions, …) Prendre en compte les évolutions de choix technologiques ; intégrer ces évolutions dans les pratiques et les outils internes de déploiement, de supervision, de diagnostic ou de métrologie Compétences demandées : Connaissances : DATAIKU Expert dans le metier de DBA Production Systèmes d’exploitation : Linux Développement (powershell, bash, python) Outils : Observabilité Dynatrace , Supervision (Zabbix), Métrologie (Elisa, Grafana), Déploiement et d’automatisation (ACP, Ansible, XL Release,) Anglais technique
Expert IA MLOPS

Le Cluster a la responsabilité de la production informatique . L'équipe DATA/IA conçoit, opère et porte l'expertise des plateformes DATA et IA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes on prem et sur le cloud. En tant qu'Expert AI, vous rejoindrez l’équipe DATA/IA du cluster, actuellement constituée de 15 personnes et évoluerez dans un environnement technique et fonctionnel riche. · Leader le développement de l’offre IA/MLOps du Cluster, étoffer notre catalogue de service, identifier des opportunités projet · L’intégration et la construction des offres IA/MLOps du Cluster pour les rendre utilisables dans l’écosystème de : formalisation de la roadmap (épic et user stories associés), qualification des offres afin de mesurer leur niveau de maturité, etc · Identification des besoins clients dans le cycle end-to-end de projets IA/ML (technologies, service, ou infrastructures cloud/on-premise). · l'automatisation des solutions et l’industrialisation des projets IA/MLOps, en facilitant l’adoption de nos plateformes IA/ML et le respect des golden rules. · Développement et intégration dans les offres de solutions de monitoring, alerting, restriction de droits, etc. · Acculturations équipes, veille technologique autour de l'IA/ML/LLMOps, réalisation de POC, tests de performances et comparaison de solutions. · Être le référent des technologies
Consultant Data Scientist - Dataiku
Une entreprise du secteur bancaire recherche un Consultant Data Scientist expérimenté pour rejoindre son équipe dynamique à Paris. Avec 3 à 4 ans d'expérience, vous aurez l'opportunité de travailler sur des projets concrets et opérationnels en utilisant la plateforme Dataiku. Responsabilités : Développer et déployer des modèles de machine learning et d'intelligence artificielle pour répondre aux besoins métiers. Collaborer avec les équipes techniques et fonctionnelles pour comprendre les exigences et proposer des solutions innovantes. Assurer la maintenance et l'optimisation des modèles en production. Participer à la veille technologique et proposer des améliorations continues des processus et outils utilisés.
Data Engineer / Dataiku / Alteryx (F/H)

Contexte de la mission Au sein d’une équipe agile rattachée aux Ressources Humaines Groupe, le pôle People Analytics accompagne la fonction RH dans l’exploitation de la donnée à des fins stratégiques et opérationnelles. L’équipe construit et maintient des produits analytiques pour : Favoriser la prise de décision RH, Améliorer l’expérience collaborateur, Alimenter les reporting RSE en tant qu’employeur responsable, Digitaliser les processus RH. Grâce à une plateforme intégrée centralisant les données RH, l’équipe pilote l’ensemble du parcours collaborateur via la création et la gestion de DataMarts. Objectif de la mission Dans le cadre d’un remplacement pour congé maternité et d’un chantier de rationalisation des data products existants, le consultant interviendra sur l’intégration et l’évolution de produits analytiques sur la plateforme People Insight. Responsabilités Compréhension des processus RH et de la donnée associée. Analyse critique des traitements existants développés sous Alteryx. Intégration des données dans l’environnement Oracle. Structuration et préparation des datasets dans Dataiku selon les standards internes. Création et maintenance des indicateurs alimentant les dashboards Tableau. Vérification de la compatibilité des tableaux de bord avec les nouvelles structures de données. Implémentation de contrôles de qualité des données. Rédaction de la documentation technique (dictionnaires, guides, wiki…). Formation des membres de l’équipe People Analytics à la maintenance des produits. Partage régulier de l’avancement avec les pairs.
Proxy Data Product Owner H/F

Piloter la définition et l’évolution des Data Products en collaboration avec les équipes Data ; • Recueillir, analyser et formaliser les besoins utilisateurs et métier ; • Rédiger et prioriser le backlog en garantissant une cohérence avec la stratégie Data Mesh ; • Assurer le suivi du delivery des équipes techniques et garantir le respect des délais et des exigences qualité ; • Participer aux rituels Agile (dailys, refinements, sprint reviews, rétrospectives) ; • Définir les indicateurs de performance et suivre l’usage des Data Products pour maximiser leur impact ; • Accompagner le changement auprès des utilisateurs finaux.
Data Analyst / BI – Risque Opérationnel (secteur bancaire)
Dans le cadre de la transformation de la fonction Risque Opérationnel au sein d’un grand groupe du secteur bancaire , nous recherchons un Data Analyst / BI pour intervenir sur la plateforme Datalytics (Cognos et Tableau) et accompagner la production de rapports et d’indicateurs à destination de la communauté d’utilisateurs 360RISKOP . L'objectif est de fournir des analyses pertinentes et des indicateurs transverses afin d’améliorer la gouvernance et la maîtrise du risque opérationnel. 🎯 Objectifs & livrables attendus sur 2025 : 🔧 Optimisation des rapports existants pour en améliorer les performances 🔄 Évolution des indicateurs actuels selon les nouvelles procédures 🔍 Création d’indicateurs croisés pour une vision transverse du risque opérationnel 🗣️ Animation de la communauté d’utilisateurs : communication, formation 🤝 Organisation de workshops pour recueillir les besoins métiers autour des nouveaux indicateurs 🛠️ Missions principales : Développement de nouveaux tableaux de bord liés au pilotage du risque opérationnel → Maîtrise impérative de Tableau et Dataiku Animation de workshops pour recueillir les besoins utilisateurs et métiers Conception et animation de formations à destination des utilisateurs 360RISKOP Préparation de supports PowerPoint pour les réunions et communications autour des indicateurs et tableaux de bord
Proxy Product Owner DATA

Pour l’un de nos clients, nous recherchons un Proxy Data Product Owner afin de renforcer ses équipes et d’accompagner la conception et la mise en œuvre de Data Products. En collaboration avec les équipes métiers, techniques et le Data Office, vous jouerez un rôle clé pour garantir la pertinence, la qualité et la valeur business des produits de données. Missions Piloter la définition et l’évolution des Data Products en collaboration avec les équipes Data et les parties prenantes métiers. Recueillir, analyser et formaliser les besoins utilisateurs et métier. Rédiger et prioriser le back log en garantissant une cohérence avec la stratégie Data Mesh. Assurer le suivi du delivery des équipes techniques et garantir le respect des délais et des exigences qualité. Participer aux rituels Agile (Daily, , sprint reviews, rétrospectives). Définir les indicateurs de performance et suivre l’usage des Data Products pour maximiser leur impact. Accompagner le changement et favoriser l’adoption des produits auprès des utilisateurs finaux. Compétences requises Expérience confirmée en Product Management ou Proxy Product Owner, idéalement dans un contexte Data. Bonne maîtrise des principes de Data Mesh et des Data Products (une première expérience en réalisation de Data Products est fortement souhaitée). Connaissance des architectures data, des pipelines et des technologies associées (Dataiku, Cloud AWS, Cloud Azure, etc.). Capacité à collaborer avec des profils variés (Data Engineer, Data Analyst, Data Scientists, Business Owners, etc.). Excellentes compétences en communication, négociation et gestion des priorités. Maîtrise des méthodologies Agile (Scrum, Kanban)
Ingénieur DATAIKU production (H/F)

Notre client dans le secteur Banque et finance recherche un/une Ingénieur DATAIKU Production H/F Description de la mission : Notre client, acteur majeur du secteur banque et finance, recherche son futur Ingénieur Dataiku production en freelance ! Vos principales missions : - Réaliser l'administration courante de l’ensemble des SGBD de technologies DATAIKU en vue de garantir un taux de disponibilité des applications conforme aux attentes - Faire le suivi des consommations et usages des plateformes SGBD, analyser, identifier et remonter tout changement de comportement. Maintien en condition opérationnelle des plateformes de Production, Homologation et Cycle Projet - Résoudre les incidents en lien avec les serveurs usages applicatifs. Apporter le support nécessaire aux tours applicatives - Maintenir à jour les documentations, les faire évoluer et les adapter aux changements - Accompagner les intervenants du cluster pour tous les sujets touchant aux SGBD DATAIKU (demandes, projets, exploitation, …) - Automatiser les processus du périmètre (Run, Build) - Participer aux astreintes pour une couverture du service 7j/7 et 24h/24 Vos principales missions associées sont les suivantes : 1- Activités Projets - Gérer les projets, suivre et mettre en œuvre les échanges avec la chefferie de projet métier et technique - Mettre au point la documentation des processus de mise en œuvre, de mise à jour et d’exploitation des composants - Participer aux mises en production des applications / déploiement des solutions 2- Activités Fonctionnement - Gérer des incidents et problèmes ; proposer et mettre en œuvre des plans d’actions dans le cadre de la gestion des problèmes - Assurer une assistance technique, analyser l’état de santé, élaborer des enquêtes techniques et effectuer les diagnostics de perturbations - Assurer le support du fonctionnement pour respecter les niveaux de service attendus de la Production concernant la disponibilité et les performances des applications - Apprécier les niveaux d’usage, de disponibilité et de performances des applications. Mettre en place les Tableau de bord de suivi - Suivre les obsolescences - Anticipation des évolutions applicatives et techniques - Maintenir et participer à des développements internes (industrialiser l'administration, automatiser les créations / décommissionnements, fiabiliser les interventions, …) - Prendre en compte les évolutions de choix technologiques ; intégrer ces évolutions dans les pratiques et les outils internes de déploiement, de supervision, de diagnostic ou de métrologie
Ingénieur DevOps Big Data

Dans le cadre de l’exploitation et de l’optimisation de l'infrastructure Cloudera & Data de notre client, nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. Missions : Support Technique N2 & N3 Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka Administrer et optimiser l’infrastructure Kafka sur Cloudera. Gérer la scalabilité et la résilience des clusters Kafka. Assurer une supervision efficace des topics, brokers et consommateurs. Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. Automatiser la gestion des incidents récurrents et les procédures de maintenance. Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. Assurer une veille technologique et être force de proposition pour améliorer la plateforme Documentation et Transmission de Connaissances Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Data Steward

Nous recherchons 1 data quality analyst (steward) afin d' organiser et industrialiser le suivi de la qualité de la donnée Suivi de la qualité de la donnée = 60%-50% - analyse des tableaux de bord existants et créations de nouveaux dashboards (préparation de la donnée et visualisation - Dataiku/ Tableau / SQL) - Mise en place des indicateurs de suivi (complétude, conformité, unicité, cohérence, mise à jour... ) - Identifier et lotir les différents cas de disqualité via une analyse transverse et fonctionnelle entre les différents SI d' Arval - Organiser les ateliers avec les Métiers afin de partager les constats - Organiser et coordonner les plans de remédiation avec les Métiers et l'IT - Proposer des contrôles à implémenter (semi manuel ou avec la contribution de l'IT ) - Mise à jour et maintien du Catalogue des données (Collibra / We Data) - Mettre en place un Comité Qualité (Quality assessment and remediation program) au niveau de la France
Data Engineer Dataiku

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Dataiku. Le data engineer sera amené, en s’appuyant sur notre plateforme Dataiku, à : · Développer et opérer les pipelines de mise à disposition des référentiels · Développer les contrôles de data quality et d’alerting selon les spécifications du propriétaire des données · Assurer la mise en production et le suivi post-MEP des traitements développés ; De la veille et la formation Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Consultant(e) DATAIKU DSS

Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
Consultant(e) DATAIKU DSS

Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
Ingénieur DATA - Infocentre SAS (SAS-Oracle-Python-Shell-Dataiku)

Contexte de la mission Le service Socles Techniques DATA (STD) dans la Direction Etudes, est garant du bon fonctionnement et des évolutions des filières décisionnelles du Groupe. Organisé en centres d’expertises des différentes filières technologiques, il établit les normes de développements et les règles d'usages et veille à leurs respects. Il accompagne les utilisateurs et développeurs, sur les différents outils, dans leur montée en compétence et dans la réalisation d'applications performantes et optimisées. Il conçoit et réalise des outils permettant d'améliorer l'expérience utilisateur et de le rendre toujours plus autonome. Il prend également en charge et réalise des projets clé en main à partir des expressions de besoins des clients. Le système d’informations décisionnel du Groupe s’appuient sur la plateforme Data positionnée au cœur du SI (Architecture Datacentric) à laquelle est associé un Data Warehouse sous Exadata Oracle. En complément des outils de pilotage et restitution, des outils infocentre sont déployés auprès des utilisateurs pour leur permettre de manipuler les données et réaliser des études à bases de modélisation mathématique et statistique. Le poste s’inscrit à la fois dans la pérennité du patrimoine applicatif SAS mais également dans des projets d’évolution des offres de service d’accès à la donnée avec des outils tels SLC, DataIku et Python.
POT8321-Un Data Ingénieur Senior-Projet de migration SAS vers ALTAIR / DATAIKU Sur Paris 13

Almatek recherche pour l'un de ses clients, Un Data Ingénieur Senior - Projet de migration SAS vers ALTAIR / DATAIKU Sur Paris 13 Contexte : Au sein du département Data Mangement Office de la DSI « Assurance Non vie », le consultant aura en charge la migration des programmes SAS vers les outils ALTAIR et DATAIKU" Descriptif général de la mission / Livrables et dates associées : Cette mission vise à migrer les traitements existants développés sur SAS vers les solutions Altair et Dataiku, permettant ainsi une meilleure intégration, une plus grande flexibilité et des capacités avancées d'analyse de données • Objectifs de la Mission : Évaluation des Traitements Existants : Analyser les traitements actuels développés sous SAS pour comprendre leur logique, leurs dépendances et leur impact sur les processus métier. Identifier les meilleures pratiques et les éléments clés à reproduire dans les nouvelles solutions. Planification de la Migration : Élaborer un plan de migration détaillé, incluant les étapes, les ressources nécessaires, les délais et les risques associés. Définir une stratégie de test pour garantir la qualité et l'intégrité des données après migration. Migration des Données et des Traitements : Utiliser les outils Altair et Dataiku pour recréer les traitements SAS, en veillant à ce que la logique métier soit préservé et optimisée. Transférer les données nécessaires vers les nouvelles plateformes, en assurant la qualité et la conformité des données. Formation et Accompagnement : Former les équipes internes sur l'utilisation d'Altair et Dataiku, en mettant l'accent sur les fonctionnalités spécifiques qui améliorent l'efficacité et la productivité. Assurer un accompagnement post-migration pour répondre aux questions et résoudre les problèmes éventuels. Suivi et Optimisation : Mettre en place des indicateurs de performance pour évaluer l'efficacité des nouveaux traitements et l'impact sur les processus métier. Proposer des recommandations pour l'optimisation continue des outils et des processus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul des cotisations sociales (EI à l'IS)il y a 29 minutes
- Déclaration d'impots et boni de liquidation au PFUil y a une heure
- Passage automatique en EI : rebascule en micro-BNC possible ?il y a une heure
- Quel statue pour mes futures activités freelanceil y a 2 heures
- État du marché IT : quelles perspectives pour 2025 ?Quelle stratégie adopter en 2025 ? CDI, international ou IA ?il y a 13 heures
- Formation PMil y a 19 heures