Trouvez votre prochaine offre d’emploi ou de mission freelance Data visualisation
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Informaticien Industriel F/H
L'un de nos clients, un acteur industriel reconnu, est à la recherche de son futur Informaticien Industriel F/H, qui sera responsable de la gestion, de la maintenance et de l'optimisation des données de référence afin d'assurer leur qualité, leur fiabilité et leur disponibilité pour tous les processus métier du site. A ce titre, vos missions seront les suivantes : -Assurer le rôle de référent des systèmes informatiques de production (MES Hydra et SAP). -Centraliser les demandes des utilisateurs et définir les besoins opérationnels -Analyser les données et créer des tableaux de bord, des outils de reporting, et effectuer des tests statistiques. -Définir les règles de gestion, de structuration, de nettoyage et de mise à jour des différentes bases de données. - Identifier, traiter et résoudre les anomalies dans les interfaces, notamment Hydra et SAP -Rédiger des rapports réguliers sur la qualité des données et les performances des systèmes de gestion des données. -Maintenir et actualiser les données de référence dans les systèmes d'information de l'entreprise. -Communiquer les résultats des analyses et des solutions à l'aide d'outils de data visualisation. -Former les équipes aux pratiques de gestion des master data et à l'utilisation des processus -Piloter et coordonner une équipe centrale de gestion des données composée de représentants de chaque service.
Mission freelance
Chargé de Consolidation et Data Analyse
Pour un grand compte du Retail spécialisé, je recherche un consultant pour une mission en 2 phases : Récupération de fichiers .csv issus d'extractions manuelles de données de plusieurs logiciels Saas, pour plusieurs directions du groupe (une 30 aine de pays). Consolidation des données obtenues pour obtenir un rapport Groupe. Les datas sont des données d'utilisation des logiciels. Présentation des données obtenues grâce à un logiciel de DataViz (Tableau idéalement). Analyse des données pour faire des recommandations métier.
Offre d'emploi
Ingénieur(e) Data Spotfire - Toulouse - F/H
Pour quel poste ? Nous recherchons un(e) Ingénieur Data Spotfire. Ce poste en CDI vous offre l'opportunité de travailler dans un environnement innovant et de contribuer à des projets de data visualisation de grande envergure. Dans le cadre d'un projet spécifique, vous intégrerez une équipe dynamique qui se concentre principalement sur l'utilisation de TIBCO Spotfire pour la visualisation des données et, dans une moindre mesure, de SAP Business Project/ SAP BW. Missions principales : En tant qu'Ingénieur Data Spotfire, vous aurez pour missions : Concevoir et développer des visualisations de données avancées avec TIBCO Spotfire (environ 60 % de votre temps) Gérer et exploiter des données issues de SAP BW et SAP SAC (environ 40 % de votre temps) Travailler en collaboration avec les équipes Business Analyst, Scrum Master et Product Owner Contribuer à l’intégration et au traitement des données (data pipelines en PySpark et stockage Palantir Foundry) Participer activement aux sprints Agile
Offre d'emploi
Ingénieur BI - F/H - Lille
Missions Au sein de l'équipe BI, l'ingénieur BI aura pour mission d'accompagner la refonte de kpis et le développement de nouveaux reporting. Pour ce, le prestataire sera amené à travailler avec les différentes directions métiers pour : Recueillir et analyser leurs besoins, le challenger Proposer des visuels , des solutions de BI pouvant répondre aux besoins Développer les rapports et/ou accompagner les équipes métiers sur la route de l’autonomie de leur développement Accompagner le business à la recette L’équipe BI se veut être centre d’expertise BI pour toute l’entreprise. Environnement technique et fonctionnel Maîtrise du sql Maîtrise d'un outil de dataviz, un plus pour Power Bi Maîtrise de la modélisation en étoile
Mission freelance
conduite du changement sénior Oracle ETL Talend ALM /s
conduite du changement sénior Oracle ETL Talend ALM client banque basé à Paris, un profil conduite du changement sénior. Localisation Paris / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Projet : L’ALM (Asset and Liability Management) est le métier qui effectue la gestion des risques financiers pour la Banque (risque de taux , risque de liquidité) sur le moyen et long terme. Il s’agit d’une application stratégique, qui calcule des indicateurs nécessaires au pilotage de la Banque et au reporting règlementaire attendus par le régulateur. Le SI AL est constitué de 3 applications : · Un datamart, qui collecte l’ensemble des éléments constituant le bilan de la Banque (Actif / Passif) et de ses filiales, · Un calculateur (progiciel QRM) qui permet au métier de gérer le risque quantitativement, · Une base de restitution qui permet d’exporter des rapports et de brancher des outils de restitution tels que Business Object En aval, de nombreux traitements « shadow IT » (access, etc…) et manuels sont effectués par le métier. L’amélioration des process ALM est un des chantiers prioritaires de La Banque (chantier 4) pour les 3 années à venir, d’où le lancement du projet « Plan progrès ALM » Tâches : Piloter l’étude de faisabilité, Assister la MOA pour la formalisation des besoins, Définir les solutions et la trajectoire en collaboration avec les différents acteurs, Piloter la mise en œuvre. Environnement technique : Informatique Distribuée : o Oracle o ETL Talend pour le SI existant o Solution technique à déterminer pour l’’industrialisation des process aval (Dataiku ? outils de dataviz ?) Compétences requises : Chef de projet senior ayant une double compétence MOE et MOA Connaissance de l’ALM Capacité rédactionnelle Autonomie Excellente communication (en distanciel notamment) Compétences Techniques Oracle ETL (Talend) Outils décisionnels Compétences Fonctionnelles Gestion de projet en environnement bancaire Chef de projet MOE expérimenté (5 ans minimum) Autonomie Excellente communication (en distanciel notamment) Gestion de projet (Méthodes Agile)s) Connaissance ALM
Mission freelance
conduite du changement sénior/s
client banque basé à Paris, un profil conduite du changement sénior. Localisation Paris / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Projet : L’ALM (Asset and Liability Management) est le métier qui effectue la gestion des risques financiers pour la Banque (risque de taux , risque de liquidité) sur le moyen et long terme. Il s’agit d’une application stratégique, qui calcule des indicateurs nécessaires au pilotage de la Banque et au reporting règlementaire attendus par le régulateur. Le SI AL est constitué de 3 applications : · Un datamart, qui collecte l’ensemble des éléments constituant le bilan de la Banque (Actif / Passif) et de ses filiales, · Un calculateur (progiciel QRM) qui permet au métier de gérer le risque quantitativement, · Une base de restitution qui permet d’exporter des rapports et de brancher des outils de restitution tels que Business Object En aval, de nombreux traitements « shadow IT » (access, etc…) et manuels sont effectués par le métier. L’amélioration des process ALM est un des chantiers prioritaires de La Banque (chantier 4) pour les 3 années à venir, d’où le lancement du projet « Plan progrès ALM » Tâches : Piloter l’étude de faisabilité, Assister la MOA pour la formalisation des besoins, Définir les solutions et la trajectoire en collaboration avec les différents acteurs, Piloter la mise en œuvre. Environnement technique : Informatique Distribuée : o Oracle o ETL Talend pour le SI existant o Solution technique à déterminer pour l’’industrialisation des process aval (Dataiku ? outils de dataviz ?) Compétences requises : Chef de projet senior ayant une double compétence MOE et MOA Connaissance de l’ALM Capacité rédactionnelle Autonomie Excellente communication (en distanciel notamment) Compétences Techniques Oracle ETL (Talend) Outils décisionnels Compétences Fonctionnelles Gestion de projet en environnement bancaire Chef de projet MOE expérimenté (5 ans minimum) Autonomie Excellente communication (en distanciel notamment) Gestion de projet (Méthodes Agile)s) Connaissance ALM
Mission freelance
Consultant Data - AI (h/f)
emagine is looking for 1 Senior Data AI for one of its key account client Location : Paris Duration 6 months to 36 months Full Time hybrid (2 days onsite/week) Start Date : January 2025 Role: Being the AI Gen Expert able to develop Ai tools within the data visualization team for cyberdefence products team. Deliverables : Implement and develop automation with AI gen. within the team Define solutions AI oriented. Identify needs and provide solutions around AI gen. Able to bring AI vision to the team. Automate tasks to streamline BI experts' reporting. Deliver more advanced reporting capabilities through AI. Test the AI developments Technical skills mandatory : 5 years of exp. minimum Fluent English Good knowledge of AI : GPT 3.5 or Mistral BI Reports and Dashboarding Optional skills : Knowledge of Compliance and Risks is a plus Test realization
Offre d'emploi
Ingénieur de Production Applicative
Dans le cadre de notre développement, nous recherchons pour notre client du secteur bancaire, un Ingénieur de production applicative avec une expertise en gestion et intégration de données – notamment avec l’ outil QlikSense . Vous serez un élément clé dans l’organisation, assurant la relation avec l’éditeur et agissant comme référent technique pour plusieurs portefeuilles applicatifs. Rejoignez une équipe pluridisciplinaire pour coordonner la planification , conception et exécution de projets d'intégration de données répondant aux besoins des utilisateurs ! Vos responsabilités 1. Gestion de Produit pour QlikSense : o Product Owner de QlikSense, vous assurerez la liaison avec l'éditeur pour aligner les solutions sur les objectifs métiers. o 🛠 Élaboration de roadmaps produits avec les équipes internes et l’éditeur. 2. Conception de Solutions Techniques : o Gestion technique de portefeuilles applicatifs comme Portfolioanalytics, IT Costs (Valoptia), SEELAB, etc. o Analyse des besoins utilisateurs pour proposer des solutions innovantes et adaptées. 3. Coordination de Projets d'Intégration de Données : o Supervision de la planification et de l’exécution des projets en collaboration avec les équipes DEV et APS. o Assurance de la conformité des projets aux standards de qualité et de sécurité. 4. Documentation et Support : o Création et mise à jour de la documentation pour les équipes de support niveau 1 et 2. o 🛠 Support de niveau 3 en cas d'incidents complexes. 5. Supervision et Optimisation des Infrastructures de Dataviz : o Optimisation des infrastructures de data visualisation (QlikSense, ELK) avec des outils de monitoring comme ITRS Geneos et Dynatrace. o Surveillance continue des performances et proposition d’améliorations. 6. Automatisation et Administration : o Automatisation des processus d'intégration des données via CFT, sftp et Dollar Universe ($U). o Administration des solutions QlikSense et Valoptia : gestion des utilisateurs, licences, sécurité, etc. 7. Collaboration et Support Technique : o Collaboration avec les équipes pour la résolution des incidents niveau 3 en respectant les SLA. o Participation aux revues de code et de sécurité pour garantir la qualité des applications.
Offre d'emploi
Expertise Dataiku, Tableau et ML/IA
Le Bénéficiaire souhaite une prestation d'accompagnement (2,5 à 3 ans) pour assurer un service d'expertise autour de Dataiku, de Tableau et du ML/IA aux utilisateurs de la plateforme Prométhée. Cette plateforme permet aux Fonctions Centrales RISK, FINANCE et STFS de BNP Paribas de réaliser des travaux réglementaires sensibles du Groupe (stress tests bancaires, calcul du capital interne, reportings financiers, …). Elle intègre et met à disposition, avec le support d’équipes de production dédiées, les services suivants : - Cluster Hadoop CDP 7.1.9 ; - Cluster K8S ; - Service d’ingestion de données (application Java/Spark/Shell développée en interne) ; - Dataiku DSS et Automation Node (v. 12.6) comme point d’entrée du Métier sur tous les services ; - Service d’archivage de données (application Java/J2E développée en interne) ; - Dataviz via offre Tableau Groupe. Les missions de l’équipe Prométhée sont : 1. Gestion au quotidien & gouvernance de la plateforme ; 2. Maintien en conditions opérationnelles de la plateforme : a. Traitement des incidents ; b. Gestion des montées de versions des différents composants systèmes et applications, en collaboration avec les équipes de production ; c. Anticipation de la charge et planification des évolutions requises pour y faire face ; 3. Garantie de la sécurité et de la disponibilité du service : mise en place et monitoring de solutions de backup des données et des politiques de sécurité d’accès ; 4. Veille à l'évolution de la plateforme pour répondre aux nouveaux besoins métiers ; 5. Support utilisateurs sur les différents composants de la plateforme. Ce contexte exige une grande polyvalence technique et une réelle compréhension des principaux composants d'un SI (réseau, système, sécurité). La Tribe Prométhée est composée de 3 Squads de 5-6 personnes ayant chacune 1 Product Owner et 1 Tech Lead. La prestation sera réalisée au sein de la Squad Data Usage dont les principales missions sont : - d'assister les utilisateurs de Prométhée sur les outils Dataiku et Tableau ainsi que dans le choix et l'utilisation de modèles de ML/IA ; - de concevoir et d’assurer l’insertion opérationnelle de modèles de ML/IA répondant à de forts enjeux pour nos utilisateurs et pour la Banque. L’équipe est située sur le site du Millénaire 4 (Paris 19) et le rythme est de 50% de présence sur site.
Mission freelance
Un chef de projet avec des connaissances ALM sur Paris
Smarteo recherche pour l'un de ses clients, grand compte, Un chef de projet avec des connaissances ALM sur Paris. Projet : L'ALM (Asset and Liability Management) est le métier qui effectue la gestion des risques financiers pour la Banque (risque de taux , risque de liquidité) sur le moyen et long terme. Il s'agit d'une application stratégique, qui calcule des indicateurs nécessaires au pilotage de la Banque et au reporting règlementaire attendus par le régulateur. Le SI AL est constitué de 3 applications : Un datamart, qui collecte l'ensemble des éléments constituant le bilan de la Banque (Actif / Passif) et de ses filiales, Un calculateur (progiciel QRM) qui permet au métier de gérer le risque quantitativement, Une base de restitution qui permet d'exporter des rapports et de brancher des outils de restitution tels que Business Object En aval, de nombreux traitements « shadow IT » (access, etc...) et manuels sont effectués par le métier. L'amélioration des process ALM est un des chantiers prioritaires de La Banque (chantier 4) pour les 3 années à venir, d'où le lancement du projet « Plan progrès ALM » Tâches : Piloter l'étude de faisabilité, Assister la MOA pour la formalisation des besoins, Définir les solutions et la trajectoire en collaboration avec les différents acteurs, Piloter la mise en ?uvre. Environnement technique : Informatique Distribuée : Oracle ETL Talend pour le SI existant Solution technique à déterminer pour l''industrialisation des process aval (Dataiku ? outils de dataviz ?) Compétences requises : Chef de projet senior ayant une double compétence MOE et MOA Connaissance de l'ALM Capacité rédactionnelle Autonomie Excellente communication (en distanciel notamment) Compétences Techniques: Oracle - notion ETL (Talend) - notion Outils décisionnels - maitrise Compétences Fonctionnelles: Gestion de projet en environnement bancaire - maitrise Chef de projet MOE expérimenté (5 ans minimum) - Expert Autonomie - maitrise Excellente communication (en distanciel notamment) - maitrise Gestion de projet (Méthodes Agile)s) - maitrise Connaissance ALM - maitrise Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible
Mission freelance
Data Anlyst/Expert Power BI
Contexte de la mission : Dans le cadre d’un remplacement de congé paternité, notre client, acteur clé dans le domaine du service client, recherche un Consultant Data et Automatisation. La mission débute le 10 janvier avec une période de transition de 15 jours. Vous interviendrez au sein d’une équipe en charge d’améliorer l’expérience client, d’automatiser les processus, et d’optimiser le pilotage des call centers. Objectifs principaux de la mission : Améliorer l’expérience client : mise en place de pratiques Lean Management et Data-Driven Management pour optimiser les interactions clients via téléphone, e-mail et chat. Automatiser et digitaliser les processus : simplifier et fluidifier les workflows des call centers pour des économies et une meilleure productivité. Optimiser les prévisions et le pilotage : utilisation des données pour anticiper les pics d’activité dans une logique d’aplatissement des flux et de réduction des remontées clients. Missions principales : Analyse et visualisation de données : Effectuer du data crunching pour analyser les flux d'activité client et anticiper les variations liées à une activité imprévisible. Créer des visualisations de données pour faciliter la prise de décision via des outils tels que Power BI . Automatisation et optimisation : Automatiser les calculs et prévisions liés à l’activité des call centers. Contribuer à l’automatisation des prévisions sur l’activité Optimiser les processus pour améliorer le Customer Feedback Management . Gestion des anomalies et suivi : Identifier, suivre et résoudre les anomalies remontées par les outils et le CRM. Garantir la fiabilité et la qualité des données utilisées dans le CRM et les tableaux de bord. Collaboration avec l'équipe technique et métier : Utiliser le CRM PEGA (2 systèmes distincts intégrés avec le SID en temps réel). Participer à l’amélioration des intégrations entre API et outils de reporting. Faciliter la connexion entre Power BI et le SID pour améliorer le suivi et le pilotage des performances. Compétences requises : Expertise en data visualisation avec des outils comme Power BI . Bonne connaissance des CRM, en particulier PEGA et leurs intégrations API. Expérience en automatisation de processus et en gestion des flux de données. Compétences en prévisions et data crunching , notamment pour des activités irrégulières et imprévisibles. Sensibilité au Lean Management et à l’amélioration de l’expérience client. Environnement technique : CRM PEGA avec intégration temps réel via SID. Outils de visualisation et de data crunching, principalement Power BI . API pour la gestion et l’automatisation des flux. Durée de la mission : 4 mois Profil recherché : Minimum 3 ans d’expérience en gestion et visualisation de données, avec une expertise avérée en automatisation et optimisation des processus . Une bonne compréhension des environnements CRM et des call centers. Forte capacité d’adaptation face à des pics d'activité et des problématiques complexes liées à des flux imprévisibles.
Offre d'emploi
Data Engineer Dataiku
Dans un monde toujours plus digital avec des besoins de stockage et d'exploitation de volumes de données de plus en plus important, le bénéficiaire souhaite une prestation dans le cadre d'intégration de technologies Dataviz au sein du système d'information Les missions sont: L'évolution de l’offre de service ITG Data Valuation Dataiku • Analyse et Conception de l’architecture (impliquant tous les aspects : sécurité, authentification, confidentialité des données, scalabilité, cloud) • Intégration de la solution « Dataiku DSS » au Système d’information • Industrialisation et automatisation des déploiements • Expertise sur le déploiement des modules Design et Automation de la solution • Cloisonnement via implémentation de l'UIF avec LDAP et CGROUPS Linux • Expertise sur Dataiku en tant que support niveau 3 sur des incidents de production, accompagnement, conseil sur l'utilisation de ces technologies et leur modélisation • Accompagnement et du support des IT métiers et du maintien en condition opérationnel des applications. - Contexte et outillage : • Application des méthodes Agile : Scrum et Kanban : JIRA/Confluence • Outillage et pratiques DEVOPS : Industrialisation de l’intégration et du déploiement de la solution : Git/Jenkins/Artifactory/Ansible • Outillage et pratiques Cloud : Kubernetes / Docker
Offre d'emploi
Data engineer F/H
Et si vous deveniez consultant chez nous ? Mais d’abord, c’est quoi un consultant ? Evidemment, c’est un collaborateur qui accompagnera nos clients dans la réalisation de leurs projets innovants. Mais être consultant chez OTTEO, c’est aussi être un ambassadeur, qui participera à l’évolution et à la croissance de la société ! Votre 1er projet Vous rejoindrez notre client dans le retail, et travaillerez sur un produit dédié à la performance ! Ce produit permet de saisir, stocker, calculer et transmettre les données de performance et d’objectifs à tous les acteurs métiers qui pilotent l’activité. Votre mission principale sera de répondre aux besoins métiers en mettant à disposition des données de qualité , essentielles pour un pilotage efficace de l’activité. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini ! Vous intégrerez une équipe agile de 10 personnes (un proxy PO, un Scrum Master et des Data Engineers) qui pratique l’agilité en Scrum depuis un an. Vos missions : Participer à la conception des environnements de qualification, de production, d’architecture applicative et des processus de mise en production. Développer l’intégration des données, leur exposition et leur transmission en garantissant l’implémentation du produit et des solutions apportées. Construire les environnements de qualification et de production selon les pratiques de l’entreprise. Implémenter la surveillance du produit et réaliser les tests unitaires. Présentation et validation des livrables par le métier. Mettre en production et assurer le bon fonctionnement de la production en gérant les incidents/problèmes. Collaborer, c’est aussi : Documenter les solutions et réaliser une veille technologique régulière. Accompagner les équipes et favoriser l’échange de connaissances. ENVIRONNEMENT TECHNIQUE : Intégration et flux de données : Talend, Shell Base de données : BigQuery, PostgreSQL, Teradata DataViz : DataStudio Autres : Firestore, Cloud Functions GCP, Git
Offre d'emploi
Data Engineer DBT, Snowflake et Power BI
En tant que Data Engineer, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des différentes couches de notre Data Platform. Vous serez chargé de structurer les données et de développer des pipelines de données efficaces et évolutifs pour répondre aux besoins métiers et garantir la qualité des données. Modélisation des couches basses de la Data Platform : Participer à la conception des couches de données, en particulier la modélisation DataVault pour les couches RawVault et BusinessVault. Modéliser les données en étoile pour le CoreDataModel (DataMart), facilitant ainsi l'analyse métier. Conception et optimisation des pipelines de données : Mettre en place des architectures de pipelines de données génériques, en s'appuyant sur des macros existantes ou personnalisées pour les différentes couches (Raw, Staging, RV, BV, CDM). Implémenter et maintenir les pipelines de données via l'outil dbt pour garantir la fluidité et la cohérence des flux entre les différentes couches de données. Tests automatisés et contrôle qualité : Concevoir des tests automatisés afin de garantir la cohérence des données, d'éviter les régressions et de valider la qualité des livrables à chaque étape du pipeline. Refonte de la Data Visualization : Reprendre et améliorer la DataViz existante en la migrant vers Power BI Premium. Réaliser des préconisations pour le mode de lecture des données dans le DataSet (POC). Créer et mettre en place une charte graphique cohérente pour les rapports. Concevoir des maquettes et des designs de rapports cibles afin d'améliorer la lisibilité et l'impact visuel. Travail en méthode Agile (Scrum/SAFe) : Participer activement aux cérémonies Agile : Daily Standups, Refinement, Planning Poker, Sprint Planning, Sprint Review et Rétrospectives. Contribuer à l’amélioration continue de l'équipe et des processus.
Offre d'emploi
DATA ENGINEER SEMARCHY/VERTICA/SAP BO F/H - LILLE (59)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez au cœur de la chaîne de valorisation des données, depuis la compréhension des besoins métiers jusqu’à la mise en place de solutions de data visualisation et d’analyses dynamiques. A ce titre, vous serez en charge de : Analyser les besoins en lien avec les équipes MOA (Métiers) et MOE (Opérations IT) pour garantir une compréhension des processus et flux de données. Modéliser le Système d’Information Décisionnel et créer des solutions de Data Management et Data Processing, en collaboration étroite avec les Data Architects. Concevoir et développer des flux de données via Semarchy XDI (Stambia), SAP BO et Vertica. Assurer un support de niveau 3 sur les outils de data intégration et d’analyse (notamment Semarchy, SAP BO), avec une expertise pour diagnostiquer et corriger les dysfonctionnements. Rédiger la documentation technique Participer au pilotage de projets data et contribuer à l’évolution de l’architecture Data en coordination avec les autres acteurs du service. Environnement Technique : Bases de données : Vertica, MSSQL Outils d'intégration de données : Semarchy XDI (Stambia) Outils de restitution : SAP Business Object, WebFocus Analyse et data mining : Qlik Sense, SAS, SPSS Data Lab : Python, R (solutions internes) Le poste est basé à Lille (59). Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Offre d'emploi
DATA ENGINEER SEMARCHY/VERTICA/SAP BO F/H - NANTES (44)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez au cœur de la chaîne de valorisation des données, depuis la compréhension des besoins métiers jusqu’à la mise en place de solutions de data visualisation et d’analyses dynamiques. A ce titre, vous serez en charge de : Analyser les besoins en lien avec les équipes MOA (Métiers) et MOE (Opérations IT) pour garantir une compréhension des processus et flux de données. Modéliser le Système d’Information Décisionnel et créer des solutions de Data Management et Data Processing, en collaboration étroite avec les Data Architects. Concevoir et développer des flux de données via Semarchy XDI (Stambia), SAP BO et Vertica. Assurer un support de niveau 3 sur les outils de data intégration et d’analyse (notamment Semarchy, SAP BO), avec une expertise pour diagnostiquer et corriger les dysfonctionnements. Rédiger la documentation technique Participer au pilotage de projets data et contribuer à l’évolution de l’architecture Data en coordination avec les autres acteurs du service. Environnement Technique : Bases de données : Vertica, MSSQL Outils d'intégration de données : Semarchy XDI (Stambia) Outils de restitution : SAP Business Object, WebFocus Analyse et data mining : Qlik Sense, SAS, SPSS Data Lab : Python, R (solutions internes) Le poste est basé à Nantes (44). Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- consultant changer secteur activité ? de la banque PO généraliste
- situation compliquée fin de mission pression client comment gèrer ?
- création association ou auto-entrepreneur
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Résidence principale / logement de fonction
- galère à trouver une mission