Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Consultant(e) Technico-Fonctionnel(le) Powerplatform F/H
Dans le cadre de notre développement, nous recrutons pour l'un de nos clients un(e) Consultant(e) Technico-Fonctionnel(le) F/H. Vous jouez un rôle clé en combinant des compétences techniques et fonctionnelles pour aider l'entreprise à mettre en œuvre, optimiser et maintenir des systèmes informatiques. Vous aurez pour principales missions : - Maintenance corrective et évolutive - Prise en compte des incidents - Supports aux équipes - Réalisation et traitement des US - Réalisation de projets powerplateform - Animation des ateliers - Paramétrage de la solution - Formation des utilisateurs et support aux clients - Gestion des livraisons - Développement de Flux Power Automate - Mise en place des tableaux de bord sous Power BI
Mission freelance
Consultant QlikView Senior
Bonjour, Pour le compte de notre client, nous recherchons un consultant QlikView senior. La mission intervient dans le cadre du maintien en conditions opérationnelles (MCO) puis de la migration d’un projet de reporting BI, actuellement sous Qlik View et devant migrer à terme vers Power BI. Le développeur BI Qlik participera à la maintenance évolutive des reporting Qlik View. Par la suite (horizon 1 an), il participera aux études et à la migration de ces applications de Qlik vers Power BI. S’agissant d’un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l’équipe projet, il n’y a pas de responsabilité de production individuelle. Les sprints projet s’échelonnent généralement sur 2 semaines. Les livrables rattachés à chaque sprint sont repartis comme il suit. Livrables n°X : Sprint n°X • Lot 1 : développement des US et tests associés ; • Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation ; La mission peut démarrer dès que possible, pour une durée de 2 ans.
Mission freelance
Expert Data Azure Power BI Cubes SSAS
Vous intervenez dans le domaine Data & Référentiel et plus particulièrement dans l’équipe Data & Analytics. L’entreprise a récemment pris la décision de se lancer dans un projet stratégique de refonte du Data Lake afin de moderniser l’offre BI et ainsi répondre d’une manière flexible et agile aux besoins métiers et apporter de la valeur ajoutée autour de la donnée. En tant que senior Technical expert vous serez amené à participer au développement du Framework de gestion des flux de données, à la conception et l’architecture technique de la solution cible ainsi que son développement. Vous serez amené à proposer des solutions innovantes et à participer activement à la transformation de l'entreprise durant toutes les phases de construction de ce nouveau Data Lake Bonne maîtrise de DAX (Data Analysis Expressions) et M (Power Query Formula Language). Solides compétences en SQL pour interroger et manipuler des bases de données relationnelles. Connaissance approfondie des principes de modélisation de données (étoile, flocon de neige, etc.). Capacité à travailler avec des volumes de données importants et à optimiser les performances des modèles de données. Compétences analytiques avancées avec une capacité à interpréter les données et à proposer des recommandations de modélisation. Expérience dans la création et configuration des pipelines de données avec Azure Data Factory pour automatiser les flux de données entre différentes sources. Expérience dans le développement des API REST est appréciable Expérience dans l’automatisation des tests Expérience dans un environnement agile (SCRUM) Maitrise des process Devops Expérience en finance de marché et/ou gestion d’actifs souhaitable
Mission freelance
Data Engineer
La mission consiste à : - Participer aux rituels agiles - Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprise - Développer les solutions data - Valider la qualité des développements - Améliorer et optimiser le patrimoine actuel - Maintenir les solutions existantes (RUN) - Contribuer à la construction du nouveau socle et des services - Accompagner les métiers sur les bonnes pratiques de l'exploitation de la Data - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Première expérience en Data Engineering indispensable - Expertise SQL, ETL, CI/CD, GIT, Terraform, Kafka, GCP ... - Connaissances sur Power BI, Looker ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +
Offre d'emploi
Data Analyst (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst (H/F) 🚀 💡 Votre mission est pour un client reconnu dans le secteur de l’énergie, comptabilisant plus d’un million de clients, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. ⚡️ 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développer des modèles de données et des tableaux de bord Power BI intuitifs ; 🔸 Gérer la collecte, le nettoyage, le traitement et la modélisation des données ; 🔸 Assurer la qualité et l'intégrité des analyses et dashboards ; 🔸 Optimiser les processus décisionnels.
Mission freelance
Data Product Owner
📣 Opportunité Freelance - Data Product Owner📣 🎯 Data Product Owner -> 2 à 5 ans d'expérience 🗓 Démarrage ASAP 📌 Paris : Rythme Hybride Mon client est à la recherche d'un profil en charge de la Data Acquisition et Data Quality. 💥 Didomi / Tempo World / Piano 💥 Basic knowledge : GDPR 💥 Connaissance des plateformes de management : Didomi 💥 Design & Implementation de Data Model 💥 Expérience avec les Data Ingénieurs 💥 Project Management 💥 Documentation / Reporting #data #productowner #didomi #tempoworld #piano #gdpr
Offre d'emploi
Architecte Technique
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les principales missions confiées en lien avec le reste de l'équipe en interne, l'éditeur, les équipes de production, les utilisateurs (architectes.. ) seront donc : - Contribution à l'administration technique et fonctionnelle et au MCO : extensions du métamodèle, ),support utilisateur... - Participation à la montée de version vers HOPEX 6.0 Aquila (contribution à la recette et POC sur nouveaux usages de l'outil...) - Réalisation de cartographie applicatives sous MEGA - Contribution à la mise en place et au suivi des KPIS qualité et complétude des données (reporting..) - Maj/Evolution des process d'alimentation de l'outil en lien avec le référentiel d'application, la CMDB du Groupe et les autres outils groupes - Spécification et mise en oeuvre d' évolutions de l'outil et des process pour répondre à des nouveaux besoins (interfaces avec d'autres outils, montée de version du progiciel, impacts TRM et DORA...) - Participation à l'animation de la communauté des utilisateurs 🤝 Les livrables attendus : Administration technique et fonctionnelle et au MCO Cartographie applicatives sous MEGA KPIS Mise en œuvre et évolutions de l'outil et des process
Offre d'emploi
SAP BO & Data Stage
Participe aux réunions de préparation des chantiers de prise en compte des demandes utilisateurs - Participe à l'analyse des besoins et à la rédaction des spécifications fonctionnelles - Participe à la sélection de solutions adéquates - Assiste dans la rédaction les spécifications techniques - Participe à la mise en œuvre de la solution - Participe au développement des jobs Datastage et assure les tests unitaires - Participe au développement et à la maintenance des univers et des rapports BO - Participe à la définition du plan de recette - Participe aux phases de tests d'intégration et de recette fonctionnelle - Participe à la livraison des projets et en garantit la conformité - Participe au suivi de production d'un ou plusieurs projets - Maîtrise les questions fonctionnelles d'un ou plusieurs domaines de compétence métiers - Fonctionnement agile (fonctionnement itératif par cycle et fortes interactions avec le métier commanditaire)
Mission freelance
Senior Data Ingénieur - Connaissances Risques indispensables
Pour le compte d'un de nos clients bancaire, le consultant interviendra dans un contexte de projet Socle Data pour améliorer la gestion des données et leur exploitation dans un environnement de plus en plus digitalisé. La mission consiste à intégrer une équipe technique spécialisée dans la gestion des risques et l'ingénierie des données. Le but est de renforcer l’infrastructure de gestion des données du groupe pour garantir une utilisation optimale des outils analytiques et faciliter la prise de décision informée. Le projet vise à la fois l'ingestion, l'agrégation et l'exposition de données provenant de sources multiples afin de produire des rapports métier sur la surveillance des risques. Ce projet s'inscrit dans une logique de transformation continue, avec des livrables sur plusieurs phases jusqu'en mai 2025. Conception et développement : Participer à la conception de la solution technique pour ingérer, agréger et analyser des données à grande échelle. Développer des flux ETL efficaces pour intégrer les données provenant de plusieurs sources internes et externes à BPCE. Collaborer avec les architectes de données pour définir la meilleure approche pour la gestion des volumes de données. Automatisation des processus : Utiliser DBT (Data Build Tool) pour automatiser le traitement des données et permettre une mise à jour en temps réel des rapports de risques. Veiller à l’intégration continue des données dans les systèmes existants en utilisant des pratiques DevOps . Analyse et reporting : Produire des rapports automatisés via PowerBI , permettant une visualisation des données pertinente pour les équipes métiers (notamment les équipes de risques et finance). Collaborer avec les utilisateurs finaux pour comprendre leurs besoins en matière de reporting et ajuster les livrables en conséquence. Optimisation de la performance : Travailler sur l’optimisation des performances des flux de données pour garantir la rapidité et l’efficacité des traitements. Implémenter des solutions de stockage avec Singlestore afin de gérer des volumes importants de données tout en maintenant un haut niveau de performance. Collaboration inter-équipe : Participer aux réunions avec les équipes métier et techniques pour bien comprendre les besoins et s’assurer que les solutions répondent aux attentes. Travailler en étroite collaboration avec les autres développeurs et data engineers pour assurer la fluidité des développements et des mises en production. Documentation et formation : Rédiger des documentations techniques complètes pour les solutions développées. Participer à la formation des équipes internes sur les nouveaux outils et processus mis en place.
Offre d'emploi
Consultant Qlikview Junior / Confirmé
Nous recherchons un(e) Consultant Junior Qlikview pour rejoindre notre équipe au sein d'un client reconnu pour ses projets Data. Entretien : semaine du 23/09 Démarrage mission : courant Octobre Lieu : Paris TT : 50 % L'objectif général de la mission est de participer à la maintenance évolutive des reporting Qlikview et à la migration des applications vers Power BI. Missions : Maintenance évolutive des reporting Qlik View Participation aux études et à la migration des applications de Qlik vers Power BI Travail en mode agile avec des livrables par sprints de 2 semaines Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation
Mission freelance
Expert SAP Integration / AIF (Application Interface Framework) (H/F) - 92
Nous recherchons un Expert SAP Integration / AIF (Application Interface Framework). Le projet se déroule dans un contexte international, au sein d'une grande entreprise, avec des enjeux techniques majeurs liés à l'intégration SAP. Concevoir et développer des interfaces SAP en utilisant SAP AIF, en réponse aux besoins métiers. Gérer la configuration du framework SAP AIF, incluant la surveillance des messages, la gestion des erreurs, et l'optimisation des performances. Collaborer avec les équipes fonctionnelles pour comprendre les exigences métiers et les traduire en solutions d'intégration. Supporter et maintenir les interfaces AIF existantes, résoudre les incidents, déboguer et mettre à jour les configurations. Proposer des solutions de monitoring et de supervision accessibles aux utilisateurs clés. Former et transférer les compétences aux utilisateurs et équipes internes sur les bonnes pratiques SAP AIF. Documenter techniquement les développements réalisés et les processus mis en place.
Mission freelance
EXPERT POWER PLATFORM
Pour cette mission, l'expertise et les compétences attendues sont : Capacité à analyser les besoins des métiers et à traduire ces besoins en solutions techniques. Capacité à suivre et livrer les projets dans les délais impartis. Expérience préalable dans le développement et la mise en œuvre de solutions Power Platform. Intégrer l’équipe Office 365 N3 et travailler en collaboration avec tous les membres Fournir un support technique et fonctionnels aux utilisateurs et résoudre les incidents N3 Connaissances en JSon, Dataverse serait un plus Connaissances sur le déploiement de solution dans Azure serait un plus Connaissances sur le fonctionnement et la mise en place de solutions portées par AI Builder serait un gros plus Outils bureautique : intermédiaire ou expert (faire un CR, une présentation,…) Esprit d'initiative et capacité à travailler de manière autonome. Aptitude à travailler en équipe et à gérer les parties prenantes. Anglais : niveau intermédiaire à minima
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Mission freelance
Data analyste
Analyse et compréhension des données o Exploration des données pour identifier et documenter leurs caractéristiques (type de données, structure des données, schémas récurrents, valeurs, problèmes,…). o Compréhension des données en lien avec les besoins métier et les processus de l'entreprise. - Evaluation de la qualité des données intra Dataset et cross Dataset (Désynchronisation) o Evaluation sur base de règles génériques ou de règles de qualité métier o Identification et inventaire des anomalies o Proposition et mise en pratique de nouvelles règles de qualité et de règles de nettoyage de données. o Proposition d’actions préventives et correctives de gestion de la qualité des données - Identification ou recommandation de clés métier uniques (Business key) - Coordination et synchronisation avec les acteurs métier et IT o Identification et collecte des set de données o Compréhension des données, de leurs problématique et enjeux avec le métier o Communication des contrôles effectués ainsi que des résultats - Documentation et création de divers rapports o Visualisation et documentation des analyses et résultats o Rapports de profilage (complétude, Validité, unicité, cohérence, véracité et actualisation), Rapports opérationnels (Désynchronisations, rapports reçus de la part du métier), Rapports d’input aux KPIs et Dashboard DQ - Outils et méthodes o Analyse et Exploration avec les outils fournis par l'entreprise (Atacama DQ Analyzer, Power BI, SQL, Python) o Proposition de nouveaux outils, méthodes et processus pour le profilage des données o Automatisation des processus de profilage et de reporting de qualité de données.
Offre d'emploi
Référent Power BI
Expertise technique : Assurer la maîtrise technique de la plateforme Power BI. Être le référent technique pour l'ensemble des utilisateurs. Développer et maintenir des rapports, des tableaux de bord et des visualisations de haute qualité. Optimiser les performances et la scalabilité des modèles de données. Accompagnement des utilisateurs : Former et accompagner les utilisateurs sur les différentes fonctionnalités de Power BI. Recueillir et analyser les besoins des utilisateurs pour adapter les solutions. Assurer un support de niveau 2 et 3. Gouvernance des données : Contribuer à la définition et à la mise en œuvre d'une gouvernance des données cohérente. Garantir la qualité, la fiabilité et la sécurité des données utilisées dans Power BI. Innovation : Être force de proposition pour l'évolution de la plateforme Power BI et l'intégration de nouvelles fonctionnalités. Suivre les évolutions technologiques et les meilleures pratiques en matière de BI.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes