Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
PMO technique
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce. Je vous envoie ce mail car pour un de nos clients situé en région parisienne nous recherchons ASAP le profil suivant : Poste: PMO Technique Power BI - Sortir des rapports Suivi des KPI Rôle transverse : réunion de suivi Facilitateur / force de proposition Connaissances techniques : avoir un passé technique : NAS / serveur OS / Gestion de l’obsolescence Sécurité Migration CFT vers un outil propre Management d'équipe Devops Sujet qui revient : suivi de KPI Transfert de flux, ordonnanceur, vulnérabilité / obsolescence PLAN D’ACTION OBSOLECENCE / Migration d'ordonnanceur / migration de flux / vulnérabilité Anglais écrit oral 2jours de télétravail par semaine / Paris 13e Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer SVP votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Consultant Power BI
En tant que Consultant Power BI , vous jouerez un rôle clé dans l'exploitation des données pour optimiser la performance de l’entreprise. Vous serez responsable de la création de tableaux de bord, de rapports analytiques, ainsi que de la gestion de bout en bout des projets BI en lien avec les différentes équipes métiers. Analyse des besoins métiers : Travailler étroitement avec les différentes équipes (production, qualité, logistique, etc.) pour comprendre leurs besoins en matière de reporting et de visualisation de données. Modélisation des données : Collecter, nettoyer et structurer les données issues de différentes sources (ERP, CRM, systèmes internes) pour une utilisation optimale dans Power BI. Création de rapports et de tableaux de bord : Développer des visualisations interactives et pertinentes pour aider à la prise de décision. Formation et support utilisateurs : Accompagner les équipes métiers dans l'utilisation des outils Power BI, former les utilisateurs finaux et répondre à leurs questions techniques. Amélioration continue : Proposer des solutions pour l'amélioration des processus et des outils BI au sein de l'entreprise, en tenant compte des dernières innovations technologiques. Documentation : Rédiger la documentation technique et fonctionnelle des solutions BI mises en place.
Mission freelance
Expert Data Azure Power BI Cubes SSAS
Vous intervenez dans le domaine Data & Référentiel et plus particulièrement dans l’équipe Data & Analytics. L’entreprise a récemment pris la décision de se lancer dans un projet stratégique de refonte du Data Lake afin de moderniser l’offre BI et ainsi répondre d’une manière flexible et agile aux besoins métiers et apporter de la valeur ajoutée autour de la donnée. En tant que senior Technical expert vous serez amené à participer au développement du Framework de gestion des flux de données, à la conception et l’architecture technique de la solution cible ainsi que son développement. Vous serez amené à proposer des solutions innovantes et à participer activement à la transformation de l'entreprise durant toutes les phases de construction de ce nouveau Data Lake Bonne maîtrise de DAX (Data Analysis Expressions) et M (Power Query Formula Language). Solides compétences en SQL pour interroger et manipuler des bases de données relationnelles. Connaissance approfondie des principes de modélisation de données (étoile, flocon de neige, etc.). Capacité à travailler avec des volumes de données importants et à optimiser les performances des modèles de données. Compétences analytiques avancées avec une capacité à interpréter les données et à proposer des recommandations de modélisation. Expérience dans la création et configuration des pipelines de données avec Azure Data Factory pour automatiser les flux de données entre différentes sources. Expérience dans le développement des API REST est appréciable Expérience dans l’automatisation des tests Expérience dans un environnement agile (SCRUM) Maitrise des process Devops Expérience en finance de marché et/ou gestion d’actifs souhaitable
Mission freelance
Data Engineer
La mission consiste à : - Participer aux rituels agiles - Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprise - Développer les solutions data - Valider la qualité des développements - Améliorer et optimiser le patrimoine actuel - Maintenir les solutions existantes (RUN) - Contribuer à la construction du nouveau socle et des services - Accompagner les métiers sur les bonnes pratiques de l'exploitation de la Data - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Première expérience en Data Engineering indispensable - Expertise SQL, ETL, CI/CD, GIT, Terraform, Kafka, GCP ... - Connaissances sur Power BI, Looker ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +
Mission freelance
Data analyst / Développeur BI Tableau, Power BI et Dataiku
En tant que Data analyst / développeur BI sur les outils Tableau, Power BI et DataIKU au sein du département Gouvernance de la donnée de la DSI, Vous serez amené à intervenir sur les projets suivants : Tableau de bord de pilotage de l’activité des différentes directions Analyse de la qualité de la donnée et construction de sources de données Demandes ponctuelles de rapports décisionnels Vos missions principales seront : Rédaction des spécifications techniques de développement des rapports Développement, recette et mise en production des rapports et de analyses de données Contribution à l’administration des plateformes Tableau, PowerBI et DataIKU. Livrables : Documentation autour des solutions mises en œuvre par projet métier, Documentation autour des sources de données utilisées, Présentation de l’activité métier sous forme d’indicateurs de performance et/ou de tableaux de bord
Offre d'emploi
Data Analyst (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst (H/F) 🚀 💡 Votre mission est pour un client reconnu dans le secteur de l’énergie, comptabilisant plus d’un million de clients, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. ⚡️ 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développer des modèles de données et des tableaux de bord Power BI intuitifs ; 🔸 Gérer la collecte, le nettoyage, le traitement et la modélisation des données ; 🔸 Assurer la qualité et l'intégrité des analyses et dashboards ; 🔸 Optimiser les processus décisionnels.
Mission freelance
Data Product Owner
📣 Opportunité Freelance - Data Product Owner📣 🎯 Data Product Owner -> 2 à 5 ans d'expérience 🗓 Démarrage ASAP 📌 Paris : Rythme Hybride Mon client est à la recherche d'un profil en charge de la Data Acquisition et Data Quality. 💥 Didomi / Tempo World / Piano 💥 Basic knowledge : GDPR 💥 Connaissance des plateformes de management : Didomi 💥 Design & Implementation de Data Model 💥 Expérience avec les Data Ingénieurs 💥 Project Management 💥 Documentation / Reporting #data #productowner #didomi #tempoworld #piano #gdpr
Offre d'emploi
Data Analyste - F/H - Lille
Au sein de la direction Retail Data International, nous recherchons un Analytics Engineer afin de renforcer la palette de compétences présentes au sein de nos équipes composées de Product owner, Data Analyst & Data Engineer. Le scope métier couvre l'ensemble des activités du retail (Marketing / Finance / Produit etc). Missions : Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. Assure la maintenance de ce qui a été produit. Réalise des recettes techniques et fonctionnelles. Veille au respect des normes et des pratiques de référence de la Data. Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données Garantit l’alignement et la cohérence des solutions data Travaille en étroite collaboration aussi bien avec les équipes techniques que métier. Livrable : Script SQL Dashboard PV de recette
Mission freelance
Développeur Power BI (H/F) – Lyon
Nous recherchons un Développeur Power BI expérimenté pour rejoindre notre client, basé à Lyon, et l'accompagner dans l’optimisation et le développement de solutions de visualisation de données. Le candidat aura un rôle clé dans la transformation des données brutes en informations exploitables pour faciliter la prise de décision stratégique. Vous travaillerez en étroite collaboration avec les équipes métiers pour comprendre leurs besoins et leur fournir des outils de reporting adaptés et performants. Vous serez responsable de l’ensemble du cycle de développement Power BI, depuis la collecte des exigences jusqu’à la conception et la mise en production des tableaux de bord interactifs.
Mission freelance
Expert Kubernetes / OPENSHIFT - mission long terme Projets IAC et conteneurs
PROPULSE IT recherche pour un de ses clients grands comptes un Expert Kubernetes et mise en place de chaines CI/CD, dans le cadre de projets de conteneurisation OnPremise et IAC. La mission sur le périmètre KUBERNETES comporte deux volets principaux : • Accompagnement à l'installation et configuration des clusters • Aide à l'administration et maintenance des clusters La chaîne CI/CD sera composée des éléments ci-dessous : • Gitlab (repository + pipelines + runners) • Hashicorp Vault • Artifactory • Kaniko • Trivy • Grype • Syft • Checkov • Kubernetes • ArgoCd Description de la mission : - Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) - Administration/ Maintien en condition opérationnel des clusters Openshift - Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Participer à l'alimentation de la roadmap technique et à l'élaboration des normes d'exploitation.
Mission freelance
Senior Data Ingénieur - Connaissances Risques indispensables
Pour le compte d'un de nos clients bancaire, le consultant interviendra dans un contexte de projet Socle Data pour améliorer la gestion des données et leur exploitation dans un environnement de plus en plus digitalisé. La mission consiste à intégrer une équipe technique spécialisée dans la gestion des risques et l'ingénierie des données. Le but est de renforcer l’infrastructure de gestion des données du groupe pour garantir une utilisation optimale des outils analytiques et faciliter la prise de décision informée. Le projet vise à la fois l'ingestion, l'agrégation et l'exposition de données provenant de sources multiples afin de produire des rapports métier sur la surveillance des risques. Ce projet s'inscrit dans une logique de transformation continue, avec des livrables sur plusieurs phases jusqu'en mai 2025. Conception et développement : Participer à la conception de la solution technique pour ingérer, agréger et analyser des données à grande échelle. Développer des flux ETL efficaces pour intégrer les données provenant de plusieurs sources internes et externes à BPCE. Collaborer avec les architectes de données pour définir la meilleure approche pour la gestion des volumes de données. Automatisation des processus : Utiliser DBT (Data Build Tool) pour automatiser le traitement des données et permettre une mise à jour en temps réel des rapports de risques. Veiller à l’intégration continue des données dans les systèmes existants en utilisant des pratiques DevOps . Analyse et reporting : Produire des rapports automatisés via PowerBI , permettant une visualisation des données pertinente pour les équipes métiers (notamment les équipes de risques et finance). Collaborer avec les utilisateurs finaux pour comprendre leurs besoins en matière de reporting et ajuster les livrables en conséquence. Optimisation de la performance : Travailler sur l’optimisation des performances des flux de données pour garantir la rapidité et l’efficacité des traitements. Implémenter des solutions de stockage avec Singlestore afin de gérer des volumes importants de données tout en maintenant un haut niveau de performance. Collaboration inter-équipe : Participer aux réunions avec les équipes métier et techniques pour bien comprendre les besoins et s’assurer que les solutions répondent aux attentes. Travailler en étroite collaboration avec les autres développeurs et data engineers pour assurer la fluidité des développements et des mises en production. Documentation et formation : Rédiger des documentations techniques complètes pour les solutions développées. Participer à la formation des équipes internes sur les nouveaux outils et processus mis en place.
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Offre d'emploi
Architecte Technique
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les principales missions confiées en lien avec le reste de l'équipe en interne, l'éditeur, les équipes de production, les utilisateurs (architectes.. ) seront donc : - Contribution à l'administration technique et fonctionnelle et au MCO : extensions du métamodèle, ),support utilisateur... - Participation à la montée de version vers HOPEX 6.0 Aquila (contribution à la recette et POC sur nouveaux usages de l'outil...) - Réalisation de cartographie applicatives sous MEGA - Contribution à la mise en place et au suivi des KPIS qualité et complétude des données (reporting..) - Maj/Evolution des process d'alimentation de l'outil en lien avec le référentiel d'application, la CMDB du Groupe et les autres outils groupes - Spécification et mise en oeuvre d' évolutions de l'outil et des process pour répondre à des nouveaux besoins (interfaces avec d'autres outils, montée de version du progiciel, impacts TRM et DORA...) - Participation à l'animation de la communauté des utilisateurs 🤝 Les livrables attendus : Administration technique et fonctionnelle et au MCO Cartographie applicatives sous MEGA KPIS Mise en œuvre et évolutions de l'outil et des process
Offre d'emploi
Consultant Qlikview Junior / Confirmé
Nous recherchons un(e) Consultant Junior Qlikview pour rejoindre notre équipe au sein d'un client reconnu pour ses projets Data. Entretien : semaine du 23/09 Démarrage mission : courant Octobre Lieu : Paris TT : 50 % L'objectif général de la mission est de participer à la maintenance évolutive des reporting Qlikview et à la migration des applications vers Power BI. Missions : Maintenance évolutive des reporting Qlik View Participation aux études et à la migration des applications de Qlik vers Power BI Travail en mode agile avec des livrables par sprints de 2 semaines Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation
Mission freelance
Data analyste
Analyse et compréhension des données o Exploration des données pour identifier et documenter leurs caractéristiques (type de données, structure des données, schémas récurrents, valeurs, problèmes,…). o Compréhension des données en lien avec les besoins métier et les processus de l'entreprise. - Evaluation de la qualité des données intra Dataset et cross Dataset (Désynchronisation) o Evaluation sur base de règles génériques ou de règles de qualité métier o Identification et inventaire des anomalies o Proposition et mise en pratique de nouvelles règles de qualité et de règles de nettoyage de données. o Proposition d’actions préventives et correctives de gestion de la qualité des données - Identification ou recommandation de clés métier uniques (Business key) - Coordination et synchronisation avec les acteurs métier et IT o Identification et collecte des set de données o Compréhension des données, de leurs problématique et enjeux avec le métier o Communication des contrôles effectués ainsi que des résultats - Documentation et création de divers rapports o Visualisation et documentation des analyses et résultats o Rapports de profilage (complétude, Validité, unicité, cohérence, véracité et actualisation), Rapports opérationnels (Désynchronisations, rapports reçus de la part du métier), Rapports d’input aux KPIs et Dashboard DQ - Outils et méthodes o Analyse et Exploration avec les outils fournis par l'entreprise (Atacama DQ Analyzer, Power BI, SQL, Python) o Proposition de nouveaux outils, méthodes et processus pour le profilage des données o Automatisation des processus de profilage et de reporting de qualité de données.
Offre d'emploi
Data Engineer H/F
Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. HardSkills DataEngineering obligatoires: Maitrise des process d’ingestion en batch et streaming quel que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, …) et quel que soit le Cloud provider en entrée(AWS/AZURE). • Expertise BDD Snowflake avec minimum 3 ans d’expérience(SQL, Rôle, Virtual Warehouse, Datamodelling) • Parfaite maitrise des modèles de données. Les consultants seront référent technico fonctionnel sur plusieurs domaines métier(2 à 3 domaines suivant la complexité). • Très bonne maitrise des langages Javascript(impératif), SQL, T-SQL, PowerShell, Python. • Création d’app, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy) • Optimisation de requête et performance, factorisation du code, respect de l’état de l’art • Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality. • Développement de cube tabulaire PBI (M et DAX) • Support Niveau 3 sur le périmètre des socles applicatifs et reporting associés • Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops • Mise en place des bonnes pratiques (technique, fonctionnel, corpus documentaire) • Animation de communauté Développeur
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes