Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Devops AWS, Dataiku, Gitlab, Terraform, python
Organisation : Le consultant rejoindra notre client dans l'équipe DevOps & Technologies au sein de la direction DATA du groupe (France et international). Cette équipe gère la plateforme Data, couvrant l'architecture, l'administration, DevOps, FinOps, et accompagne les équipes projets en assurant l'application des bonnes pratiques. L’écosystème technique inclut : AWS, Dataiku, GitLab CI/CD, Terraform, Ansible, IA, Snowflake, Braze, Spark, Python, Scala, etc. Nous recherchons un consultant DevOps expert en Dataiku, GitLab CI/CD, Terraform, AWS et Python. Il participera au développement avancé de l’Infrastructure as Code (IaC) et à l'amélioration continue de la plateforme data.
Offre d'emploi
Consultant BI/DATA - Qlik Sense - Power BI
Dans le cadre de projets pour la réalisation de tableaux de bord avec de forts enjeux opérationnels et managériaux, le pôle DATA, au sein de la Direction des Usages Numériques, cherche à renforcer ses équipes pour absorber le surplus de charge. OBJECTIFS ET TYPE DE LA PRESTATION : La candidate ou le candidat intégrera une équipe variée en termes de profils DATA (BI, Data Engineering, IA). Entretenir le lien avec les membres de l’équipe et travailler de manière collaborative, facilitera l’intégration. L’objectif principal sera d’intervenir en amont des réalisations, pour structurer les demandes de plus en plus croissantes de production de tableaux de bord, pour le pilotage de l'activité des services et des opérationnels, ainsi que les reporting Groupe. ➔ Faire preuve d’une totale autonomie dans la gestion de ses tâches. ➔ Analyser et aider à formuler le besoin métier ➔ Aider à la rédaction des cahiers des charges et expressions des besoins ➔ Rédiger les spécifications fonctionnelles détaillées ➔ Contribuer à l'estimation de la charge et des délais ➔ Participer à la priorisation et à la planification des sujets, suivant le plan de charge de l'équipe de réalisation ➔ Participer, voire animer, les réunions de cadrage. Préambule à la réalisation ➔ Challenger les besoins exprimés et être force de proposition de solutions alternatives, avec arguments et/ou démonstrations à l’appui. Durant les phases de réalisations, la consultante ou le consultant devra : ➔ Faire le lien entre les métiers et les équipes de réalisation ➔ Canaliser les demandes de changements durant la phase projet/réalisation (se prémunir des dérives) ➔ Piloter les recettes métier et être garant de la production des PV de recette ➔ Assurer une continuité de service en termes de réception des demandes d'évolutions ➔ Mettre en oeuvre et tenir à jour le catalogue de services ➔ Communiquer, via les canaux internes du groupe, les principales activités du domaine DATA ainsi que les réalisations les plus marquantes LIVRABLES ATTENDUS Tenir à jour notre outil de suivi des projets sous Notion. Rédiger les expressions des besoins ainsi que les spécifications fonctionnelles détaillées. Production des PV de recette. Aider à la mise à niveau de la documentation nécessaire pour le déploiement applicatif, avec notre infogérant (DAT, DEX, Feuille de route de déploiement, …)
Mission freelance
Consultant DevOps & Automatisation
Nous recherchons un Administrateur CI/CD et DevOps talentueux pour rejoindre notre équipe à Montpellier. Si vous êtes passionné par l'administration des outils CI/CD, la gestion des systèmes Linux et la containerisation, cette opportunité est faite pour vous ! Rejoignez-nous pour des projets innovants dans un environnement dynamique et collaboratif. Compétences métiers : Très bonnes connaissances sur l'administration de l’outillage CI/CD (GitLab, Jenkins, AWX/AAPv2) Connaissance de la suite ELK (production de dashboards) Très bonnes connaissances en systèmes Linux Aisance en développement Shell et Ansible Connaissance de Docker et de la containerisation (Kubernetes, OpenShift) Le code Python et Go serait un plus
Mission freelance
DEV POWERPLATEFORM
Responsabilités principales : Développement de solutions : Concevoir et développer des applications personnalisées et des flux de travail automatisés en utilisant Microsoft Power Apps, Power Automate et d’autres outils de la Power Platform. Automatisation des processus métier : Collaborer avec les équipes métier pour identifier les opportunités d’automatisation, créer des flux de travail et améliorer les processus existants en utilisant Power Automate et Power Apps. Intégration de données : Construire des intégrations entre les solutions Power Platform et diverses sources de données telles que Microsoft 365, SharePoint, SQL Server, Dynamics 365 et des applications tierces. Rapports Power BI : Concevoir et développer des tableaux de bord et des rapports intuitifs en utilisant Power BI pour aider les utilisateurs métier à prendre des décisions basées sur les données. Support et maintenance : Fournir un support continu, résoudre les problèmes et optimiser les solutions Power Platform existantes pour garantir qu’elles continuent de répondre aux besoins métier. Gouvernance et conformité : Mettre en œuvre les meilleures pratiques en matière de gouvernance, de sécurité et de gestion des données au sein de l’environnement Power Platform, en veillant à la conformité avec les politiques et normes organisationnelles. Collaboration : Travailler en étroite collaboration avec les parties prenantes métier, les chefs de projet et les équipes informatiques pour recueillir les exigences, livrer des solutions et assurer un déploiement réussi. Formation et documentation : Créer des guides d’utilisation et fournir une formation aux utilisateurs métier sur l’utilisation efficace des solutions Power Platform
Offre d'emploi
Dataviz - Tableau - Spark
AGH Consulting recherche pour un de ses clients un Data Analyste : La mission vise à : • Conception : Contribution aux ateliers de conception de nos solutions, conseils en vue de la création de la Data Visualisation • Collecte et extraction des données : Collecte et rassemblement des données pertinentes à partir de diverses sources (Datalake Groupe, Référentiels Groupes, autre sources, etc...) • Nettoyage et préparation des données : Gestion des données pour éliminer les erreurs et les redondances, et préparation pour une analyse précise. • Visualisation des données (activité principale) : Création des visualisations claires et informatives pour répondre aux besoins ; Outil utilisé dans notre environnement : Tableau Software (Desktop, Prep) ; (PowerBI en étude) • Traitement et maintenance des dashboards : implémentation et maintien en condition opérationnelle de champs calculés complexes et dashboards associés • Documentation : information sur les avancées en matière d’outils et de techniques d’analyse de données pour améliorer continuellement les méthodes utilisées. Contexte anglophone.
Mission freelance
Chef de Projet Data Technico fonctionnel
Contexte : Dans le cadre de la mise en place d'un data warehouse (sur les domaines finance, RH, relation client, ...), nous recherchons un chef de projet technico fonctionnel expérimenté. MISSIONS : Pilotage du projet et coordination avec les parties prenantes, reporting Animation d’ateliers sur les besoins avec les métiers Animation d’ateliers avec les responsables applicatifs Pilotage opérationnel de l'équipe Modélisation et spécification fonctionnelles et techniques Capacité à challenger les développements Technologies utilisées : PostgreSQL pour la base de données de l’entrepôt Talend pour l’extraction, la transformation et le stockage des données dans la base Microsoft Power BI pour l’exploitation et la restitution des données de l’entrepôt
Offre d'emploi
Tech Lead Power BI
En tant que Tech Lead Power BI , vous serez responsable de la conception et de la mise en œuvre des solutions BI pour répondre aux besoins métiers. Vous assurerez également la gestion d’une équipe de développeurs Power BI et de projets complexes, tout en garantissant la cohérence et la performance des solutions déployées. Leadership technique : Superviser l’équipe Power BI et garantir les meilleures pratiques de développement. Architectures BI : Concevoir l'architecture des solutions BI en lien avec les besoins métiers, en veillant à l’optimisation des performances. Pilotage de projets : Gérer l’ensemble des projets BI, de la phase de conception à la mise en production. Innovation : Promouvoir l'usage des dernières fonctionnalités Power BI et suivre les évolutions technologiques. Qualité et gouvernance : Définir et mettre en œuvre des politiques de gouvernance des données et veiller à la qualité des rapports. Collaboration : Travailler en étroite collaboration avec les équipes métiers et les autres départements IT (Data Engineering, Data Science).
Mission freelance
Business Analyst - GM / EMTN
Notre client, Banque de Financement et d'investissement recherche un Business Analyst - GM / EMTN (H/F) dans le cadre d'une longue mission. Vous interviendrez au sein de la direction IT GBCR, dans l'équipe Client Data, pour des projets de business intelligence autour de l'Indixis Lake commercial de la CIB, en lien avec la rentabilité commerciale et la performance des équipes de vente. - Recueillir les besoins métier sur la maintenance et les projets. - Rédiger les spécifications et réaliser les phases afférentes. - Maintenir le backlog et reporter sur l'avancement. - Prioriser les sujets et coordonner les acteurs impliqués. - Assurer la conduite du changement auprès des utilisateurs. - Analyser le support niveau 2 (IHM, dashboards BI, bases de données). - Contribuer à la méthode Agile (daily meetings, poker planning, rétrospectives). - Travailler sur le projet EMTN pour la refonte du système de booking et ses impacts sur le système Indixis. livrables : Spécifications fonctionnelles, reporting d'avancement, et solutions BI.
Offre d'emploi
Consultant Power BI
En tant que Consultant Power BI , vous jouerez un rôle clé dans l'exploitation des données pour optimiser la performance de l’entreprise. Vous serez responsable de la création de tableaux de bord, de rapports analytiques, ainsi que de la gestion de bout en bout des projets BI en lien avec les différentes équipes métiers. Analyse des besoins métiers : Travailler étroitement avec les différentes équipes (production, qualité, logistique, etc.) pour comprendre leurs besoins en matière de reporting et de visualisation de données. Modélisation des données : Collecter, nettoyer et structurer les données issues de différentes sources (ERP, CRM, systèmes internes) pour une utilisation optimale dans Power BI. Création de rapports et de tableaux de bord : Développer des visualisations interactives et pertinentes pour aider à la prise de décision. Formation et support utilisateurs : Accompagner les équipes métiers dans l'utilisation des outils Power BI, former les utilisateurs finaux et répondre à leurs questions techniques. Amélioration continue : Proposer des solutions pour l'amélioration des processus et des outils BI au sein de l'entreprise, en tenant compte des dernières innovations technologiques. Documentation : Rédiger la documentation technique et fonctionnelle des solutions BI mises en place.
Offre d'emploi
Data Analyst (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst (H/F) 🚀 💡 Votre mission est pour un client reconnu dans le secteur de l’énergie, comptabilisant plus d’un million de clients, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. ⚡️ 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développer des modèles de données et des tableaux de bord Power BI intuitifs ; 🔸 Gérer la collecte, le nettoyage, le traitement et la modélisation des données ; 🔸 Assurer la qualité et l'intégrité des analyses et dashboards ; 🔸 Optimiser les processus décisionnels.
Mission freelance
Data Product Owner
📣 Opportunité Freelance - Data Product Owner📣 🎯 Data Product Owner -> 2 à 5 ans d'expérience 🗓 Démarrage ASAP 📌 Paris : Rythme Hybride Mon client est à la recherche d'un profil en charge de la Data Acquisition et Data Quality. 💥 Didomi / Tempo World / Piano 💥 Basic knowledge : GDPR 💥 Connaissance des plateformes de management : Didomi 💥 Design & Implementation de Data Model 💥 Expérience avec les Data Ingénieurs 💥 Project Management 💥 Documentation / Reporting #data #productowner #didomi #tempoworld #piano #gdpr
Offre d'emploi
Data Analyste - F/H - Lille
Au sein de la direction Retail Data International, nous recherchons un Analytics Engineer afin de renforcer la palette de compétences présentes au sein de nos équipes composées de Product owner, Data Analyst & Data Engineer. Le scope métier couvre l'ensemble des activités du retail (Marketing / Finance / Produit etc). Missions : Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. Assure la maintenance de ce qui a été produit. Réalise des recettes techniques et fonctionnelles. Veille au respect des normes et des pratiques de référence de la Data. Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données Garantit l’alignement et la cohérence des solutions data Travaille en étroite collaboration aussi bien avec les équipes techniques que métier. Livrable : Script SQL Dashboard PV de recette
Mission freelance
Data Engineer
Dans le cadre de la mise en place de Microsoft Fabric, nous recherchons un(e) consultant(e) Microsoft Fabric pour accompagner nos équipes dans l'optimisation de cette solution pour répondre aux besoins en matière de gestion des données et de business intelligence (BI). Missions : Participer à la conception, au déploiement et à la configuration de Microsoft Fabric en fonction des besoins spécifiques du métier. Intégrer les sources de données diverses (ERP, CRM, bases de données, fichiers plats, API, etc.) dans Microsoft Fabric Configurer les pipelines de données, les environnements de stockage (data lakes, entrepôts de données) et les fonctionnalités d'analytique avancée. Fournir un support technique et des recommandations pour résoudre les problèmes de performance ou d’optimisation. Assurer la maintenance des solutions déployées et mettre en œuvre des évolutions selon les besoins. Collaborer avec les équipes métier et les équipes IT pour définir les stratégies de gestion des données.
Offre d'emploi
Architecte Technique
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les principales missions confiées en lien avec le reste de l'équipe en interne, l'éditeur, les équipes de production, les utilisateurs (architectes.. ) seront donc : - Contribution à l'administration technique et fonctionnelle et au MCO : extensions du métamodèle, ),support utilisateur... - Participation à la montée de version vers HOPEX 6.0 Aquila (contribution à la recette et POC sur nouveaux usages de l'outil...) - Réalisation de cartographie applicatives sous MEGA - Contribution à la mise en place et au suivi des KPIS qualité et complétude des données (reporting..) - Maj/Evolution des process d'alimentation de l'outil en lien avec le référentiel d'application, la CMDB du Groupe et les autres outils groupes - Spécification et mise en oeuvre d' évolutions de l'outil et des process pour répondre à des nouveaux besoins (interfaces avec d'autres outils, montée de version du progiciel, impacts TRM et DORA...) - Participation à l'animation de la communauté des utilisateurs 🤝 Les livrables attendus : Administration technique et fonctionnelle et au MCO Cartographie applicatives sous MEGA KPIS Mise en œuvre et évolutions de l'outil et des process
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Mission freelance
Data analyste
Analyse et compréhension des données o Exploration des données pour identifier et documenter leurs caractéristiques (type de données, structure des données, schémas récurrents, valeurs, problèmes,…). o Compréhension des données en lien avec les besoins métier et les processus de l'entreprise. - Evaluation de la qualité des données intra Dataset et cross Dataset (Désynchronisation) o Evaluation sur base de règles génériques ou de règles de qualité métier o Identification et inventaire des anomalies o Proposition et mise en pratique de nouvelles règles de qualité et de règles de nettoyage de données. o Proposition d’actions préventives et correctives de gestion de la qualité des données - Identification ou recommandation de clés métier uniques (Business key) - Coordination et synchronisation avec les acteurs métier et IT o Identification et collecte des set de données o Compréhension des données, de leurs problématique et enjeux avec le métier o Communication des contrôles effectués ainsi que des résultats - Documentation et création de divers rapports o Visualisation et documentation des analyses et résultats o Rapports de profilage (complétude, Validité, unicité, cohérence, véracité et actualisation), Rapports opérationnels (Désynchronisations, rapports reçus de la part du métier), Rapports d’input aux KPIs et Dashboard DQ - Outils et méthodes o Analyse et Exploration avec les outils fournis par l'entreprise (Atacama DQ Analyzer, Power BI, SQL, Python) o Proposition de nouveaux outils, méthodes et processus pour le profilage des données o Automatisation des processus de profilage et de reporting de qualité de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes