Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
AMOA Data Office
Profil : Minimum 5 ans d'expérience Maîtrise du pilotage projet, de l'expression de besoin, la réalisation d'études, d'analyses. Maîtrise de l'organisation et de la conduite de réunions. Excellentes aptitudes à la communication, tant orale qu'écrite. (Réalisation de CR, support de réunions, d'ateliers d'alignement, de désambiguation…) Sens de la synthèse, afin de résumer pour tous la situation du projet. Connaissances sur les grands principes de la donnée (Fonctionnement des bases de données, tables, requêtes, jointures…), du fonctionnement des CRMs Eventuellement expérience dans la manipulation de la donnée (SQL, Excel). Secteur : assurance Site : Chauray (Niort) 2 à 3 j / sem sur site
Mission freelance
Chef de projet Infra (H/F)
Notre client, un acteur majeur du secteur industriel, recherche un Chef de Projet Infrastructure (H/F) à Toulouse pour piloter des projets techniques liés au déploiement d’infrastructures IT. Vous jouerez un rôle central dans la gestion des projets, avec un focus sur les environnements réseau, la conformité des infrastructures et le Cloud. Vos missions : * Piloter des projets de déploiement réseau et assurer la conformité des infrastructures IT avec les exigences techniques et fonctionnelles. * Superviser et coordonner les équipes techniques et prestataires dans la mise en place et l’évolution des infrastructures. * Assurer la gestion des infrastructures Cloud, en particulier dans des environnements Azure, tout en garantissant la sécurité et l’efficacité des solutions. * Gérer les systèmes de stockage et les solutions Active Directory (AD), en veillant à leur bonne intégration et à leur évolution. * Collaborer avec les équipes techniques pour assurer la réussite des projets et la satisfaction des besoins métiers. Compétences techniques : * Expertise dans le déploiement d'infrastructures réseau et la gestion de projets techniques. * Solide expérience dans les environnements Cloud Azure, stockage et Active Directory (AD). * Capacité à naviguer entre des aspects techniques et fonctionnels, tout en gérant des équipes et des prestataires. * Connaissance des bonnes pratiques en matière de conformité des infrastructures.
Mission freelance
Développeur Data
MISSIONS: Développer et maintenir des pipelines de données avec Azure Data Factory. Créer et gérer des rapports et tableaux de bord avec Power BI. Concevoir et optimiser des bases de données SQL. Travailler avec Databricks pour le traitement et l’analyse des données. Développer des scripts en Python pour automatiser les processus de données. Gérer et intégrer des API REST. Utiliser les services SSIS de SQL pour les processus ETL. COMPETENCES: Expérience avec les technologies Azure Data (Data Factory, Power BI, SQL, Databricks). Compétences en développement Python. Connaissance des API REST. Expérience avec les services SSIS de SQL.
Mission freelance
Data sharing Governor Assurance
Nous recherchons un consultant Data sharing Governor pour le compte d’un de nos clients assurance basé à Paris dans le cadre d’un projet stratégique de transformation Data. Contexte Dans le cadre de la transformation Data, le Data Management Office (DMO) cherche à renforcer ses capacités de gouvernance des données en recrutant un consultant indépendant. Le DMO est responsable de la définition et de la mise en œuvre de la stratégie de gouvernance des données de l’entreprise. La mission se concentre sur l'harmonisation des pratiques de partage de données, tant internes qu'externes, afin de garantir la conformité aux nouvelles régulations et d’optimiser les échanges de données au sein du groupe. Rôles et responsabilités En tant que Data Sharing Governor, vous serez directement rattaché au responsable du DMO. Vos principales missions seront les suivantes : Data Manager du Domaine Données Externes : Définir le cadre d’usage des données externes (principes, standards, procédures) pour piloter et adapter la roadmap 2024-2026. Accompagner les initiatives transverses, notamment dans les programmes de données entreprises et de gestion des risques géographiques. Cartographier les usages et attentes des métiers, et effectuer une veille de marché. Contribution au programme FIDA (Open Insurance) : Accompagner la mise en conformité avec la nouvelle réglementation européenne FIDA, en lien avec les associations sectorielles. Interlocuteur du groupe pour le programme One Data Mesh : Faciliter les échanges de données entre le groupe et ses entités, en optimisant les processus de partage au sein de l'écosystème de l'entreprise. Compétences requises Diplôme Bac +5 en informatique, statistique, gouvernance des données ou équivalent. Expérience significative en data sharing, idéalement en tant que Chef de Projet, avec une exposition à des projets réglementaires (ex. DSP2). Excellente capacité à vulgariser les concepts complexes et à travailler avec des équipes multidisciplinaires. Compétences en gestion de projets, avec une expérience dans le secteur de l’assurance et/ou de la banque de détail appréciée. Maîtrise du français et de l'anglais. Détails de la mission Durée : 6 mois, renouvelable. Date de démarrage : Dès que possible. Lieu : Mission basée à Paris, avec possibilité de télétravail partiel. Freelance Temps plein
Mission freelance
DATA Engineer
Nous recherchons pour un de nos clients basés en IDF, un consultant Data pour une mission freelance (longue visibilité) Notre client recherche des consultants Data expérimenté (Front et Back Office) afin de mener les nouveaux projets de transformations démarrant en T4-2024 : Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. Les environnements techniques et compétences obligatoire pour les 4 profils sont : SQL et T-SQL (SQL server 2017+ et SGBD PaaS : SMI & Synapse Azure) GIT Snowflake Cube tabulaire (PaaS) MS Azure Data Factory (Kafka envisagé aussi à terme pour gérer les flux stream…) Power BI (DAX, M) Power BI Reporting Services / Paginated Reports Streamlit
Mission freelance
Data Business Analyst F/H
METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur assurantiel un.e Data Business Analyst (F/H) pour une mission de longue durée à Courbevoie (92), pour un démarrage prévu fin octobre. Dans le cadre de cette mission, vous seriez amené.e à concevoir et à modéliser un socle fonctionnel pour permettre l'intégration de données tierces dans la data warehouse de notre Client, et ce au sein d'un environnement international.
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Référent Power BI
Expertise technique : Assurer la maîtrise technique de la plateforme Power BI. Être le référent technique pour l'ensemble des utilisateurs. Développer et maintenir des rapports, des tableaux de bord et des visualisations de haute qualité. Optimiser les performances et la scalabilité des modèles de données. Accompagnement des utilisateurs : Former et accompagner les utilisateurs sur les différentes fonctionnalités de Power BI. Recueillir et analyser les besoins des utilisateurs pour adapter les solutions. Assurer un support de niveau 2 et 3. Gouvernance des données : Contribuer à la définition et à la mise en œuvre d'une gouvernance des données cohérente. Garantir la qualité, la fiabilité et la sécurité des données utilisées dans Power BI. Innovation : Être force de proposition pour l'évolution de la plateforme Power BI et l'intégration de nouvelles fonctionnalités. Suivre les évolutions technologiques et les meilleures pratiques en matière de BI.
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Mission freelance
Architecte Infra transverse Virtualisation et stockage
PROPULSE IT recherche un Architecte transverse Virtualisation et stockage ayant les spécialités suivantes : - VMWare Cloud Foundation (VCF) - VMWare réseau et sécurité (NSX) - Hyperconvergence vSAN - NAS de Netapp - SAN de DELL EMC - Expérience projet significative dans une ou plusieurs technologies du Stockage Objet La mission : - Etude et analyse des opportunités d'évolution des infras Stockage & Virtualisation (hyper convergence) - Mise en œuvre de projets d'infras en Stockage & Virtualisation - Support technique sur les technologies Stockage & Virtualisation - Formaliser (rédiger) les modes opératoires et les processus de delivery et de traitement des incidents récurrents - Assurer le reporting de l'activité
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Mission freelance
CHEF DE PROJET BUSINESS TRANSFORMATION & MONETISATION
Contenu et Objectifs de la mission : Au sein de la direction du Pole Data IA du Chief Data Officer, la mission consiste à accompagner la verticale Transformation & Innovation Data/IA sur ses missions d’accompagnement à la transformation des projets data IA des métiers de notre client : - Accompagner le pôle dans l’émergence et la qualification des besoins de métier, l’identification des solutions et de l’ensemble des prérequis afin notamment de garantir le respect de la politique Data de notre client - Organiser et faciliter les temps forts d’idéation de cas d’usage ou de production de Feuille de route pour les Branches et BUs de notre client : structuration et animation de séminaires ou d’ateliers, apport de benchmark interne et/ou externe, restitution. - Préparer les dossiers de qualification des projets afin d’en faciliter l’arbitrage en termes de priorisation et financement/amorçage par le Pôle Data ou encore de décision Make or Buy. - Garantir une évaluation objective et complète des opportunités de projet et s’assurer notamment d’une estimation réaliste du potentiel de ROI et des gains non financiers associés. - Identifier et mobiliser les expertises qui seront en charge de la réalisation. S’assurer du transfert efficace du dossier. - Suivre le projet durant sa phase de réalisation afin notamment d’identifier les risques, le respect des échéances, la qualité de la solution et des livrables associés. - Mettre à jour les hypothèses du business case au besoin lors de la mise en production puis en phase de run.
Offre d'emploi
Data Engineer Power BI H/F
AMAGO IT recherche dans le cadre d'une mission de longue durée chez un client GC basé en IDF 93 : Data Engineer H/F Missions : · Participation aux ateliers de conception technico-fonctionnels · Prise en charge des activités de développement · Remontée d’informations aux équipes de pilotage · Participation aux daily et autres cérémonies agiles · Chiffrage et réestimation du reste à faire au fil des développements · Développement des fonctionnalités en respectant les bonnes pratiques définies · Développement des tests automatisés · Correction des anomalies fonctionnelles et/ou techniques · Participation aux différentes communautés techniques
Mission freelance
Architect Data
L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.
Mission freelance
Expert Data et BI
L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.
Mission freelance
Intégrateur applicatif (profil systèmes/sysops) H/F
Nous recherchons un Intégrateur applicatif (profil systèmes/sysops) H/F : Maintien en condition opérationnelle du parc de serveurs et d’applications du périmètre Web ASSU, principalement centré sur les technos Apache, Tomcat / Jboss / Wildfly, Kubernetes, HaProxy et ordonnancement Control-M / JobScheduler pour la partie applicative, et majoritairement CentOS 7 à 9 et RHEL 6 à 9 pour la partie système Transformation d’infras et applications legacy / on premise vers le Cloud privé groupe et/ou conteneurisation Kubernetes Transformation des outils de supervision legacy (Nagios / EoN) vers la cible groupe (Zabbix) Transformation ou reconstruction des serveurs / applications s’appuyant sur du CentOS vers RHEL • Audit, mise en conformité et mise en pratique des règles de sécurité et bonnes pratiques groupe (par transformation ou remédiation de failles) S’assurer de la résilience des infras et applications de production/formation (tests de résiliences groupe annuels) Traitement des évolutions applicatives en prod, notamment via la mise en place ou l’utilisation de pipelines Jenkins existants Automatisations diverses (Shell, Ansible, Jenkins) pour fiabiliser, superviser ou auditer certaines infrastructures critiques (notamment ce qui a trait aux couches d’authentification, LDAP 389DS et Crowd SSO)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes