Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 469 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Consultant Audit BI

Beager
Publiée le
Audit
BI
Data analysis

8 mois
100-750 €
Paris, France

Beager recherche pour l’un de ses clients, un(e) Consultant(e) en Audit de la Chaîne BI (indépendant). Contexte de la mission : Mission : Le consultant retenu aura pour mission d’auditer la chaîne BI et de proposer des améliorations concrètes à court, moyen et long terme. Les actions à mener incluent : Audit complet de la chaîne BI : Analyse approfondie des différents composants, identification des failles et recommandations pour l'optimisation. Renforcement de la chaîne de traitement de nuit : Proposer des solutions techniques pour garantir une mise à jour fiable des données chaque nuit. Réduction des temps de latence : Identifier les causes des lenteurs et suggérer des améliorations pour fluidifier les accès aux données. Amélioration de la cohérence des données : Évaluer les écarts entre les différentes applications et proposer des solutions pour harmoniser les données. Augmentation de la qualité des données : Développer des indicateurs de qualité et des processus de vérification pour assurer la fiabilité des informations. Objectifs spécifiques : Recueillir les besoins des utilisateurs : Organiser des ateliers avec les équipes internes pour comprendre leurs attentes et défis liés aux données. Collaboration inter-équipes : Travailler avec les équipes de développement pour fournir les éléments nécessaires à l’amélioration des requêtes et des modèles de données. Optimisation de l'infrastructure : Collaborer avec les équipes techniques pour proposer des améliorations sur le matériel et les configurations nécessaires. Suivi de l'avancement : Mettre en place des indicateurs de suivi des actions engagées et faire des points réguliers avec les Directions des Métiers (DM) sur l'avancée des travaux.

CDI
Freelance

Offre d'emploi
Expert technique Colibra

AVA2I
Publiée le
Data analysis
SQL
Test unitaire

3 ans
10k-75k €
Bagneux, Île-de-France

Dans le cadre de la mise en œuvre et de l'optimisation de la solution Colibra pour la gestion des données financières et la conformité, l'entreprise recherche un Expert Technique Colibra . Ce poste est essentiel pour garantir l'efficacité de la solution en fournissant une expertise technique approfondie, en gérant les intégrations et en assurant le support technique pour les utilisateurs. En tant qu'expert Colibra, vos missions seront les suivantes: Analyser les besoins des clients (IT et métiers) dans la documentation de leur périmètre Data - Charger la documentation Data du métier dans Collibra et documenter le processus - Paramétrer la solution Collibra pour adapter son usage aux besoins des utilisateurs (création de dashboards, vues, etc.) - Présenter l’offre de service aux clients et les accompagner dans la prise en main de l’outil - Tester les nouvelles fonctionnalités de Collibra, déterminer leur pertinence et les intégrer dans l’offre de service - Donner des ateliers de formation et animer des ateliers de travail / des démonstrations - Recueillir le feedback des utilisateurs pour adapter l’offre de service - Fournir du support et de l’assistance aux utilisateurs, tester les nouvelles releases et résoudre d’éventuels incidents ou bugs.

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

Freelance

Mission freelance
Consultant(e) BI Senior (H/F) 92

Mindquest
Publiée le
BI
Data analysis
SQL

6 mois
400-550 €
Courbevoie, Île-de-France

Notre client recherche un(e) consulmtant(e) pour une mission de prestation informatique concernant un(e) Consultant(e) BI Senior. Cette mission s'inscrit dans le cadre du développement des tableaux de bord d’intérêt pour notre Direction Medical Oncology France. Contexte et objectifs de la mission : Au sein de l’équipe Datafactory rattachée à la DDSI (Direction Data et Systèmes d’Information) : Collaborer avec les différentes équipes (IT et Médical) pour comprendre les besoins. Animer les ateliers métiers de spécification et expression des besoins. Auditer et analyser un tableau de bord existant de la direction jumelle Medical Biophama, proposer une factorisation pour aboutir à un modèle de données unique. Animer les ateliers de conception technique avec nos Data engineer. A partir de jeux de données pour la plupart issus de notre CRM Veeva, développer et automatiser des tableaux de bord permettant de suivre les principaux indicateurs d’activité des RMRs (KPI). Assurer la qualité et l’intégrité des données en effectuant des contrôles réguliers

Freelance

Mission freelance
Senior Data Gouvernance - Bruxelles - Nationalité Européenne Exigée - Anglais Courant

Intuition IT Solutions Ltd.
Publiée le
Data analysis
Gouvernance

6 mois
100-710 €
Bruxelles, Bruxelles-Capitale, Belgique

Gouvernance des données Avec la politique de gouvernance des données, nous définissons principalement les rôles, c'est-à-dire qui a la responsabilité d'un actif de données spécifique au cours de son cycle de vie global. Cela favorise la responsabilité dans le traitement des données et la transparence dans les activités liées aux données. L'objectif est de rédiger et d'adopter une politique de gouvernance des données en tenant compte des politiques similaires adoptées par d'autres EUBIA. Inventaire et catalogue des données Un catalogue de données est un référentiel centralisé qui permet à une organisation de stocker et de rechercher l'emplacement, la lignée, le format, l'utilisation et d'autres métadonnées concernant les actifs de données de l'organisation. Le catalogue de données vise à fournir un point central de référence et d'accès aux ensembles de données importants utilisés dans l'institution. Il existe déjà un inventaire/catalogue MVP. En 2025, le travail pourrait s'étendre à d'autres domaines avec un outil de catalogue à sélectionner. Données de base et données de référence Les données de base sont des données réutilisées par de nombreuses applications et systèmes. Certains principes doivent s'appliquer à ces données précieuses afin de garantir leur qualité, leur disponibilité et leur réutilisation. Les données de référence sont des données utilisées pour classer ou catégoriser d'autres données. Elles se présentent généralement sous la forme de listes de codes qui définissent les valeurs autorisées, par exemple les listes de codes pour les pays, les genres, les types de procédures juridiques. La normalisation et la gestion de ces données sont importantes pour assurer un échange de données fluide entre les différentes applications et garantir l'interopérabilité. Les travaux se concentreront sur les politiques et les bonnes pratiques pour la gestion des données de base et des données de référence. L'objectif est de rédiger et d'adopter une politique pertinente en faisant le point sur les initiatives internes ou les initiatives similaires dans d'autres EUBIA et en pilotant la politique dans le contexte d'une activité interne en cours.

Freelance

Mission freelance
CLOUDERA DATA ANALYST

AIS
Publiée le
Big Data
Cloudera

1 an
100-550 €
Nantes, Pays de la Loire

Nous recherchons un Administrateur Bases de Données (DBA) freelance pour une mission stratégique. Vous serez responsable de la gestion et de l’optimisation des bases de données d’une application critique. Vos principales missions incluront : Assurer le bon fonctionnement et la maintenance des bases de données. Optimiser l’exploitation et la performance des applications. Participer aux décisions de mise en production et gérer les incidents. Rédiger des retours d’expérience et maintenir la documentation à jour.

Freelance
CDI

Offre d'emploi
Skiils recherche son Expert data quality

skiils
Publiée le
Data management

12 mois
10k-98k €
Lille, Hauts-de-France

Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.

CDI

Offre d'emploi
Data Base Administrator Talend (H/F)

Randstad
Publiée le
Data management
Talend

55k €
Marseille, Provence-Alpes-Côte d'Azur

Nous recherchons pour le compte de notre client spécialité dans l'énergie un Data Base Administrator Talend (H/F) habilitable secret défense en CDI à Marseille. Conception de bases de données : - Effectuer les choix d'implémentation des bases de données dans le respect du cahier des charges et en collaboration avec les différents acteurs du projet (chef de projet, architectes, consultants ERP, experts « décisionnels » ...) - Concevoir, réaliser et optimiser l'architecture de la donnée du système d'information opérationnel - Participer à la conception et au développement de l'architecture de l'entrepôt de données décisionnel - Maintenir la documentation des schémas relationnels et non relationnels - Proposer et suivre les optimisations des requêtes SQL et no SQL afin de garantir les meilleures performances de nos applications métier - Assurer le support aux équipes de développement afin d'identifier et proposer des solutions performantes Gestion de la donnée : - Concevoir, développer et maintenir les flux de synchronisation entre nos différents systèmes avec notre outil ETL - Définir les templates, concevoir et réaliser les opérations d'import de données en masse - Support technique, assistance et observabilité - Participer aux corrections d'incidents, demandes d'évolutions des chefs de projet métier et assurer l'assistance utilisateurs de niveau 3 - Participer au déploiement de l'architecture applicative de microservices en adaptant le modèle de données historique - Suivre et gérer les performances des Bases Oracle et mongoDB - Assurer la veille technologique et traiter l'obsolescence technique

Freelance

Mission freelance
Ingénieur Data (Snowflake)

Phaidon London- Glocomms
Publiée le
AWS Cloud
Big Data
Python

12 mois
500-650 €
Paris, France

En partenariat avec un cabinet de conseil partenaire de Snowflake, GloComms recherche un ingénieur de données senior doté d'une vaste expérience et d'une solide expérience dans Snowflake. Poste : Ingénieur Data Snowflake Durée : Projet de 12 mois Lieu : France Remote: Oui - Déplacements occasionnels dans l'un des bureaux de nos clients à Paris ou à Lyon Date de début : Octobre Contrat : Freelance (Portage Salarial, Autoentrepreneur, SASU) Principales responsabilités : Vous concevrez, construirez et installerez des systèmes de gestion de données hautement évolutifs Maintiendrez et testerez l'infrastructure de données et fournirez un support si nécessaire Contribuerez à la migration de l'on-prem vers Snowflake Collaborerez étroitement avec les autres Data Scientists pour créer et améliorer le produit du client Contribuer aux meilleures pratiques en matière de données au sein de l'équipe et de l'entreprise Profil du candidat idéal : 6+ années d'expérience professionnelle en ingénierie des données et au moins 2+ années avec Snowflake Idéalement, avoir déjà travaillé sur des projets de migration vers Snowflake Vaste expérience du langage de programmation avec Python, SQL ou Java Connaissances/expérience solides des principes de l'architecture des données et des couches de la plateforme de données Expérience supplémentaire également sur 1 ou plusieurs outils ETL/ELT dans Talend ou Informatica Une expérience dans le cloud est un plus (AWS, Azure ou GCP) Anglais courant

Freelance

Mission freelance
TECH LEAD AB INITIO

MLMCONSEIL
Publiée le
Data management

3 ans
390-500 €
Paris, France

Nous sommes à la recherche d'un profil TECH LEAD AB INITIO pour une mission de longue duré ...... ........ ...... ........ ...... ........ ...... ........ ...... ........ ...... ........ ...... ........ ...... ........ ...... .... .... ...... ........ ...... ........ ...... ........ .... ...... ........ ...... ........ ...... ........ .... ...... ........ ...... ........ ...... ........ .... ...... ........ ...... ........ ...... ........ .... ...... ........ ...... ........ ...... ........

Freelance

Mission freelance
Tech Lead Confirmé – Azure Factory (Nantes ou Paris)

Intuition IT Solutions Ltd.
Publiée le
Azure Data Factory
Databricks

4 mois
600 €
Paris, France

Description de la mission : Dans le cadre d'un projet stratégique au sein d'une organisation en pleine transformation numérique, nous recherchons un Tech Lead Confirmé pour prendre en charge la direction technique de notre Azure Factory . Vous serez responsable de l'architecture, de la mise en œuvre et de l'optimisation des processus de développement dans un environnement cloud. Votre mission consistera à : Piloter les équipes techniques dans la conception et la réalisation des solutions basées sur Azure Data Factory . Garantir la qualité des livrables et respecter les délais tout en supervisant les bonnes pratiques de développement. Collaborer étroitement avec les différentes parties prenantes, incluant les équipes métiers, pour comprendre leurs besoins et transformer ces derniers en solutions techniques performantes. Être le référent technique sur l'ensemble des sujets liés à l'intégration et l'exploitation des données dans le cloud Azure. Accompagner l'équipe dans le développement des compétences autour des technologies Azure, avec une forte emphase sur Azure Data Factory . Contribuer à l'amélioration continue des processus de développement, de déploiement et de monitoring des applications.

CDI

Offre d'emploi
Manager Data

AVALIANCE
Publiée le
Big Data
Data science

50k-90k €
Colombes, Île-de-France

Nous recherchons pour notre client un manager Data pour rejoindre notre groupe basé a Colombes Responsabilités : Alignement stratégique avec les objectifs de l'entreprise : Contribuer à la définition et à la mise en œuvre de la stratégie de la Business Unit DATA en accord avec les objectifs globaux de l'entreprise. Assurer la cohérence des projets DATA avec les priorités stratégiques de l'entreprise et les besoins des clients. Suivre les tendances du marché et les évolutions technologiques pour adapter la stratégie DATA en conséquence. Préparer et présenter des rapports réguliers à la direction, mettant en évidence les progrès réalisés et les axes d'amélioration. Management des collaborateurs : Superviser et encadrer l'équipe DATA, en veillant à leur développement professionnel et à leur motivation. Organiser des réunions régulières pour suivre l'avancement des projets et résoudre les éventuels problèmes. Définir les objectifs individuels et collectifs de l'équipe, et évaluer les performances. Promouvoir un environnement de travail collaboratif et stimulant, favorisant l'innovation et l'excellence. Développement business : Identifier et exploiter de nouvelles opportunités commerciales pour élargir le portefeuille clients de la Business Unit DATA. Développer et maintenir des relations solides avec les clients existants, en assurant leur satisfaction et en répondant à leurs besoins. Participer activement à la prospection de nouveaux marchés et à la préparation des propositions commerciales. Collaborer avec les autres Business Units et départements pour développer des offres de services innovantes et compétitives ainsi d’assurer une cohérence globale.

Freelance
CDI

Offre d'emploi
Architecte Data

VISIAN
Publiée le
Architecture
Big Data

3 ans
59k-94k €
Vélizy-Villacoublay, Île-de-France

Visian recherche pour un de ses clients grand compte un profil Architecte Data . Contexte : Au sein de la direction Architecture de notre client grand compte, l'Architecte de Data conçoit et met en œuvre l'architecture et la stratégie de données d'une organisation. Dans le cadre d'un programme de transformation numérique initié par le groupe, vous serez impliqué dans la conception et le soutien à la construction de l'environnement DATA 4.0. À cette fin, en tant qu'architecte data, vos principales missions seront de : Contribuer à l'architecture, à la mise en œuvre et à la pérennité de l'entreprise du point de vue technique et fonctionnel, en accord avec les architectes/expert IT de chaque domaine de compétence (Stockage, Réseau, etc.) afin de soutenir les données de l'entreprise et leur utilisation ; Formaliser la description des bases de données (modèle de données métiers et dictionnaire de définition) et s'appuyer sur le responsable des données ; Orienter les pratiques des Data Engineers de la plateforme (ingestion et exposition des données), ainsi que les responsables des pratiques en gestion des données, Dataviz et ingénierie ML avec la plateforme de données, responsables respectivement de la mise en œuvre de la gouvernance des données, de la dataviz et de la science des données ; Soutenir les projets informatiques (architecture) dans la définition des besoins métiers concernant la description et l'utilisation des données (concepts métiers, exigences métiers, utilisation des données dans les algorithmes, modèles de données, flux de données, etc.) et animer l'urbanisation des données du SI de l'entreprise ; Concevoir les produits et solutions de données soutenus par les équipes de la fabrique numérique (Data Factory) (BI, self-service, IA, IAGen, gestion des données) en fonction de la stratégie technique et industrielle du département IT en ce qui concerne les problématiques de données ; Orienter les projets en mettant en place et en appliquant des normes et standards applicables à la construction des données et à leur description, en particulier en utilisant le dictionnaire de données et les modèles métiers ; Porter la vision technique, en interne comme en externe, et encourager ses développements avec les équipes en ligne avec la stratégie globale ; Contribuer à la qualité du contenu du dictionnaire de données et des modèles de bases de données dans le temps, et mettre en place des outils pour garantir la pérennité des données Assurer la gestion des changements de données (formation à l'utilisation des données, communication), mais aussi sur les évolutions en matière de normes et standards de données, sur l'évolution du dictionnaire et des modèles de données.

Freelance
CDI

Offre d'emploi
Business Analyst Asset Management STATPRO

NSI France
Publiée le
Data management

2 ans
10k-71k €
Paris, France

Contexte / Objectifs : Projet en cours d'implémentation d'un outil de performance. Un accompagnement est nécessaire afin d'assurer les tâches suivantes : Collecte du besoin auprès de l’équipe Performance Tenue des workshops avec les parties prenantes pour prioriser et analyser la faisabilité du besoin + recensement des règles de gestion associées au besoin Rédaction des spécifications fonctionnelles Synthèse sur l’avancement du projet + Interactions avec l’éditeur dans le cadre du suivi de l’implémentation Mise en place/mise à jour de la documentation encadrant le process La mission nécessitera une coordination entre l'équipe performance et l'équipe developpement, principaux interlocuteurs sur le projet. Expertises spécifiques : Solides connaissances fonctionnelles sur les métiers de la gestion d'actifs. Le consultant doit avoir une expertise en data-management, notamment pour identifier les points de données nécessaires aux différents processus. Une expérience/expertise dans la contribution/attribution de performance est un véritable plus (l'implémentation concerne l'outil Statpro de Confluence) Le consultant doit être hybride, c'est à dire suivre le projet avec l'éditeur mais également les équipes internes mais également avoir la casquette Business analyst dans le cadrage des besoins ainsi que la rédaction des spécifications. Grande autonomie et excellente présentation.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

CDI
Freelance

Offre d'emploi
Chef de Projet MOE Data Analyst Confirmé (F/H)

CELAD
Publiée le
Data analysis
Data management

12 mois
46k-58k €
Mer, Centre-Val de Loire

Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet MOE Data Analyst Confirmé pour intervenir chez un de nos clients dans le secteur bancaire, basé à Mer (41). 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Objectifs et livrables : • Pilotage de projet : Gestion de la refonte du Datawarehouse inscrit pour validation au PA 2025, en coordination avec les différentes parties prenantes. • Conception et modélisation : Élaboration des solutions de données, en garantissant la conformité avec les exigences métiers et les normes en vigueur. • Maîtrise de la donnée : Mise en place de processus pour assurer la qualité et l'intégrité des données tout au long du cycle de vie du projet. • Reporting Power BI : Création et optimisation de rapports dynamiques afin de répondre aux besoins d'analyse des équipes métiers. • Accompagnement et formation : Support auprès des utilisateurs sur les outils et les solutions mises en place, avec une attention particulière à la montée en compétence des équipes.

469 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous