Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 842 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

CDI
Freelance

Offre d'emploi
Expert technique Colibra

AVA2I
Publiée le
Data analysis
SQL
Test unitaire

3 ans
10k-75k €
Bagneux, Île-de-France

Dans le cadre de la mise en œuvre et de l'optimisation de la solution Colibra pour la gestion des données financières et la conformité, l'entreprise recherche un Expert Technique Colibra . Ce poste est essentiel pour garantir l'efficacité de la solution en fournissant une expertise technique approfondie, en gérant les intégrations et en assurant le support technique pour les utilisateurs. En tant qu'expert Colibra, vos missions seront les suivantes: Analyser les besoins des clients (IT et métiers) dans la documentation de leur périmètre Data - Charger la documentation Data du métier dans Collibra et documenter le processus - Paramétrer la solution Collibra pour adapter son usage aux besoins des utilisateurs (création de dashboards, vues, etc.) - Présenter l’offre de service aux clients et les accompagner dans la prise en main de l’outil - Tester les nouvelles fonctionnalités de Collibra, déterminer leur pertinence et les intégrer dans l’offre de service - Donner des ateliers de formation et animer des ateliers de travail / des démonstrations - Recueillir le feedback des utilisateurs pour adapter l’offre de service - Fournir du support et de l’assistance aux utilisateurs, tester les nouvelles releases et résoudre d’éventuels incidents ou bugs.

Freelance

Mission freelance
CLOUDERA DATA ANALYST

AIS
Publiée le
Big Data
Cloudera

1 an
100-550 €
Nantes, Pays de la Loire

Nous recherchons un Administrateur Bases de Données (DBA) freelance pour une mission stratégique. Vous serez responsable de la gestion et de l’optimisation des bases de données d’une application critique. Vos principales missions incluront : Assurer le bon fonctionnement et la maintenance des bases de données. Optimiser l’exploitation et la performance des applications. Participer aux décisions de mise en production et gérer les incidents. Rédiger des retours d’expérience et maintenir la documentation à jour.

Freelance

Mission freelance
Consultant(e) BI Senior (H/F) 92

Mindquest
Publiée le
BI
Data analysis
SQL

6 mois
400-550 €
Courbevoie, Île-de-France

Notre client recherche un(e) consulmtant(e) pour une mission de prestation informatique concernant un(e) Consultant(e) BI Senior. Cette mission s'inscrit dans le cadre du développement des tableaux de bord d’intérêt pour notre Direction Medical Oncology France. Contexte et objectifs de la mission : Au sein de l’équipe Datafactory rattachée à la DDSI (Direction Data et Systèmes d’Information) : Collaborer avec les différentes équipes (IT et Médical) pour comprendre les besoins. Animer les ateliers métiers de spécification et expression des besoins. Auditer et analyser un tableau de bord existant de la direction jumelle Medical Biophama, proposer une factorisation pour aboutir à un modèle de données unique. Animer les ateliers de conception technique avec nos Data engineer. A partir de jeux de données pour la plupart issus de notre CRM Veeva, développer et automatiser des tableaux de bord permettant de suivre les principaux indicateurs d’activité des RMRs (KPI). Assurer la qualité et l’intégrité des données en effectuant des contrôles réguliers

Freelance

Mission freelance
Senior Data Gouvernance - Bruxelles - Nationalité Européenne Exigée - Anglais Courant

Intuition IT Solutions Ltd.
Publiée le
Data analysis
Gouvernance

6 mois
100-710 €
Bruxelles, Bruxelles-Capitale, Belgique

Gouvernance des données Avec la politique de gouvernance des données, nous définissons principalement les rôles, c'est-à-dire qui a la responsabilité d'un actif de données spécifique au cours de son cycle de vie global. Cela favorise la responsabilité dans le traitement des données et la transparence dans les activités liées aux données. L'objectif est de rédiger et d'adopter une politique de gouvernance des données en tenant compte des politiques similaires adoptées par d'autres EUBIA. Inventaire et catalogue des données Un catalogue de données est un référentiel centralisé qui permet à une organisation de stocker et de rechercher l'emplacement, la lignée, le format, l'utilisation et d'autres métadonnées concernant les actifs de données de l'organisation. Le catalogue de données vise à fournir un point central de référence et d'accès aux ensembles de données importants utilisés dans l'institution. Il existe déjà un inventaire/catalogue MVP. En 2025, le travail pourrait s'étendre à d'autres domaines avec un outil de catalogue à sélectionner. Données de base et données de référence Les données de base sont des données réutilisées par de nombreuses applications et systèmes. Certains principes doivent s'appliquer à ces données précieuses afin de garantir leur qualité, leur disponibilité et leur réutilisation. Les données de référence sont des données utilisées pour classer ou catégoriser d'autres données. Elles se présentent généralement sous la forme de listes de codes qui définissent les valeurs autorisées, par exemple les listes de codes pour les pays, les genres, les types de procédures juridiques. La normalisation et la gestion de ces données sont importantes pour assurer un échange de données fluide entre les différentes applications et garantir l'interopérabilité. Les travaux se concentreront sur les politiques et les bonnes pratiques pour la gestion des données de base et des données de référence. L'objectif est de rédiger et d'adopter une politique pertinente en faisant le point sur les initiatives internes ou les initiatives similaires dans d'autres EUBIA et en pilotant la politique dans le contexte d'une activité interne en cours.

Freelance
CDI

Offre d'emploi
Skiils recherche son Expert data quality

skiils
Publiée le
Data management

12 mois
10k-98k €
Lille, Hauts-de-France

Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.

CDI

Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA

DATSUP
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform

10k-65k €
Île-de-France, France

- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.

Freelance

Mission freelance
Data analyst (H/F)

Insitoo Freelances
Publiée le
Bash
Google Cloud Platform
Microsoft Power BI

2 ans
100-425 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyst (H/F) à Lille, Hauts-de-France, France. Contexte : Le data analyst est responsable du pilotage de la reprises des données de l’ensemble des systèmes de référencement, de l’industrialisation des process, de l’optimisation des outils d’analyse et du process de migration pendant les phases projet jusqu’au démarrage (bascule en production). A ce titre, il pilote opérationnellement l’ensemble des acteurs contributeurs (équipe solution, équipe legacy, métier, éditeur de l’outil d’aide à la reprise) depuis la mise au point des outils et processus jusqu’à l’exécution des migrations. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion des données de référentiel tiers. Les missions attendues par le Data analyst (H/F) : Compétences : - Structurer et organiser un chantier « données » (extractions, suppression des doublons, remise en qualité, enrichissement, chargement, traitement des rejets, contrôles) - Assurer la coordination des parties prenantes clés, incluant les outils de gestion de données tierces, les différentes Business Units et tout autre acteur impliqué. L’objectif est de piloter efficacement les équipes, déployer progressivement la solution, tout en garantissant la conformité et la qualité des données. Cela inclut l’optimisation des flux de données, la mise en place de contrôles qualité et l’intégration “sans couture” des données existantes dans le système cible. - Organiser et animer les instances utiles - Remonter les charges et les risques - Mettre en place les indicateurs de pilotage - Compétences techniques des outillages BI (SQL, scripting, looker, powerBI, connaissances en pipelines, …) Profil : - Capacité d’organisation et autonomie - Force de proposition - Rigoureux, dynamique mais aussi pragmatique et diplomate - Expérience réussie dans la conduite de projets jusqu’au golive - Capacité d’animation et de communication - Sens client, sens du service et réactivité - Savoir challenger la qualité de la data

Freelance

Mission freelance
Chef.fe de projet - Tech Lead Azure et GCP F/H

METSYS
Publiée le
Azure
Google Cloud Platform

3 ans
590-600 €
Courbevoie, Île-de-France

METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur du luxe un.e Chef.fe de projet - Tech Lead Azure et GCP, pour un démarrage mi-décembre 2024 à Courbevoie (92). A ce titre, votre mission sera de gérer et de coordonner l'ensemble des remédiations de la politique Groupe de notre Client sur les différents Cloud (Azure, GCP et Alyun). Vous suivrez donc le travail des équipes dédiées afin que les remédiations puissent être correctement effectuées et mises en place. Vous animerez également des ateliers.

Freelance
CDI

Offre d'emploi
Data Analyst Fonctionnel

VISIAN
Publiée le
Data analysis
Data management
Python

1 an
10k-60k €
Île-de-France, France

Minimum 8 ans d'experience Contexte : Le secteur Corporate and Institutional Banking est un leader mondial dans la fourniture de solutions financières variées, notamment en marchés de capitaux, services de sécurité, financement et conseil. Une équipe transversale, est chargée de superviser les risques non financiers et de garantir l'intégrité des activités. Dans ce cadre, un poste d'analyste de données est créé pour renforcer la gestion des risques opérationnels. Mission quotidienne : L'analyste de données sera responsable de : Fournir un leadership fonctionnel sur l'architecture des données et la modélisation des métadonnées. Analyser et améliorer le modèle de métadonnées pour la gestion des risques opérationnels. Collaborer étroitement avec des experts en la matière (SME) pour garantir la cohérence et l'efficacité des processus. Travailler avec les équipes informatiques pour mettre en œuvre les modifications nécessaires à l'écosystème. Assurer la documentation adéquate et contribuer à l'optimisation des contrôles et des activités réglementaires au sein du CIB.

Freelance

Mission freelance
Tech Lead .Net (Anglais courant obligatoire)

Trait d'Union Consulting
Publiée le
.NET
Azure
Google Cloud Platform

3 mois
420-530 €
Clichy, Île-de-France

Offre Tech Lead .NET (5-6 ans d'expérience) / Azure / SQL / GCP / Anglais Nous recherchons un Tech Lead .NET avec 5 à 6 ans d’expérience, spécialisé dans les technologies Azure , SQL , et GCP , et disposant d'un excellent niveau d’anglais. Vous aurez un rôle clé dans la gestion du RUN , la supervision des POC techniques comme la mise en place d’un Disaster Recovery Plan , ainsi que l’optimisation des requêtes SQL et GCP . En tant que référent technique, vous serez responsable de la gestion des incidents et des solutions d’urgence, tout en contribuant à l’amélioration continue des systèmes en place.

CDI

Offre d'emploi
Data Base Administrator Talend (H/F)

Randstad
Publiée le
Data management
Talend

55k €
Marseille, Provence-Alpes-Côte d'Azur

Nous recherchons pour le compte de notre client spécialité dans l'énergie un Data Base Administrator Talend (H/F) habilitable secret défense en CDI à Marseille. Conception de bases de données : - Effectuer les choix d'implémentation des bases de données dans le respect du cahier des charges et en collaboration avec les différents acteurs du projet (chef de projet, architectes, consultants ERP, experts « décisionnels » ...) - Concevoir, réaliser et optimiser l'architecture de la donnée du système d'information opérationnel - Participer à la conception et au développement de l'architecture de l'entrepôt de données décisionnel - Maintenir la documentation des schémas relationnels et non relationnels - Proposer et suivre les optimisations des requêtes SQL et no SQL afin de garantir les meilleures performances de nos applications métier - Assurer le support aux équipes de développement afin d'identifier et proposer des solutions performantes Gestion de la donnée : - Concevoir, développer et maintenir les flux de synchronisation entre nos différents systèmes avec notre outil ETL - Définir les templates, concevoir et réaliser les opérations d'import de données en masse - Support technique, assistance et observabilité - Participer aux corrections d'incidents, demandes d'évolutions des chefs de projet métier et assurer l'assistance utilisateurs de niveau 3 - Participer au déploiement de l'architecture applicative de microservices en adaptant le modèle de données historique - Suivre et gérer les performances des Bases Oracle et mongoDB - Assurer la veille technologique et traiter l'obsolescence technique

CDI
Freelance

Offre d'emploi
EXPERT CLOUD H/F

SPIE ICS
Publiée le
Ansible
AWS Cloud
Azure

6 mois
10k-65k €
Niort, Nouvelle-Aquitaine

Au sein du département Infrastructure & cloud, nous recherchons pour l’un de nos clients grands comptes à Niort un "Expert Cloud H/F" . AWS GCP & S3NS Azure Nous recherchons pour l’un de nos clients grands comptes à Niort un "Expert Cloud H/F" . Vous aurez pour missions : L'expertise et le traitement des incidents N3 dans le respect des SLA La participation aux choix d'architecture L'acculturation et la documentation L'automatisation des déploiements (CI/CD ; Terraform ; Ansible) Des connaissances de l'écosystème DevOpS (Kubernetes, Linux...) et de l'infrastructure en général est un plus pour la mission.

Offre premium
Freelance

Mission freelance
Devops

ESENCA
Publiée le
Administration linux
BigQuery
Docker

3 mois
400-430 €
Lille, Hauts-de-France

Vous participez au quotidien à la bonne mise en oeuvre des éléments suivants : - Un déploiement régulier des applications - Des montés de version régulières des applications - Une pratique des tests dans un environnement similaire à celui de production - Une intégration continue incluant des « tests continus » ; - Une surveillance étroite de l'exploitation et de la qualité de production via des métriques factuelles - Une Analyse des problèmes de performances - Une Gestion des outils de CI/CD - Une Mise en place d'outils / de rapports pour les équipes de développement - Une Gestion et automatisation des environnements des développeurs - Une prise en compte de la sécurité dès la conception - Vous êtes en capacité de traiter le développement d'api ou de solutions en backend pour de petites applications. - Mise en place des bonnes pratiques auprès des utilisateurs - Participations ponctuelles aux guildes des leaders techniques Vous maintenez en conditions opérationnelles les environnements applicatifs et la plateforme. - Gestion des incidents - Gestion des tickets de RUN remontés par les utilisateurs Hard Skills : - Stockage des données: PostgreSQL, ElasticSearch, BigQuery, MongoDB - Orchestrateurs : Kubernetes, Helm, Docker - Administration systèmes Gnu / Linux (Debian/Ubuntu/Alpine …) - Administration réseau (réseau VPC, VPN, Firewall, Traefik, load balancing) - CI/CD : GitHub Action, Terraform - Monitoring : Prometheus, AlertManager, Grafana, GCP StackDriver, Datadog - Cloud : Google Cloud Platform - Sécurité : IAM, Gestion de droits, gestion d'accès applicatifs, Vault (appRole / policies) - Langages : Shell, Python - Frameworks : FastApi, Django - Echange de données : Kestra, Kafka Soft Skills : - Empathie - Pragmatisme - Disponibilité - Curiosité - Adaptabilité - Bonne communication Mission long terme, présence sur site (Région lilloise) exigée 3j/semaine

Freelance

Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP

PROPULSE IT
Publiée le
architecte
Azure
Cloud

24 mois
350-700 €
Paris, France

o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.

Freelance

Mission freelance
Senior Data Architect (Snowflake)

Phaidon London- Glocomms
Publiée le
Architecture
Big Data
ETL (Extract-transform-load)

12 mois
600-750 €
Paris, France

Je suis à la recherche d'architectes de données seniors pour un projet à long terme de bout en bout. Rôle : Architecte de données senior Durée du contrat : Long terme Lieu : Paris : Paris Travail hybride Date de début : Fin octobre/début novembre Vous rejoindrez une nouvelle mission à long terme pour superviser un projet de transformation complet pour notre client. Vous travaillerez sur la modélisation et l'architecture des données, en partant de zéro. Profile: Vous avez une expérience confirmée de plusieurs projets d'architecture de données, idéalement à partir de zéro. Une solide expérience et connaissance de l'architecture de Snowflake, y compris le partage des données, la mise à l'échelle et les pratiques de sécurité. Compétence dans la conception et l'optimisation des bases de données Snowflake Capacité à créer des modèles de données complexes et à architecturer des pipelines ELT/ETL à l'aide d'outils tels que SNowpipe, Google Dataflow ou d'autres services GCP. Forte compréhension de la confidentialité des données, des normes de sécurité et des meilleures pratiques, y compris la gestion de l'accès, le cryptage et la conformité. Anglais courant

842 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous