Trouvez votre prochaine offre d’emploi ou de mission freelance DAT

Votre recherche renvoie 575 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
CDI
Freelance

Offre d'emploi
Microsoft Fabric Engineer

Halian
Publiée le
Data management
microsoft

2 ans
98k-200k €
Belgique

1 jour sur site en Belgique Votre mission : Contribuer à l'optimisation des pipelines de données et à l'intégration de solutions innovantes dans notre infrastructure IT en tant qu'Ingénieur Microsoft Fabric. Ce que vous ferez : Améliorer l'efficacité des systèmes de gestion des données pour une prise de décision éclairée. Soutenir les équipes Data Science et DevOps avec une infrastructure fiable et évolutive. Développer des solutions pour automatiser les processus de gestion des données. Participer aux comités techniques pour recommander des améliorations. Documenter les processus et créer des guides utilisateurs. Ce que nous offrons : Une ambiance conviviale avec des collègues passionnés et professionnels. Un accompagnement par des experts et des formations continues. Autonomie dans un rôle varié, riche en opportunités d'apprentissage. Des outils et technologies de pointe. Un accompagnement personnalisé pour votre développement de carrière. Flexibilité avec des options de télétravail et un package salarial attractif. Un environnement de travail dynamique, axé sur l'innovation et le bien-être, avec des activités ludiques comme des food trucks et des barbecues. Votre profil : Expertise en gestion de données avec Microsoft Fabric et Azure. Bonne maîtrise des pipelines de données et de l'intégration continue. Connaissance de Python ou Spark, ainsi que des outils comme Power BI. Expérience avec les services cloud Azure et la sécurité des données. Certification DP600 préférée. Bilingue FR/EN avec un esprit analytique et proactif. Si vous êtes prêt à relever ce défi, n’hésitez pas à postuler !

CDI

Offre d'emploi
Incident Manager

ATOS
Publiée le
Data Center
Stockage
Virtual machine

12 mois
10k-64k €
Montigny-le-Bretonneux, Île-de-France

La prestation s’articule principalement autour de ces activités : - Suivi de Production avec les Infogérants : o Participation et contribution aux différents comités infogérance (Comité des Changements, Comités de Suivi hebdomadaire et mensuels…) et techniques nécessaires au Suivi et pilotage de la Prestation (Tickets, metrics, KPIs, SLAs, …). o Suivi des actions de remédiations et plan de progrès. o Piloter la mise en œuvre des solutions techniques de concert avec les responsables de domaines infrastructures et experts. o Suivi opérationnel des Demandes. o Suivi de la disponibilité des Infrastructures. o Suivi du bon déroulement des sauvegardes et rétentions sur disque, et remédiations en cas de d’échec. o Conduite des tests de restauration de données. o Accompagner sur site les intervenants de l’infogérant pour les opérations nécessaires (maintenance corrective, incidents…). o Fourniture des câbles et accessoires hors scopes de l’infogérant à ses intervenants si besoin. o Réaliser les premières vérifications du matériel (healthy checks, triage…) du Data Center des équipements serveurs et réseaux afin de confirmer à l’Infogérant l’envoie sur site d’un intervenant. o Rédiger / mettre à jour les procédures d'exploitation et les modes opératoires. o Mise en place et documentation de contrôles de la facturation mensuelle sur la base des éléments déclaratifs de l’infogérant, et des accès à certains outils permettant de générer des données / rapports. o Assurer la communication et le reporting régulier vers les différentes instances o Piloter le plan de patching des serveurs et équipements des data centers en relation avec le Centre de Service Sécurité et l’infogérant. o Participer aux actions correctrices de non-conformité de l’Active Directory, en procédant aux demandes nécessaires, et en les supervisant jusqu’à résolution. o Suivi du reporting sécurité et vulnérabilités Qualys o Assurer le suivi des Contrats de maintenance hardware et software. o S’assurer de la bonne mise à jour des Runbooks et documentations pour les mécanismes de Failover maintenus par l’Infogérant. - Assister la Gouvernance du périmètre de services Job Scheduling : o Contrôle des documentations. o Suivi récurrent de la prestation avec le nouveau prestataire. o S’assurer que la roadmap de versioning des logiciels est bien appliquée. o Suivi de la performance de l’Infogérant. o Gérer la coordination avec les différents acteurs Infogérance, d’hébergement, et l’Infogérant en charge des services de Job Scheduling. o Assurer le reporting et les alertes nécessaires - Suivi et préparation du Change Advisory Board (CAB) : o Passer en revue et préparer les tickets éligibles au CAB hebdomadaire, en fonction des origines des tickets. o Créer les tickets Change en fonction du besoin. o Suivi opérationnel des Changements. o Challenger les différentes parties prenantes sur la documentation et la conformité des tickets Change. o Evaluer les impacts et vérifier les dépendances sur l’infrastructure.

Freelance

Mission freelance
Chef de projet Data RGPD

PARTENOR
Publiée le
Master Data Management (MDM)
Rgpd

1 an
500-700 €
Paris, France

Afin d'accompagner notre croissance et de renforcer nos équipes chez l'un de nos clients grands comptes, nous recherchons un(e) : Chef de projet Data conformité RGPD F/H Objectif : Accompagnement à la conformité des activités de traitement des données du groupe selon les différentes obligations réglementaires auxquelles l’entreprise doit se conformer. Mission : Animation de réunions ou comités de suivi des actions de conformité, Rédaction ou mise à jour de documents technico-fonctionnels, Intégrer les principes de la protection des données dès la phase de conception des projets. Contribuer à la production d'outils d'évaluation de la conformité Production de notes sur la veille réglementaire data et suivi de l’actualité et ses impacts sur les activités du groupe notamment SI Production de grilles d’analyse de risques sur la vie privée, de critères et conditions d’anonymisation de données ou de règles de purge et archivage de données Assurer la veille règlementaire (RGPD, Data Act)

Freelance

Mission freelance
Data engineer (Snowflake obligatoire) H/F

LeHibou
Publiée le
Snowflake
Talend

3 ans
510-670 €
Guyancourt, Île-de-France

Notre client dans le secteur Infrastructure, BTP et matériaux de construction recherche un data engineer expert de minimum 8 ans d'experience H/F Descriptif de la mission: Le client est un acteur majeur dans le secteur de la construction, vous rejoindrez une équipe de data engineering. Compétences recherchées : - Excellent niveau SQL - Missions précédentes ou certification Snowflake et sont en capacité de développer des procédures snowflake mais également de travailler sur des sujets de modélisations de données (Datamanagement, Datawarehouse). - Des connaissances en Talend sont aussi nécessaires, mais la priorité repose sur de fortes compétences en modélisation et SQL. -Connaissance d'ETL (en particulier Talend) Les Data Engineers vont être amenés à : Réaliser le cadrage technique Créer l’ensemble de la chaine d’ingestion de la donnée, aussi bien sur des sources tabulaires que sur du JSON provenant d’API d’IOT. Travailler à l’amélioration de notre processus de QOS / QOD mais également notre chaine CI/CD Il est important que le consultant soit dynamique et en capacité d’échanger avec des équipes métiers (dimension fonctionnelle de leurs travaux)

Freelance

Mission freelance
Data Engineer Spark Scala Confirmé – Projet Data & Finance

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
Hadoop

36 mois
330-480 €
Île-de-France, France

Vous rejoindrez une DSI spécialisée en Finance dans le cadre d’un programme stratégique de transformation, visant à moderniser et optimiser les outils de gestion comptable et de reporting. Ce programme ambitieux, s'étalant sur plusieurs années, se concentre sur la mise en place d'une assiette comptable de référence, ainsi que sur la migration et l'optimisation des systèmes d’information en environnement Big Data. Vos responsabilités principales incluent : Optimisation de la performance des traitements : garantir des temps d'exécution rapides, une utilisation optimisée des ressources et une fiabilité accrue pour répondre aux volumes croissants des données en 2024 et 2025. Développement et monitoring : contribuer au développement d’outils de monitoring technique et fonctionnel pour renforcer la robustesse des systèmes en place. Participation au développement agile : collaborer étroitement avec les équipes locales et internationales en mode Agile (SCRUM).

Freelance

Mission freelance
Product Owner orienté technique / Data

INSYCO
Publiée le
Agile Scrum
AWS Cloud
Microservices

3 ans
500-650 €
La Défense, Île-de-France

Bonjour, Nous recherchons pour notre client grand compte un Product Owner orienté technique / Data Un background technique et/ou data est primordial pour ce poste. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence VSE/POD/4582 en objet de votre message Le contexte Le domaine concerné (secteur médias) est au cœur du mode de fonctionnement de notre client. Il recouvre l'ensemble des systèmes applicatifs permettant l'ingestion et le maintien d'une documentation claire. Les enjeux du domaine concernent à la fois la capacité d'intégrer plus d’éléments, leur consolidation, l'optimisation des process de mise à jour. Nous recherchons un profil issu d'une formation bac+5 avec une expérience et/ou connaissance prononcée dans le domaine de la data. Vous serez rattaché hiérarchiquement au responsable du domaine, et serez amené à vous approprier les différents processus d'ingestion et de traitement automatisé des données entrantes du référentiel. En tant que Product Owner, vous serez le garant de la vision produit en étroite collaboration avec le Tech Lead de l'équipe pour définir les nouvelles évolutions ou corrections à apporter dans un contexte SAFe La prestation attendue Cadrage de besoins métiers en collaboration avec le PM et les métiers Mise en place d'ateliers collaboratifs avec le métier pour définir les nouvelles règles à appliquer Préparation des sprints planning Participation aux sessions de backlog refinement / 3 amigos Préparation du PI Planning avec le product manager Rédaction des user stories et Features Lancement de traitements (batchs, micro-services, etc.) et vérification des résultats de sortie en base de données ou sur AWS (qualification de nouvelles règles, validation d'US, etc.) Validation (test) des user stories et Tests E2E Restitution du travail effectué par l'équipe à chaque sprint (via la sprint review)

CDI

Offre d'emploi
Data Engineer Talend à Dax

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Snowflake

36k-75k €
Dax, Nouvelle-Aquitaine

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Freelance

Mission freelance
Data Architecte PowerBI

Trait d'Union Consulting
Publiée le
Databricks
Microsoft Power BI

1 an
500-650 €
Saint-Denis, Île-de-France

Dans le cadre d’un projet stratégique, notre client, acteur majeur dans le secteur des transports, recherche un consultant Data expérimenté pour renforcer son équipe. Vous interviendrez sur la conception et la mise en œuvre de solutions data, en étroite collaboration avec les équipes métiers et techniques. Vos principales missions seront : Maintien et optimisation des rapports existants. Conception et réalisation de nouveaux rapports avec modélisation de la base de données associée. Rédaction des spécifications des alimentations permettant à Databricks d’alimenter le modèle de données. Participation à l’architecture et à l’intégration des solutions data. Exemple de projet : création d’une application à destination des chauffeurs de bus pour leur permettre de vérifier leur ponctualité à chaque arrêt.

Freelance

Mission freelance
NL // Coordinateur technique / Team leader Data center

ALLEGIS GROUP
Publiée le
Data Center

6 mois
100-3k €
Marseille, Provence-Alpes-Côte d'Azur

Bonjour, Je recherche pour mon client grand compte basé à Marseille, un Responsable technique / Chef d'équipe Data center . S'agissant de la mission : Pilotage et support de l’équipe Implantation et câblage Pilotage des équipes de proximité en environnement multi sites Amélioration continue par la mise à jour des bases documentaires Assistance aux projets d'infrastructure (intégration de nouveaux équipements) Urbanisation des espaces et optimisation de l'existant Gestion des requêtes client (demandes et incidents) : réception, qualification, clôture Contrôle de la bonne tenue des salles informatiques ou vérification (recette d’installation, de câblage) Déploiement / Décommissionnement des équipements Si le poste vous intéresse, n'hésitez pas à me partager votre CV et à me contacter . A bientôt Natàlia- TEKsystems

CDD
CDI
Freelance

Offre d'emploi
Consultant Data Migration & Données produits

fsystem
Publiée le
Azure
ERP
Microsoft Power BI

12 mois
10k €
Paris, France

4/5 -> 1 jour dans les bureaux à Paris / 3 à la défense Début : ASAP Analyser les structures de données actuelles (M3, Aptos) et celles du nouveau PLM (Centric). Élaborer les spécifications fonctionnelles et techniques pour le mapping des données entre les systèmes (Centric, M3, Aptos). Identifier et résoudre les écarts dans les structures de données. Définir les processus de nettoyage et d’enrichissement des données. Coordonner les actions avec les équipes métiers et techniques. Garantir la qualité et la conformité des données migrées avec les exigences du PLM Centric et les standards GCP. Participation aux chantiers d’analyse et de reporting avec Microsoft/Azure Data & AI (Power BI) . Collaboration sur les projets intégrant Salesforce . Compétences requises : Expérience avec les ERP (notamment M3), les outils PLM (Aptos, Centric). Expertise en analyse et migration des données. Maîtrise des outils de reporting (Power BI). Connaissance des plateformes cloud (Microsoft Azure).

Freelance

Mission freelance
Développeur Big Data

W Executive France SAS
Publiée le
Apache Spark
CI/CD
Java

6 mois
400-640 €
Lyon, Auvergne-Rhône-Alpes

Détecter, proposer et suivre les optimisations des requêtes SQL, PL/SQL Assurer le support aux équipes de développement Apporter une expertise transverse sur Spark Assurer e la création, la maintenance, l'optimisation et la sécurité des bases de données Veille technologique sur les outils utilisés au sein du projet Partager et formation sur les guides de bonnes conduites Accompagnement des autres développeurs Spark sur le projet Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données

CDI

Offre d'emploi
Administrateur Systèmes LINUX (H/F)

GROUPE ARTEMYS
Publiée le
Administration linux
Ansible
Apache Tomcat

34k-38k €
Louviers, Normandie

Administrateur Systèmes LINUX (CDI) Localisation : Louviers (27) Mode de travail : Hybride Date de démarrage : Immédiate (bien-entendu, on vous attend si vous avez un préavis 😉). Fourchette de salaire : Entre 34K et 38K € L’ IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . 👍 Alors, vous nous rejoignez ?! Notre site de l’agglomération de Rouen recrute dès à présent un.e A dministrateur Systèmes LINUX en CDI. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un grand acteur du traitement de la donnée situé du côté de Louviers auprès duquel vous aurez la possibilité de : · Gérer et administrer des environnements de production Linux, infrastructures et applications. · Traiter des incidents de niveau 3 · Participer activement dans le cadre des projets d’évolutions techniques, · Créer des scripts d’installation sur les serveurs d’application, · Automatiser et intégrer en continue avec Jenkins · Optimiser la performance des systèmes et applicatifs · Participer aux phases de validation technique lors des mises en production, · Ecrire de la documentations techniques et procédures d’exploitation

Freelance

Mission freelance
Expert en Data Leak Prevention (F/H)

ODHCOM - FREELANCEREPUBLIK
Publiée le
McAfee
Microsoft Power BI

3 ans
100-500 €
Toulouse, Occitanie

Informations sur la mission : Localisation : Principalement à Balma (préféré), avec possibilité d’être basé à Paris moyennant des déplacements ponctuels à Balma (4 fois 2 jours par an). Télétravail : 10 jours par mois autorisés, avec 3 jours obligatoires sur site. Durée de la mission : Long terme, potentiellement sur 3 ans (contrat d’un an renouvelable). Disponibilité : Pas d’urgence immédiate ; le client est prêt à attendre le bon profil, même s’il est disponible dans plusieurs mois. Missions et Objectifs L’objectif principal est d’intégrer et d'optimiser les solutions de Data Leak Prevention (DLP) pour sécuriser les données sensibles du groupe, en respectant les exigences de sécurité et de conformité du secteur bancaire. Le consultant travaillera dans le département Cloud, Application, Data et Expertise Sécurité de la Direction Sécurité du client et contribuera à un projet stratégique de prévention des fuites de données. Activités principales : Définition et Paramétrage des règles DLP : - Concevoir, configurer et optimiser les règles de prévention des fuites de données afin de minimiser les risques. Analyse et Suivi des événements DLP : - Examiner et analyser les événements générés, en identifiant les faux positifs pour les réduire efficacement. - Suivre les remédiations et assurer un traitement rapide des incidents de sécurité liés aux fuites d’information. Création de Rapports et Tableaux de bord : - Élaborer des rapports détaillés et des tableaux de bord pour suivre les indicateurs de performance et l'activité DLP. Mise en œuvre de nouveaux outils et optimisation des solutions : - Participer activement aux choix d’outils DLP et accompagner leur intégration dans les systèmes de sécurité existants. - Optimiser les solutions de détection et contribuer à la mise en place d’un environnement de sécurité proactif. Livrables attendus - Solutions et Règles DLP : Définition et paramétrage des règles - Rapports d'activité et tableaux de bord : Suivi des indicateurs et analyse de l’activité DLP - Documentation : Guides et standards de sécurité pour appuyer les procédures DLP

Freelance
CDI

Offre d'emploi
Date engineer

HN SERVICES
Publiée le
Apache Spark
Scala

2 ans
10k-57k €
Paris, France

Contexte : Le Groupe a lancé le programme qui se déroulera sur 5 ans (2020 / 2025). Une équipe dédiée a été créée pour la durée du programme. Ce programme s'articule autour des 4 principaux chantiers ci-dessous : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI (prudentiel notamment) basé sur cette assiette comptable de référence En particulier, le chantier "CARAT" Assiette Comptable de Référence comprend trois sous-chantiers majeurs au sein du datalake Finance et Risque : • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks mutualisée qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (SRB, PVA, Anatitres, Anacrédit, etc.) Au sein du chantier CARAT, travaillant en mode agile (SCRUM), la mission consistera à prendre part aux développements sur GASPARD, tout en étant garant de la pérennité et la non régression de l’outillage déjà en place, sur les deux sujets ci-dessous : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle L’équipe est principalement localisée à Paris mais dispose de ressources à Porto. L’anglais est donc d’usage dans l’équipe.

Freelance

Mission freelance
Ingénieur développement Adobe Campaign H/F

Hays Medias
Publiée le
Adobe Campaign
Javascript
Red Hat Linux

3 ans
100-2k €
Montpellier, Occitanie

Nous recherchons un Ingénieur de développement Adobe Campaign Confirmé (H/F) pour le compte de notre client spécialisé dans le secteur des assurances à Montpellier (34) Il s'agit d'une mission longue (3 ans) avec 3 jours de télétravail possible par semaine Période de démarrage : ASAP Mission: - Estimer, concevoir et développer des évolutions sur Adobe Campaign. - Analyser et résoudre les problèmes liés aux diffusions et workflows. - Collaborer avec les équipes pour garantir la qualité et la satisfaction client.

Freelance
CDI

Offre d'emploi
PRODUCT OWNER DATA

UCASE CONSULTING
Publiée le
Azure
Databricks

3 ans
28k-180k €
Île-de-France, France

Dans le cadre d'un projet de transformation et de modernisation d'une régie, vous serez chargé(e) de concevoir et de gérer les fonctionnalités d’un datalake pour le stockage et l’analyse des données. Vos missions principales seront : Participer à la définition de la vision produit des fonctionnalités qui vous seront confiées. Piloter les projets définis dans la roadmap produit. Cadrer, prioriser, et structurer les besoins métiers. Planifier et organiser les évolutions du produit. Rédiger les User Stories (US) et maintenir le backlog de votre équipe. Rédiger et mettre à jour la documentation produit relative aux fonctionnalités. Analyser de manière autonome les problématiques techniques et proposer des solutions adaptées. Coordonner avec l’équipe technique pour résoudre les incidents.

575 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous