Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 726 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Knowledge Process Owner (Lille)

Cherry Pick
Publiée le
Data management

12 mois
500-550 €
Lille, Hauts-de-France

Cherry Pick est à la recherche d'un "Data Knowledge Process Owner" pour un client dans le secteur du commerce de détail. Contexte de la mission Au sein du Data Governance Office, vous serez le référent du processus de Data Knowledge. Le processus Knowledge est animé en mode fédéré : il est défini et animé par l’équipe Data Gouvernance Office, et mis en œuvre par les métiers au sein des 9 domaines digitaux du groupe. Le processus knowledge est articulé autour de 2 axes : La modélisation fonctionnelle des concepts métiers La définition des concepts fonctionnels Le Data Catalog (Collibra) est le réceptacle de l’ensemble de ces concepts et l’outil de référence de la connaissance de la donnée au sein de l’entreprise. Ce processus est inscrit dans le workflow de mise sous contrôle des données du groupe, en amont et avec dépendances des processus d'accessibilité et de qualité. Les enjeux de cette mission : Assurer la continuité de l’animation et de la consolidation du processus de Knowledge au sein de l’entreprise S’assurer l’utilité et la valeur de chaque étape du processus de Knowledge, proposer/mettre en place des évolutions pour optimiser la valeur Participer activement à la conduite le changement vers un nouvel operating model

Freelance
CDI
CDD

Offre d'emploi
Infrastructure Architect (Ref : AG)

FIRST CONSEIL
Publiée le
Azure
Big Data
Google Cloud Platform

3 ans
10k-100k €
Paris, France

Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)

Freelance

Mission freelance
Ingénieur IT / OT (SCADA - Industrie 4.0)

Mon Consultant Indépendant
Publiée le
Data science
SCADA

6 mois
600-700 €
Nogent-sur-Seine, Grand Est

En collaboration avec l’équipe du programme de transformation du métier des malteries, vous serez responsable des pré-requis techniques permettant le déploiement d’une solution d’intelligence artificielle. Le projet Industrie 4.0 vise notamment à optimiser les processus de fabrication industrielle, sur les sites industriels à l’international du client. Vous aurez en charge la standardisation des données industrielles sur la base des supervisions, des PLC et des solutions d'automatisation utilisés en production. Vous serez intégré à l’équipe d’ingénieurs IT / OT, qui vous guidera, dans les premières semaines, pour appréhender le processus industriel de maltage. En interaction quotidienne avec des équipes pluridisciplinaires (Business Product Owner, Product Manager, responsables de production et maintenance des sites, chefs de projet Transformation…), vous reporterez au chef de projet Industrie 4.0, sous la codirection du Directeur Industriel et Directeur Transformation. Vos principales missions : Standardiser les données reçues via les automates des sites industriels (création du core model des données industrielles) Créer les spécifications des modèles de données (à partir du code automate, basés sur les supervisions WinCC, Schneider…) pour chaque étape du processus industriel de maltage, à destination du partenaire externe en charge du traitement de ces données Gérer les éventuelles pannes automates et/ou AVEVA (Historian) avec les sites industriels, de manière adhoc Participer aux réunions de pilotage du projet Industrie 4.0 en tant qu’expert technique PROFIL RECHERCHE L'ingénieur OT retenu devra avoir une expérience pratique des systèmes SCADA et une bonne expérience de l'automatisation des processus, en secteur industriel. COMPETENCES SOUHAITEES +3 ans d’expérience sur la création et la maintenance de codes automates / supervisions Expérience en tant qu’automaticien en industrie (la connaissance du secteur agroalimentaire et/ou agricole sera appréciée) Raisonnement analytique et appétence pour le traitement de données Bonne communication écrite et orale Anglais indispensable (B2 minimum) ENVIRONNEMENT & CONDITIONS MISSION La mission est d’une durée initiale de 3 mois (renouvelable), avec un rythme idéalement de 5 jours par semaine (possible 4j). Démarrage immédiat requis. Après une période d’intégration à l’équipe et de formation (deux semaines environ, à 1h de Paris en train), au siège et auprès du partenaire IA (lieu : La Défense), la mission pourra avoir lieu à 90% en distanciel. Des déplacements ponctuels sur les sites industriels (République Tchèque, Allemagne, Serbie, UK…), à raison de 2-3 jours par mois maximum, sont à prévoir. Budget : 600-650€/jour (+ prise en charge des déplacements et des déjeuners sur site)

Freelance
CDI

Offre d'emploi
Data Engineer

SARIEL
Publiée le
Agile Scrum
Apache Spark
Big Data

3 ans
10k-62k €
Paris, France

Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

CDI

Offre d'emploi
Profils Data en pré-embauche

SARIEL
Publiée le
Big Data

10k-65k €
Paris, France

Pour un de nos clients situé dans la région parisienne nous cherchons en pré-embauche, les différents profils suivants: Profils Data maitrisant DataLake. La connaissance de l'anglais est un vrai plus. Nous recherchons obligatoirement des profils en CDI et non des indépendants. Le salaire est compris entre 45 et 55 Ke pour les confirmés et entre 55 et 60-65 Ke pour les experts. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

CDI

Offre d'emploi
Ingénieur DATA-BI H/F

AT&C
Publiée le
BI
Big Data

10k-60k €
Marseille, Provence-Alpes-Côte d'Azur

AT&C Monaco recherche pour l’un de ses clients sur Marseille, un Ingénieur DATA-BI H/F en CDI à pourvoir rapidement. Rattaché au Responsable de production, en tant qu’Ingénieur DATA-BI vous intégrerez le pôle Data et travaillerez conjointement avec les équipes de développement et les chefs de projets métier en apportant votre expertise et votre support sur l’ensemble du cycle de vie de développement des entrepôts de données décisionnelles. Vos missions : Conception de l’architecture des entrepôts de données : o Analyser et modéliser les besoins « métiers » o Participer et co-animer les ateliers métiers o Rédiger les comptes-rendus de réunions et les spécifications technico-fonctionnelle o Participer à la conception et au développement de l’architecture de l’entrepôt de données décisionnel et du Datalake o Maintenir les traitements d’alimentation du DataWareHouse (DWH) o Maintenir la documentation du DWH et du Datalake Restitution des données et formation des utilisateurs : o Développer les domaines métiers, les rapports et réaliser des extractions en fonction de la feuille de route ou de demandes Ad-Hoc. o Assurer la présentation des données selon les besoins de l’utilisateur o Assurer la formation des utilisateurs à l’utilisation des outils décisionnels o Structure les accès au décisionnel liés aux rôles et périmètres Support technique et assistance aux utilisateurs : o Participer aux corrections d’incidents, demandes d’évolutions et d’informations utilisateurs et chefs de projet métier o Accompagner le déploiement à l’ensemble du groupe d’un nouvel outils de Reporting : PowerBI o Assurer la veille technologique et traiter l’obsolescence technique o Suivre et gérer les performances du DWH et du Datalake

Freelance

Mission freelance
Architect data

ESENCA
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
500-600 €
Lille, Hauts-de-France

L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev

Freelance
CDI

Offre d'emploi
Architecte Data Gouvernance - TAD

GRADIANT
Publiée le
Data management
Gouvernance

6 mois
10k-200k €
Paris, France

Nous recherchons un expert en administration de catalogue de données, à la fois sur les aspects techniques et fonctionnels. Vous serez responsable de la préparation et de la rédaction de la documentation technique (TAD) en collaboration avec les équipes IT Sécurité, Architecture, Cloud et DevOps. Vous assurerez également la mise en place technique du catalogue de données, et travaillerez avec le Responsable Gouvernance des Données et le Responsable Qualité des Données pour rédiger le paramétrage fonctionnel du catalogue (rôles et responsabilités, flux de travail, métamodèle). À noter : Le catalogue de données sera très probablement MS Purview (en cours de confirmation), donc une expertise sur cet outil est requise.

CDI
Freelance

Offre d'emploi
Business Analyst Asset Management (FH)

Taleo Capital
Publiée le
Confluence
Data management
JIRA

1 an
60k-70k €
Paris, France

Dans le cadre d’un projet d'implémentation d’un outil de performance ( Statpro de Confluence ), notre client recherche un consultant sénior pour accompagner l'équipe en charge du projet. Ce projet implique une coordination étroite entre l’équipe Performance, l’équipe Développement et l’éditeur. Le consultant devra jouer un rôle clé dans l’analyse des besoins, la rédaction des spécifications, et le suivi de l’implémentation. Collecte du besoin : Recueillir les besoins fonctionnels auprès de l'équipe Performance. Animer des workshops avec les parties prenantes pour analyser la faisabilité, prioriser les demandes, et identifier les règles de gestion associées. Rédaction des spécifications fonctionnelles : Rédiger les spécifications fonctionnelles détaillées et générales en fonction des besoins recueillis. Prioriser les projets ou les lots d’un projet en fonction des objectifs métiers et techniques. Coordination et suivi de l’implémentation : Assurer une coordination fluide entre l'équipe Performance, l'équipe Développement et l’éditeur externe. Interagir avec l'éditeur pour suivre l’avancement de l’implémentation et s’assurer du respect des délais et des exigences. Documentation et formation : Mettre en place et mettre à jour la documentation encadrant les processus du projet. Rédiger des procédures et guides utilisateurs pour accompagner la mise en production. Assurer la formation des utilisateurs pour garantir une bonne adoption de l'outil. Suivi de la recette et mise en production : Établir le cahier de recette et réaliser la recette en collaboration avec la Maîtrise d’Œuvre. Accompagner la mise en production de l'outil et s’assurer de son bon fonctionnement. Reporting : Produire des synthèses régulières sur l’avancement du projet pour les parties prenantes. Assurer un reporting précis et fiable à la direction et aux équipes impliquées.

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

Freelance
CDI

Offre d'emploi
CHEF DE PROJET DATA PLATEFORME COMPLIANCE

VISIAN
Publiée le
Data management
Rgpd

1 an
10k-49k €
Montreuil, Île-de-France

A/ Déclinaison de la stratégie de gestion des données dans le cadre des projets - Cartographie des données dès la phase de définition des besoins - Identification avec le métier les données importantes (critiques, sensibles, stratégiques, confidentielles…) - Accompagnement de la mise en œuvre des contrats d’usage définis par les métiers - Validation de la définition et l’application des règles de contrôles d’intégrité, sécurité et protection de la donnée - Accompagnement de la mise en œuvre des exigences de qualité et plans de contrôle définis par le métier - Prise en compte des exigences sur les données dans la stratégie de test B/ Déclinaison de la stratégie de gestion des données dans le cadre de la maintenance - Intégration de la maintenance des cartographies de flux de données (linéage) - Evaluation de la dette sur la qualité, l’intégrité, la sécurité et la protection des données dans le cadre des revues régulières C/ Pilotage de l’alignement des roadmaps : - Veille de l’alignement avec le cadre de référence du Data Management - Définition du plan de remédiation de la qualité, l’intégrité, la sécurité et la protection des données sur son périmètre - Contribution à l’identification des pistes de rationalisation des espaces de stockage et des outils de reporting sur son périmètre - Contribution à la mise en œuvre d’un outillage adapté

Freelance

Mission freelance
CLOUDERA DATA ANALYST

AIS
Publiée le
Big Data
Cloudera

1 an
100-550 €
Nantes, Pays de la Loire

Nous recherchons un Administrateur Bases de Données (DBA) freelance pour une mission stratégique. Vous serez responsable de la gestion et de l’optimisation des bases de données d’une application critique. Vos principales missions incluront : Assurer le bon fonctionnement et la maintenance des bases de données. Optimiser l’exploitation et la performance des applications. Participer aux décisions de mise en production et gérer les incidents. Rédiger des retours d’expérience et maintenir la documentation à jour.

Freelance
CDI

Offre d'emploi
Consultant Data Gouvernance - Framework

GRADIANT
Publiée le
Data management

6 mois
10k-70k €
Paris, France

Nous recherchons un expert en gouvernance des données pour rédiger et définir le cadre de gouvernance des données. Ce document devra inclure l'organisation de la gouvernance, les rôles et responsabilités, les politiques de données et les normes de conformité, ainsi que les règles de sécurité et d’accès (en se concentrant sur la plateforme d'analyse de données et les systèmes sources, et sur les standards du catalogue de données). Vous travaillerez en collaboration étroite avec le Responsable de la Gouvernance des Données et le Responsable Qualité des Données pour co-rédiger ce cadre.

Freelance

Mission freelance
Data migration

KatchMe Consulting
Publiée le
Data management
SAP

3 mois
100-520 €
Lille, Hauts-de-France

Dans le cadre des déploiements SAP aux US et Mexique nous devons renforcer l’équipe Customer Master Data pour aider le BDO -Business Data Owner – dans la collecte, la préparation, et le chargement des data Customer. Liste non exhaustive des activités : - Collecte des data à transférer dans SAP - S’assurer que les data respecterons les standards définis - Préparer les outils et modus opératoires pour effectuer les chargements - Charger les données - Participer à la résolution des anomalies de chargement

Freelance

Mission freelance
Architecte et expert Oracle Exadata

STHREE SAS pour HUXLEY
Publiée le
Big Data
Infrastructure
Oracle Database

3 mois
800-900 €
Île-de-France, France

Contexte : Dans le cadre du développement de notre infocentre RH pour notre client et de la solution BI RH, nous recherchons un Architecte Oracle Exadata. Ce rôle crucial impliquera d'abord une participation active à un Proof of Concept (POC), puis une implication dans le projet de migration depuis l'infrastructure BigData vers Oracle Exadata. Missions : 1. Conseil et Expertise : - Conseiller sur l'utilisation optimale d'Oracle Exadata. - Fournir une expertise technique en matière de performance, de fiabilité et de sécurité des bases de données. 2. Architecture : - Définir et concevoir l'architecture de la base de données Oracle Exadata. - Assurer l'intégration de la solution Oracle Exadata avec les systèmes existants. 3. Optimisation : - Identifier et implémenter des stratégies d'optimisation des performances des bases de données. - Surveiller et ajuster les configurations pour maximiser l'efficacité opérationnelle. 4. Stratégie d'Administration : - Développer et mettre en place une stratégie globale d'administration des bases de données Oracle Exadata. - Superviser les procédures de sauvegarde, de récupération et de maintenance des données. 5. Participation au POC : - Travailler en étroite collaboration avec les équipes projet pour le POC de l'infocentre RH du client et la Solution BI RH. - Apporter des solutions techniques et assurer la faisabilité du projet. 6. Post-POC et Migration : - Intervenir dans le projet de migration de l'infrastructure BigData vers Oracle Exadata. - Fournir un support continu et des améliorations post-migration.

Freelance

Mission freelance
Tech Lead Confirmé – Azure Factory (Nantes ou Paris)

Intuition IT Solutions Ltd.
Publiée le
Azure Data Factory
Databricks

4 mois
600 €
Paris, France

Description de la mission : Dans le cadre d'un projet stratégique au sein d'une organisation en pleine transformation numérique, nous recherchons un Tech Lead Confirmé pour prendre en charge la direction technique de notre Azure Factory . Vous serez responsable de l'architecture, de la mise en œuvre et de l'optimisation des processus de développement dans un environnement cloud. Votre mission consistera à : Piloter les équipes techniques dans la conception et la réalisation des solutions basées sur Azure Data Factory . Garantir la qualité des livrables et respecter les délais tout en supervisant les bonnes pratiques de développement. Collaborer étroitement avec les différentes parties prenantes, incluant les équipes métiers, pour comprendre leurs besoins et transformer ces derniers en solutions techniques performantes. Être le référent technique sur l'ensemble des sujets liés à l'intégration et l'exploitation des données dans le cloud Azure. Accompagner l'équipe dans le développement des compétences autour des technologies Azure, avec une forte emphase sur Azure Data Factory . Contribuer à l'amélioration continue des processus de développement, de déploiement et de monitoring des applications.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

726 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous