Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 355 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Data Architect

UNITED SOLUTIONS
Publiée le
Big Data
Google Cloud Platform

12 mois
60k-70k €
Lille, Hauts-de-France

Contexte et Enjeux de la Mission : Dans le cadre d’une transformation numérique ambitieuse , une grande entreprise française, leader dans son secteur, recherche un(e) Data Architect pour moderniser et unifier son écosystème de données. Le projet se concentre principalement sur l’implémentation et l’optimisation d’une architecture sur Google Cloud Platform (GCP) , visant à améliorer la gestion des données à grande échelle et la qualité des insights pour les équipes métiers. Basé à Lille , vous interviendrez à un moment clé de ce projet stratégique, avec pour objectif de créer une architecture évolutive, scalable et résiliente, tout en facilitant l'exploitation des données pour l'ensemble des départements. Vos Responsabilités : Conception et mise en place d’une architecture data robuste sur Google Cloud Platform (GCP), en accord avec les meilleures pratiques de gestion des données et de sécurité. Structurer et gérer les pipelines de données pour garantir des flux fluides, fiables et sécurisés. Assurer la qualité et la gouvernance des données via la mise en place de standards, d’outils de monitoring, et de processus de validation. Collaborer de manière étroite avec les équipes Data Engineering et Data Science pour maximiser l’utilisation des données et proposer des améliorations continues. Apporter une vision stratégique à long terme, en anticipant les évolutions nécessaires pour adapter l'architecture aux besoins futurs de l'entreprise. Documenter les solutions et former les équipes internes sur l'utilisation et la maintenance des nouvelles structures.

Freelance
CDI

Offre d'emploi
Data Manager – Video - Automobile (F/H)

CELAD
Publiée le
Data management

12 mois
60k-65k €
Créteil, Île-de-France

📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Nous recherchons un Data Manager pour renforcer son équipe dédiée à la validation du système de surveillance des conducteurs . Ce système est basé sur des caméras embarquées dans l'habitacle des véhicules, qui enregistrent des données telles que le niveau de fatigue, de vigilance et de stress du conducteur. L'objectif est de gérer l'ensemble du cycle de vie des données générées, depuis leur collecte jusqu'à leur archivage et leur traitement. Vos responsabilités : Assurer la gestion des données de validation (collecte, traitement, stockage, archivage) pour le système DMS. Tâches principales : Prendre les disques durs contenant les données collectées dans les véhicules. Gérer et stocker ces données (incluant des volumes massifs tels que des vidéos en streaming). Archiver les données et estimer les coûts liés à ce processus. Transférer les données vers les différents sites du client. Assurer la conformité aux exigences RGPD. Injecter les données dans des bancs de tests pour la validation. Étudier des solutions de stockage sur le cloud (GCP et AWS par exemple).

Freelance

Mission freelance
Ingénieur IT / OT (SCADA - Industrie 4.0)

Mon Consultant Indépendant
Publiée le
Data science
SCADA

6 mois
600-700 €
Nogent-sur-Seine, Grand Est

En collaboration avec l’équipe du programme de transformation du métier des malteries, vous serez responsable des pré-requis techniques permettant le déploiement d’une solution d’intelligence artificielle. Le projet Industrie 4.0 vise notamment à optimiser les processus de fabrication industrielle, sur les sites industriels à l’international du client. Vous aurez en charge la standardisation des données industrielles sur la base des supervisions, des PLC et des solutions d'automatisation utilisés en production. Vous serez intégré à l’équipe d’ingénieurs IT / OT, qui vous guidera, dans les premières semaines, pour appréhender le processus industriel de maltage. En interaction quotidienne avec des équipes pluridisciplinaires (Business Product Owner, Product Manager, responsables de production et maintenance des sites, chefs de projet Transformation…), vous reporterez au chef de projet Industrie 4.0, sous la codirection du Directeur Industriel et Directeur Transformation. Vos principales missions : Standardiser les données reçues via les automates des sites industriels (création du core model des données industrielles) Créer les spécifications des modèles de données (à partir du code automate, basés sur les supervisions WinCC, Schneider…) pour chaque étape du processus industriel de maltage, à destination du partenaire externe en charge du traitement de ces données Gérer les éventuelles pannes automates et/ou AVEVA (Historian) avec les sites industriels, de manière adhoc Participer aux réunions de pilotage du projet Industrie 4.0 en tant qu’expert technique PROFIL RECHERCHE L'ingénieur OT retenu devra avoir une expérience pratique des systèmes SCADA et une bonne expérience de l'automatisation des processus, en secteur industriel. COMPETENCES SOUHAITEES +3 ans d’expérience sur la création et la maintenance de codes automates / supervisions Expérience en tant qu’automaticien en industrie (la connaissance du secteur agroalimentaire et/ou agricole sera appréciée) Raisonnement analytique et appétence pour le traitement de données Bonne communication écrite et orale Anglais indispensable (B2 minimum) ENVIRONNEMENT & CONDITIONS MISSION La mission est d’une durée initiale de 3 mois (renouvelable), avec un rythme idéalement de 5 jours par semaine (possible 4j). Démarrage immédiat requis. Après une période d’intégration à l’équipe et de formation (deux semaines environ, à 1h de Paris en train), au siège et auprès du partenaire IA (lieu : La Défense), la mission pourra avoir lieu à 90% en distanciel. Des déplacements ponctuels sur les sites industriels (République Tchèque, Allemagne, Serbie, UK…), à raison de 2-3 jours par mois maximum, sont à prévoir. Budget : 600-650€/jour (+ prise en charge des déplacements et des déjeuners sur site)

Freelance
CDI

Offre d'emploi
Data Analyst Dataiku - secteur bancaire

VISIAN
Publiée le
Dataiku
Tableau Desktop

1 an
10k-58k €
Montreuil, Île-de-France

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre du périmètre Infrastructure (Reseau, Telecom, Sécurité, Data, Cloud, Server) et le périmètre applicatif (sécurité, applications transverses mutualisées). La prestation couvre les activités de Front et de back (gestion des Incidents, gestion des problèmes, gestion des Changements, dashbords et reportings inclus) et est soumise aux interventions en horaires non ouvrés avec couverture horaire de 08h00 à 18h00. Notre rôle : Notre service a pour mission de - facilite la supervision de la stabilité et de la qualité de la production - sécurise et optimise les processus de gestion des services informatiques suivants : IT change, IT incident (dont crise), IT Problem, IT Availability & IT Operations. Nos missions : En tant qu'organisme de réglementation : - surveille et analyse la qualité et le rendement de la production informatique en termes de services informatiques : cadrage des formulaires et des processus, supervision de leur utilisation, mesure des TI Niveau de service de production, partage du statut global, analyse des tendances, mise en évidence des écarts, fournir des recommandations et un plan d'action de suivi. En tant qu'opérateur (Producteur) : - surveille la gestion des services informatiques : gestion des incidents majeurs, revue des problèmes et des plans d'action en s'appuyant sur divers leviers d'alerte et de surveillance, prévenir les écarts sur la stabilité et la disponibilité. Pour se faire : La Tour de Contrôle Groupe développe des rapports de suivi de la production (changements, incidents et problèmes)

Freelance

Mission freelance
Azure Data Architect

Phaidon London- Glocomms
Publiée le
Azure
Azure Data Factory
BI

6 mois
520-650 €
Lyon, Auvergne-Rhône-Alpes

Nous sommes à la recherche d'un Architecte de données Azure pour l'un de nos principaux clients, spécialisé dans la BI et l'analytique. Il s'agit d'un poste en freelance, le candidat sera donc rémunéré sur une base horaire. Rôle : Architecte de données Azure Lieu de travail : Lyon Durée du contrat : 6 mois (Projet d'un an minimum) Travail hybride Date de début : ASAP (novembre) Freelance : Entreprise propre (SASU, Micro-entreprise) ou Portage Salarial Rôle : Recueillir et comprendre les exigences du projet Réalisation de la preuve de concept Industrialisation des projets BI et intégration des données Travailler sur la migration des solutions BI vers Microsoft BI Participer aux ateliers de conception Suivi technique et documentation

Freelance
CDI

Offre d'emploi
Data Engineer

SARIEL
Publiée le
Agile Scrum
Apache Spark
Big Data

3 ans
10k-62k €
Paris, France

Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance
CDI
CDD

Offre d'emploi
Infrastructure Architect (Ref : AG)

FIRST CONSEIL
Publiée le
Azure
Big Data
Google Cloud Platform

3 ans
10k-100k €
Paris, France

Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)

Freelance

Mission freelance
BI Consultant

Phaidon London- Glocomms
Publiée le
BI
Data management
KPI

6 mois
350-500 €
Provence-Alpes-Côte d'Azur, France

1. Gouvernance et alignement des données o Établir et maintenir un cadre structuré de gouvernance des données au sein du département. o Veiller à l'utilisation cohérente de sources de données alignées dans tous les tableaux de bord pour éviter des analyses contradictoires. o Promouvoir et initier des efforts visant à améliorer la qualité des données et à harmoniser les sources de données à travers les fonctions métier. o Servir de point de contact central pour les questions d'alignement et de gouvernance des données. 2. Définir un plan de rationalisation des dashboards commerciaux : o Evaluer l’existant (recensement / évaluation pertinence) o Formaliser les besoin utilisateurs prioritaires (identifier les key users, comprendre les attentes) o Identifier les redondances et simplifications o Définir la cible et le plan pour atteindre cette cible 3. Gestion du changement et formation o Collaborer avec des équipes internes (y compris l'Académie, l'équipe de gestion du changement de la transformation des lignes & tarification et les réseaux des lignes) pour sensibiliser aux tableaux de bord disponibles et à leurs cas d’usage. o Développer et exécuter un plan de rationalisation pour réduire le nombre de tableaux de bord et améliorer leur accessibilité. o Diriger des sessions de formation des utilisateurs et créer des stratégies d’adoption pour les tableaux de bord nouveaux et existants. o Travailler en partenariat avec les parties prenantes métier pour garantir la bonne mise en œuvre des processus de gestion du changement. 4. Collaboration avec les parties prenantes o Travailler en étroite collaboration avec des équipes transversales, y compris l’équipe IT BI et les unités métiers, afin de garantir un alignement fluide des efforts de gouvernance des données et de formation. o Servir d’intermédiaire entre les utilisateurs métiers et le département BI pour répondre aux préoccupations et aux retours liés aux données.

Freelance
CDI

Offre d'emploi
Architect IA et Data

ENGIT
Publiée le
Architecture
Big Data

3 mois
10k-60k €
Les Mureaux, Île-de-France

engIT est une jeune société d'ingénierie, dédiée à l'innovation, animée par des passionnés de technologies et d’innovation en IT créée en 2017 à Sophia Antipolis et aujourd'hui présente à Nice, Aix, Lille, Paris et Monaco... Objets connectés, IA, Big Data, Deep Learning, véhicules autonomes, réalité augmentée, UX, logiciels embarqués, cyber sécurité, Blockchain, Cloud, mobilité, ne sont qu’une partie de nos centres d'intérêts. L’équipe engIT Paris, recherche un/une : Architecte IA et Data Pour accompagner son client

Freelance

Mission freelance
Data Engineer Stambia

HAYS MEDIAS
Publiée le
Snowflake
Tableau de bord

3 ans
100-460 €
Villeneuve-d'Ascq, Hauts-de-France

Analyser, estimer le travail à réaliser et concevoir des solutions à partir des besoins apportés par les Products Owners et les équipes métier Enrichir le Datawarehouse (Snowflake) avec de nouvelles data Transformer et préparer la data (Mapping, table de fait, agrégation, ordonnancement) Construire la data visualisation et les reportings sur Tableau (datasource, dashboard) La stack technique, que l'on souhaite retrouver dans les expériences/formations des consultants, est la suivante : Snowflake, Tableau , Stambia.

Freelance
CDI

Offre d'emploi
Data Analyst

SooIT
Publiée le
AWS Cloud
Python
Tableau software

6 mois
10k-60k €
Croix, Hauts-de-France

Nous sommes à la recherche d'un Sénior Data Analyst qui aura pour mission de supporter des initiatives stratégiques (souvent exploratoires) visant à optimiser la performance. Analyser les performances des sports et de l'offre. Etre le point de contact avec les équipes product management Accompagner les équipes business et être force de proposition dans les analyses et recommandations Tu développes et documentes tes analyses (data sourcing, hypothèses et méthodes analytiques) dans une logique Lean & Agile en respectant les standards appliqués au sein des équipes Tu assures le monitoring des analyses existantes, anticipes les impacts et organises le support. Forte expérience en préparation de données (SQL et Python) en particulier sur une modern data stack Forte expérience en statistiques (compétences analytiques) Expérience en visualisation de données (Tableau) Une première expérience dans le sport/retail

CDI

Offre d'emploi
Profils Data en pré-embauche

SARIEL
Publiée le
Big Data

10k-65k €
Paris, France

Pour un de nos clients situé dans la région parisienne nous cherchons en pré-embauche, les différents profils suivants: Profils Data maitrisant DataLake. La connaissance de l'anglais est un vrai plus. Nous recherchons obligatoirement des profils en CDI et non des indépendants. Le salaire est compris entre 45 et 55 Ke pour les confirmés et entre 55 et 60-65 Ke pour les experts. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

CDI

Offre d'emploi
Ingénieur DATA-BI H/F

AT&C
Publiée le
BI
Big Data

10k-60k €
Marseille, Provence-Alpes-Côte d'Azur

AT&C Monaco recherche pour l’un de ses clients sur Marseille, un Ingénieur DATA-BI H/F en CDI à pourvoir rapidement. Rattaché au Responsable de production, en tant qu’Ingénieur DATA-BI vous intégrerez le pôle Data et travaillerez conjointement avec les équipes de développement et les chefs de projets métier en apportant votre expertise et votre support sur l’ensemble du cycle de vie de développement des entrepôts de données décisionnelles. Vos missions : Conception de l’architecture des entrepôts de données : o Analyser et modéliser les besoins « métiers » o Participer et co-animer les ateliers métiers o Rédiger les comptes-rendus de réunions et les spécifications technico-fonctionnelle o Participer à la conception et au développement de l’architecture de l’entrepôt de données décisionnel et du Datalake o Maintenir les traitements d’alimentation du DataWareHouse (DWH) o Maintenir la documentation du DWH et du Datalake Restitution des données et formation des utilisateurs : o Développer les domaines métiers, les rapports et réaliser des extractions en fonction de la feuille de route ou de demandes Ad-Hoc. o Assurer la présentation des données selon les besoins de l’utilisateur o Assurer la formation des utilisateurs à l’utilisation des outils décisionnels o Structure les accès au décisionnel liés aux rôles et périmètres Support technique et assistance aux utilisateurs : o Participer aux corrections d’incidents, demandes d’évolutions et d’informations utilisateurs et chefs de projet métier o Accompagner le déploiement à l’ensemble du groupe d’un nouvel outils de Reporting : PowerBI o Assurer la veille technologique et traiter l’obsolescence technique o Suivre et gérer les performances du DWH et du Datalake

Freelance

Mission freelance
Architect data

ESENCA
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
500-600 €
Lille, Hauts-de-France

L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev

Freelance
CDI

Offre d'emploi
Ingénieur DATAVIZ TABLEAU Software H/F

STORM GROUP
Publiée le
Microsoft Power BI
MySQL
Python

3 ans
10k-65k €
Île-de-France, France

1 - Contexte et objectifs de la prestation La vision de GCOO (Group Chief Operating Office) est de permettre une excellence opérationnelle de premier ordre dans l’ensemble du Groupe en s’appuyant sur la Technologie (digital, données et IA) et les Talents. GCOO s'appuie sur ses 5 filières pour répondre aux ambitions stratégiques : • Systèmes d'information : Vers plus d'économie d'échelle, de résilience et de croissance • Immobilier : Réduire la consommation d’énergie des bâtiments et optimiser l’expérience des collaborateurs dans l’ensemble du Groupe • Achats : Vers des achats plus durables et plus de synergies • Data Office Groupe : Devenir le meilleur de sa catégorie en matière de transformation des données et bâtir la Banque de demain • Global Solution Centres (GSC) : Vers plus de valeur ajoutée pour les BU GCOO, le département des Infrastructures informatiques (Global Technology Services) est au cœur de la transformation du modèle opérationnel du groupe. Le département Digital Workplace Services a pour responsabilité de définir et d'exploiter les moyens mis à disposition de l'utilisateur final (poste de travail, imprimantes, téléphones portables, assistances personnelles, etc.) et toutes les infrastructures techniques associées (annuaires techniques, services de fichiers, sécurité, etc.). Au sein de l'entité, le service Data Office est en charge de l'ensemble des activités liées à la Data du département, et tout particulièrement sa valorisation. La maitrise fonctionnelle des données associées au Workplace (technique, mesure de la satisfaction utilisateur, etc) est un plus. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Analysis Dans ce cadre, la Prestation consiste à contribuer à/au(x) : • Conception : Contribution aux ateliers de conception de nos solutions, conseils en vue de la création de la Data Visualisation • Collecte et extraction des données : Collecte et rassemblement des données pertinentes à partir de diverses sources (Datalake Groupe, Référentiels Groupes, autre sources, etc...) • Nettoyage et préparation des données : Gestion des données pour éliminer les erreurs et les redondances, et préparation pour une analyse précise. • Visualisation des données (activité principale) : Création des visualisations claires et informatives pour répondre aux besoins ; Outil utilisé dans notre environnement : Tableau Software (Desktop, Prep) ; (PowerBI en étude) • Traitement et maintenance des dashboards : implémentation et maintien en condition opérationnelle de champs calculés complexes et dashboards associés • Documentation : information sur les avancées en matière d’outils et de techniques d’analyse de données pour améliorer continuellement les méthodes utilisées. Contexte anglophone. Méthodologie de travail : AGILE Scrum.

355 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous