Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 663 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F

Reactis
Publiée le
Big Data
Cloudera
Hadoop

2 ans
650-700 €
Bordeaux, Nouvelle-Aquitaine

Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.

Freelance
CDI

Offre d'emploi
Expert dynatrace

VISIAN
Publiée le
Big Data
Infrastructure

1 an
10k-43k €
Rueil-Malmaison, Île-de-France

Dans le cadre de la mission votre objectifs sera de réaliser un déploiement massif de monitoring sur un périmètre applicatif et technique Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident

Offre premium
Freelance

Mission freelance
Architecte Cloud Data h/f à Lille

ITS GROUP
Publiée le
AWS Cloud
Azure Data Factory

12 mois
500-550 €
Lille, Hauts-de-France

Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.

CDI
Freelance

Offre d'emploi
AMOA Data Office

Signe +
Publiée le
AMOA
Big Data
Microsoft Office

24 mois
45k-50k €
Niort, Nouvelle-Aquitaine

Profil : Minimum 5 ans d'expérience Maîtrise du pilotage projet, de l'expression de besoin, la réalisation d'études, d'analyses. Maîtrise de l'organisation et de la conduite de réunions. Excellentes aptitudes à la communication, tant orale qu'écrite. (Réalisation de CR, support de réunions, d'ateliers d'alignement, de désambiguation…) Sens de la synthèse, afin de résumer pour tous la situation du projet. Connaissances sur les grands principes de la donnée (Fonctionnement des bases de données, tables, requêtes, jointures…), du fonctionnement des CRMs Eventuellement expérience dans la manipulation de la donnée (SQL, Excel). Secteur : assurance Site : Chauray (Niort) 2 à 3 j / sem sur site

Freelance
CDI

Offre d'emploi
Expert ODI

OMICRONE
Publiée le
Big Data
Oracle
PL/SQL

1 an
10k-50k €
Île-de-France, France

Bonjour, Nous recherchons pour notre client de renom en France, dans le secteur de la construction, un Expert ODI (Oracle Data Integrator) pour une mission à fort enjeu technique. Dans le cadre de l’évolution des projets Data de notre client, vous interviendrez sur des problématiques d’intégration de données en environnement complexe. Vous serez amené(e) à : Analyser les besoins métiers et proposer des solutions techniques adaptées Contribuer à la conception et au développement des flux d’intégration sous Oracle Data Integrator (ODI) Effectuer des tests et veiller à la qualité des données traitées Optimiser les processus d'extraction, de transformation et de chargement (ETL) Participer à la documentation technique et fonctionnelle des solutions mises en œuvre

Freelance

Mission freelance
Développeur Data Innovation (Fullstack) Python / SQL

Onetribe SAS
Publiée le
AWS Cloud
Big Data
Python

3 ans
100-530 €
Paris, France

Recherche d’un prestataire Développeur Fullstack pour rejoindre une équipe d'innovation. Le prestataire sera rattaché au responsable de l’Innovation au sein de la direction Stratégie Digitale et Innovation (de la DSI). De la conception au développement/déploiement, le prestataire sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes de la DSI. • Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique. • Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux. • Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille. • Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation. • Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum. • S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI • Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant. • Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab. • Participer à la définition et à l’amélioration des processus du Lab.

Freelance

Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes

Smarteo
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Freelance

Mission freelance
Chef de projets Data Management & IA (H/F)

HAYS MEDIAS
Publiée le
Data science
Intelligence artificielle

4 mois
150-1 010 €
Levallois-Perret, Île-de-France

Objectifs du poste : En tant que Chef de Projet Données et Intelligence Artificielle, vous aurez pour mission de piloter et coordonner les projets liés à la valorisation des données et au déploiement de solutions d'IA au sein de la DSI. Vous serez en charge de transformer les besoins métiers en solutions techniques adaptées et de garantir la bonne intégration des solutions IA dans les processus de l'entreprise. Les missions principales : •Analyse des besoins métiers : oRecueillir et analyser les besoins des différents pôles (construction, énergie, promotion immobilière, ligne de services) en matière de gestion et d'exploitation des données ; oIdentifier les opportunités de création de valeur par la mise en oeuvre de solutions IA. •Conception et pilotage de projets : oÉlaborer des plans de projet, définir les étapes clés, les livrables, les budgets et les délais ; oAssurer la coordination des différents acteurs (internes et prestataires externes) ; oVeiller au respect des délais, du budget, et de la qualité des livrables ; oCadrer et déployer les premières briques de data gouvernance. •Gestion de la donnée : oContribuer à la mise en place de la gouvernance des données (qualité, sécurité, conformité RGPD) ; oStructurer et mettre en oeuvre des solutions de collecte, de stockage et d'analyse des données (Data Lake, Data Warehouse) ; oPromouvoir les bonnes pratiques en matière de gestion et de valorisation des données auprès des utilisateurs métiers. •Développement de solutions IA : oParticiper à la conception et à la modélisation de solutions IA adaptées aux enjeux de l'entreprise (prévision des besoins, optimisation de la chaîne logistique, maintenance prédictive, etc.) ; oCollaborer avec les data scientists pour le développement de modèles de machine learning, de deep learning, et de traitement automatique du langage ; oSuperviser les phases de test et de validation des modèles. •Accompagnement au changement : oAccompagner les équipes métiers dans la prise en main des nouvelles solutions ; oAnimer des formations et ateliers pour favoriser la compréhension et l’adoption des outils IA ; oAssurer la communication autour des projets pour valoriser les résultats et démontrer les gains obtenus.

Freelance

Mission freelance
Développeur fullstack (avec culture data, automatisation Machine Learning, IA)

INSYCO
Publiée le
AWS Cloud
Data science
Git

3 ans
450-550 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Développeur fullstack. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/DEV/4528 en objet de votre message Description du besoin : Le client (secteur médias) recherche un prestataire Développeur Fullstack pour rejoindre son équipe d'innovation. Le prestataire sera rattaché au responsable de l’Innovation au sein de la direction Stratégie Digitale et Innovation (de la DSI). De la conception au développement/déploiement, le prestataire sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes de la DSI de notre client. Tâches principales : Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI du client Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab

Freelance
CDI

Offre d'emploi
SAP DATA

5COM Consulting
Publiée le
Big Data
SAP

3 ans
50k-75k €
Nanterre, Île-de-France

Mon client recherche un Senior fonctionnel data, en tant que membre du département Digital & IT - Data & Analytics du Groupe, vous intégrerez l’équipe Data As a Service CUSTOMER. Vous piloterez l’architecture fonctionnelle des données pour le périmètre Corporate (Finance / Juridique / IT / Achats...) et participerez aux évaluations de business cases et projets. Le client est dans le secteur de l'industrie, est recherche un SAP data. l'environnement est en anglais, avec 10 ans d'expériences dans l'univers.

Freelance

Mission freelance
Backlog Manager (H-F)

Groupe Aptenia
Publiée le
Agile Scrum
Big Data
Gestion de projet

3 ans
650-700 €
Paris, France

Principales responsabilités Dans le cadre de sa transformation, la division Data & Regulatory souhaite renforcer ses équipes avec un Backlog Manager , dont les missions seront les suivantes : Construire et gérer un Backlog Global pour la division. Collaborer étroitement avec les leaders de chaque stream et les Product Owners pour livrer la roadmap globale de la division. Assurer la préparation et l'exécution des artefacts Agile clés (planification stratégique, PI planning, Sprint planning...). Animer les scrums et maintenir à jour le tableau de bord Scrum. Garantir un service de haute qualité , en comprenant l'environnement de travail et les attentes métiers. Coordonner avec les leaders IT et les managers de release pour garantir un déploiement fluide en production. Assumer le rôle de Chef de projet global en suivant de près les parties prenantes internes et externes. Superviser la cohérence du Backlog et veiller à son alignement avec les priorités stratégiques. Assurer une communication fluide avec les autres responsables de streams et la direction IT.

Freelance

Mission freelance
Senior Data Architect (Snowflake)

Phaidon London- Glocomms
Publiée le
Architecture
Big Data
ETL (Extract-transform-load)

12 mois
600-750 €
Paris, France

Je suis à la recherche d'architectes de données seniors pour un projet à long terme de bout en bout. Rôle : Architecte de données senior Durée du contrat : Long terme Lieu : Paris : Paris Travail hybride Date de début : Fin octobre/début novembre Vous rejoindrez une nouvelle mission à long terme pour superviser un projet de transformation complet pour notre client. Vous travaillerez sur la modélisation et l'architecture des données, en partant de zéro. Profile: Vous avez une expérience confirmée de plusieurs projets d'architecture de données, idéalement à partir de zéro. Une solide expérience et connaissance de l'architecture de Snowflake, y compris le partage des données, la mise à l'échelle et les pratiques de sécurité. Compétence dans la conception et l'optimisation des bases de données Snowflake Capacité à créer des modèles de données complexes et à architecturer des pipelines ELT/ETL à l'aide d'outils tels que SNowpipe, Google Dataflow ou d'autres services GCP. Forte compréhension de la confidentialité des données, des normes de sécurité et des meilleures pratiques, y compris la gestion de l'accès, le cryptage et la conformité. Anglais courant

Freelance

Mission freelance
Data Engineer (H/F)

HAYS MEDIAS
Publiée le
Azure
Cloud
Framework

4 mois
180-980 €
Levallois-Perret, Île-de-France

Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : •Conception et Développement de Pipelines de Données : oConcevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; oAssurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; oMettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. •Gestion et Maintenance de l’Infrastructure Data : oParticiper à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; oAssurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) ; oSurveiller et optimiser les performances des systèmes de stockage et de traitement des données. •Qualité et Sécurité des Données : oMettre en oeuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; oEffectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; oCollaborer avec les équipes sécurité pour garantir la protection des données sensibles. •Support aux équipes Data Science et BI : oTravailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; oOptimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; oAccompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. •Veille Technologique et Innovation : oRester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; oProposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; oParticiper à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.

Freelance
CDI

Offre d'emploi
Data Engineer (risque de crédit )H/F

STORM GROUP
Publiée le
Microsoft Power BI
MySQL
Python

3 ans
10k-60k €
Île-de-France, France

En tant que Data Engineer / Développeur BI , vous participerez activement à la mise en place et à l’optimisation de la solution de collecte et de traitement des données de risque. Vous rejoindrez une équipe d’experts techniques et métier, dans un environnement dynamique et exigeant. Concevoir et développer des processus ETL pour l’ingestion et la transformation des données de risque. Travailler avec des bases de données SQL pour l’extraction et la manipulation des données. Participer à la modélisation et à la transformation des données avec DBT . Automatiser des processus de traitement de données en Python . Créer et maintenir des rapports et tableaux de bord sur PowerBI . Optimiser les performances de traitement des données, en s’appuyant éventuellement sur SingleStore (idéalement). Collaborer étroitement avec les équipes métiers pour comprendre les besoins en reporting et assurer une bonne intégration des données.

Freelance
CDI
CDD

Offre d'emploi
Infrastructure Architect (Ref : AG)

FIRST CONSEIL
Publiée le
Azure
Big Data
Google Cloud Platform

3 ans
10k-100k €
Paris, France

Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)

Freelance

Mission freelance
Data Engineer

HAYS MEDIAS
Publiée le
BigQuery
ETL (Extract-transform-load)
Google Cloud Platform

3 ans
100-440 €
Lille, Hauts-de-France

SA MISSION : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

663 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous