Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 304 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

35k-40k €
Dijon, Bourgogne-Franche-Comté

Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Concevoir et développer les futures fonctionnalités de la plateforme Big Data sous Azure. - Concevoir les flux d'alimentation et les tables (structure de donnée). - Automatiser et industrialiser les flux. - Assurer le run applicatif, le cas échéant. La stack technique : o Maîtrise des langages suivants : Azure, Python, GitFlow, Scala, ElasticSearch Le profil d'un Amiltonien : Diplômé Bac+4/5 (Ecole d'ingénieur/Master), vous disposez de minimum 4 années d'expérience dans le développement de data. Toujours sur le qui-vive des nouveautés technologiques, vous êtes force de proposition sur des technos, des outils ou des process qui permettent d'améliorer la qualité du code et la stabilité de nos applications. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.

CDI
Freelance

Offre d'emploi
Data Engineer Python H/F

Proelan
Publiée le
Big Data
engineer
h-f

24 mois
45k-50k €
Valbonne, Provence-Alpes-Côte d'Azur

Proelan recrute pour un de ses clients basés à Sophia Antipolis, un(e) Data Engineer Pyhton. Dans le cadre de la modernisation du Système d'Information et des projets centrés sur la data et le décisionnel du client, tu seras rattaché(e) à un Chef de Projet au sein d'une équipe collaborative et engagée. Tes principales missions seront : - Concevoir et améliorer des scripts pour le traitement et la transformation des données - Automatiser les processus de traitement et de supervision des données - Développer en respectant les standards de qualité et de performance - Contribuer à la validation des livrables et à leur ajustement si nécessaire - Participer activement aux rituels et aux pratiques agiles (Scrum/SAFe) - Rédiger et maintenir la documentation logicielle associée aux projets - Assurer le maintien en condition opérationnelle des applications - Garantir le respect des Politiques de Sécurité du SI et des exigences RGPD. Ta stack technique : - Python orienté Data, PySpark, SQL - Git, Jenkins, Sonar - Expérience en méthodologies agiles, notamment Scrum et SAFe - Connaissances en ETL, en particulier Semarchy xDI, appréciées - Expertise en optimisation des performances des systèmes de données souhaitée.

Freelance

Mission freelance
Chef de projet CRM / Data

TEOLIA CONSULTING
Publiée le
Big Data
Gestion de projet

8 mois
100-700 €
Paris, France

Nous recherchons pour l'un de nos clients (dans le secteur de la distribution d'alcool) un Chef de Projet spécialisé en cadrage et pilotage de projet Data ayant un bagage solide dans l ’intégration systèmes . Missions : piloter la migration de l'ancien ERP vers le nouvel ERP + reconstruction de la plateforme data. TMA sur la plateforme digital client (CRM/ PIM DAM) Réalisations : Comprendre les métiers et leurs besoins (fonctionnel data) Spécification des échanges de données fonctionnels, API, gestion de projet en intégration systèmes, Formalisation et tenue du planning, Suivi des livrables et Coordination efficace des intégrateurs pour reconnecter l'ERP à tous les systèmes de notre plate-forme clients (CRM, Pim-DAM, extranet client, eshops..) et la nouvelle Plateforme Data qui sert aussi d’API management, Animation des ateliers métiers; aide aux arbitrages fonctionnels et techniques; aide à la rédaction et validation des spécifications par l’intégrateur. Réalisation de la documentation interne DSI : process et modèle métier, les flux data cible et les schémas d’architecture fonctionnels SI Définition de la stratégie de tests, du cahier et des jeux de données de tests, et animation de la réalisation des tests pour garantir le bon fonctionnement à la mise en production. Accompagner la conduite du changement, et la montée en compétences des utilisateurs (animer formations, manuels, forums,..)

Freelance

Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F

Reactis
Publiée le
Big Data
Cloudera
Hadoop

2 ans
650-700 €
Bordeaux, Nouvelle-Aquitaine

Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.

Freelance
CDI

Offre d'emploi
Expert dynatrace

VISIAN
Publiée le
Big Data
Infrastructure

1 an
10k-43k €
Rueil-Malmaison, Île-de-France

Dans le cadre de la mission votre objectifs sera de réaliser un déploiement massif de monitoring sur un périmètre applicatif et technique Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident

Offre premium
CDI

Offre d'emploi
Ingénieur Cloud h/f

ITS GROUP
Publiée le
AWS Cloud
Azure
Google Cloud Platform

50k-59k €
Lille, Hauts-de-France

Analyser le système de stockage des données de l’organisation ; Recueillir les besoins de l’ensemble des utilisateurs en ce qui concerne les données (sécurité et accès) ; Établir le cahier des charges en fonction des différentes observations ; Repérer les appels d’offres intéressants , choisir et négocier avec les fournisseurs pour l’achat ou la location de solutions de stockage, ainsi que pour leur installation ; Gérer la relation client/fournisseur et faire la lien avec la Direction générale ; Effectuer les migrations de données nécessaires vers les solutions de stockage ; Valider tous les aspects techniques du stockage ; Accompagner toutes les parties prenantes dans l’appropriation des nouveaux systèmes (formations, documentation ad hoc…) ; Résoudre les éventuelles pannes ou dysfonctionnements ; S’assurer de la sécurisation des données .

Offre premium
Freelance

Mission freelance
Architecte Cloud Data h/f à Lille

ITS GROUP
Publiée le
AWS Cloud
Azure Data Factory

12 mois
500-550 €
Lille, Hauts-de-France

Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.

Offre premium
Freelance

Mission freelance
Développeur NodeJS/ REACTJS confirmé

CONSULT IT
Publiée le
Azure DevOps Server
CI/CD
Google Cloud Platform

24 mois
400-420 €
Lille, Hauts-de-France

Nous recherchons un développeur NodeJs/ ReactJs Confirmé pour rejoindre notre client final à Lille. Le candidat est responsable de définir et promouvoir les bonnes pratiques de développement et d'architecture, tout en garantissant la stabilité, la performance et l'évolutivité du périmètre technique. Il joue un rôle clé dans la conception des versions futures du logiciel, l'architecture applicative. Il contribue à améliorer la cohérence et la qualité de l’équipe, tout en participant activement aux rituels Scrum et en veillant à la montée en compétences des nouvelles recrues.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data
ingenieur

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes

Smarteo
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Freelance

Mission freelance
Chef de projets Data Management & IA (H/F)

HAYS MEDIAS
Publiée le
Data science
Intelligence artificielle

4 mois
150-1 010 €
Levallois-Perret, Île-de-France

Objectifs du poste : En tant que Chef de Projet Données et Intelligence Artificielle, vous aurez pour mission de piloter et coordonner les projets liés à la valorisation des données et au déploiement de solutions d'IA au sein de la DSI. Vous serez en charge de transformer les besoins métiers en solutions techniques adaptées et de garantir la bonne intégration des solutions IA dans les processus de l'entreprise. Les missions principales : •Analyse des besoins métiers : oRecueillir et analyser les besoins des différents pôles (construction, énergie, promotion immobilière, ligne de services) en matière de gestion et d'exploitation des données ; oIdentifier les opportunités de création de valeur par la mise en oeuvre de solutions IA. •Conception et pilotage de projets : oÉlaborer des plans de projet, définir les étapes clés, les livrables, les budgets et les délais ; oAssurer la coordination des différents acteurs (internes et prestataires externes) ; oVeiller au respect des délais, du budget, et de la qualité des livrables ; oCadrer et déployer les premières briques de data gouvernance. •Gestion de la donnée : oContribuer à la mise en place de la gouvernance des données (qualité, sécurité, conformité RGPD) ; oStructurer et mettre en oeuvre des solutions de collecte, de stockage et d'analyse des données (Data Lake, Data Warehouse) ; oPromouvoir les bonnes pratiques en matière de gestion et de valorisation des données auprès des utilisateurs métiers. •Développement de solutions IA : oParticiper à la conception et à la modélisation de solutions IA adaptées aux enjeux de l'entreprise (prévision des besoins, optimisation de la chaîne logistique, maintenance prédictive, etc.) ; oCollaborer avec les data scientists pour le développement de modèles de machine learning, de deep learning, et de traitement automatique du langage ; oSuperviser les phases de test et de validation des modèles. •Accompagnement au changement : oAccompagner les équipes métiers dans la prise en main des nouvelles solutions ; oAnimer des formations et ateliers pour favoriser la compréhension et l’adoption des outils IA ; oAssurer la communication autour des projets pour valoriser les résultats et démontrer les gains obtenus.

Freelance

Mission freelance
Directeur Programme Data/BI (H/F)

Link Consulting
Publiée le
BI
Big Data

1 mois
700-750 €
Toulouse, Occitanie

Notre client, acteur majeur du secteur industriel, recherche un Directeur Programme Data/BI (H/F) pour piloter des projets stratégiques liés à la gouvernance des données et à l'optimisation des systèmes d’information. Basé à Toulouse, vous aurez un rôle clé dans la mise en place d'une stratégie data performante dans un environnement stimulant. Vos missions : * Gérer et piloter des programmes Data/BI en assurant la cohérence et l’efficacité des solutions déployées. * Assurer la gouvernance des données et l’intégration des systèmes d’information dans un environnement cloud (connaissance du domaine supply chain ou finance serait un plus). * Superviser la mise en œuvre des outils de planification (MRP II) et contribuer à l’optimisation des processus métier. * Collaborer étroitement avec les équipes techniques pour garantir la bonne intégration des systèmes de gestion de données dans les différents départements. * Promouvoir les meilleures pratiques en matière de gouvernance de données et d’analyse BI pour améliorer la performance et la prise de décision. Compétences techniques : * Solide expertise en gouvernance des données et en gestion de programmes Data/BI dans un environnement cloud. * Expérience dans la mise en place de solutions MRP II et l’optimisation des processus industriels. * Connaissance des secteurs industriels tels que le ferroviaire ou la pharmaceutique serait un atout. * Maitrise des méthodologies de gestion de projets et de la planification stratégique.

Freelance
CDI

Offre d'emploi
SAP DATA

5COM Consulting
Publiée le
Big Data
SAP

3 ans
50k-75k €
Nanterre, Île-de-France

Mon client recherche un Senior fonctionnel data, en tant que membre du département Digital & IT - Data & Analytics du Groupe, vous intégrerez l’équipe Data As a Service CUSTOMER. Vous piloterez l’architecture fonctionnelle des données pour le périmètre Corporate (Finance / Juridique / IT / Achats...) et participerez aux évaluations de business cases et projets. Le client est dans le secteur de l'industrie, est recherche un SAP data. l'environnement est en anglais, avec 10 ans d'expériences dans l'univers.

Alternance

Offre d'alternance
Data Engineer Junior (H/F) - Alternance

IEF2I
Publiée le
Big Data

24 mois
10k-20k €
Paris, France

L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires une fintech parisienne, un profil Data Engineer Junior (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Développement et Maintenance des Pipelines de Données : Concevoir, développer et optimiser des pipelines de données pour extraire, transformer et charger (ETL) les données Assurer la collecte, le stockage, la transformation et la diffusion des données provenant de diverses sources internes et externes Gestion des Bases de Données : Participer à la gestion et à l’optimisation des bases de données relationnelles et non relationnelles Collaborer à la modélisation des données et à la création de schémas de bases de données adaptés aux besoins de l’entreprise Qualité et Intégrité des Données : Mettre en place des processus de contrôle de la qualité des données Identifier et résoudre les problèmes de qualité des données, et proposer des améliorations continues Collaboration et Support : Travailler en étroite collaboration avec les data scientists, data analysts et autres équipes métiers pour comprendre leurs besoins en données et y répondre efficacement Fournir un support technique et résoudre les incidents liés aux pipelines de données Conditions de l'offre : Une opportunité unique de travailler sur des projets innovants et à fort impact Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise. Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP

Freelance

Mission freelance
Backlog Manager (H-F)

Groupe Aptenia
Publiée le
Agile Scrum
Big Data
Gestion de projet

3 ans
650-700 €
Paris, France

Principales responsabilités Dans le cadre de sa transformation, la division Data & Regulatory souhaite renforcer ses équipes avec un Backlog Manager , dont les missions seront les suivantes : Construire et gérer un Backlog Global pour la division. Collaborer étroitement avec les leaders de chaque stream et les Product Owners pour livrer la roadmap globale de la division. Assurer la préparation et l'exécution des artefacts Agile clés (planification stratégique, PI planning, Sprint planning...). Animer les scrums et maintenir à jour le tableau de bord Scrum. Garantir un service de haute qualité , en comprenant l'environnement de travail et les attentes métiers. Coordonner avec les leaders IT et les managers de release pour garantir un déploiement fluide en production. Assumer le rôle de Chef de projet global en suivant de près les parties prenantes internes et externes. Superviser la cohérence du Backlog et veiller à son alignement avec les priorités stratégiques. Assurer une communication fluide avec les autres responsables de streams et la direction IT.

1304 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous