Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 676 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Développeur Java / Big Data H/F

ADATEK
Publiée le
Apache Spark
Azure
Java

3 ans
10k-63k €
Île-de-France, France

Le développeur Java / Big Data intégrera une équipe d'experts Big Data dans un contexte international et aura pour missions : Participer à la conception et à l'architecture des applications, des processus et des workflows. Développement Java et Spark Amélioration et stress test sur des problèmes de performance Performance tuning des jobs Spark Code review des développements Déploiements sur Azure cloud hdi cluster et kubernetes (AKS) Tests unitaires et BDD Support production

Freelance

Mission freelance
Développeur Back-End Java (Big Data) - Toulouse (H/F)

LeHibou
Publiée le
Big Data
BigQuery
DevOps

6 mois
320-420 €
Toulouse, Occitanie

Dans le cadre du développement de ses activités, notre client va rechercher un freelance expérimenté sur la partie Back-end dans un environnement Big Data. Vous participerez à la réalisation et à la maintenance de nos différentes applications commercialisées en mode SaaS, et à nos applications mobiles à destination de nos clients. Vous travaillerez selon la méthodologie Agile (ShapeUp) et avec un état d’esprit DevOps. Vos activités seront les suivantes : Concevoir et développer de nouveaux modules ou fonctionnalités pour notre logiciel, en utilisant Java et les dernières technologies Back-End. Vous serez en charge de concevoir et développer des solutions de traitement de données en mode batch et en temps réel (streaming). Vous contribuerez à la collecte, à l’agrégation et à l’analyse de données critiques, permettant ainsi d’extraire des informations précieuses pour notre solution logicielle. Vous jouerez un rôle essentiel dans la compilation et l’analyse de données complexes . Vous assurerez également la maintenance de la solution actuelle en production, offrant un support technique à plus de 60 clients à travers le monde. Examiner et évaluer les processus et le code existants pour proposer des solutions d’optimisation et garantir une meilleure efficacité opérationnelle. Poste disponible à Toulouse 3 jours de présentiel sur site Anglais courant / écrit est obligatoire

Freelance

Mission freelance
Développeur Fullstack Mobile Convertigo

PROPULSE IT
Publiée le
convertigo
développeur
Full stack

24 mois
225-450 €
Paris, France

Pour une mission en Freelance nous recherchons de manière urgente un(e) développeur (euse) mobile Fullstack confirmé sur le studio Convertigo impérativement. Mission Aux côtés du responsable d'application, le candidat participera aux évolutions de l'application mobile / desktop de vente / encaissement en magasins (projets, maintenance, ...) développée sur le studio « Mobile Builder » de Convertigo. Il pourra ponctuellement être amené à travailler sur le support de production des applications développées par l'équipe. Planification Démarrage souhaité de la mission : à partir du 8 avril 2024 Durée de la mission : 3 mois (renouvelables) Lieu de la mission : Paris

Freelance

Mission freelance
Developpeur .NET et support N1

PROPULSE IT
Publiée le
.NET
développeur
n1

24 mois
275-550 €
Paris, France

Consultant Technico-fonctionnel .NET transverse & Support Applicatif de niveau 1 La mission consistera à réaliser sous la direction d'un responsable de pôle applicatif le support utilisateurs niveau 1 : Analyse du problème technique ou fonctionnel, application de correctifs de masse, aide à l'utilisation, extraction de données) dans un SI catalogue complexe ainsi que concevoir les solutions à mettre en place dans le cadre des évolutions ou des développements de correctifs, du chiffrage de ces dernières et potentiellement du développement et déploiement en production.

Freelance

Mission freelance
consultant(e) technico fonctionnel(le) - Developpeur (euse)

PROPULSE IT
Publiée le
développeur
SQL
technico

24 mois
275-550 €
Paris, France

CONSULTANT(E) TECHNICO-FONCTIONNEL(LE) & DEVELOPPEUR(EUSE) CONFIRME(E) CONTEXTE ET ENJEUX Notre client souhaite renforcer son équipe IT Finance afin d'accompagner la croissance de ses activités. Le(la) prestataire retenu(e) interviendra dans une équipe constituée d'une responsable et de deux technico-fonctionnels qui assurent la maintenance applicative et les évolutions de plusieurs applications, principalement sur la remontée du chiffre d'affaires et de trésorerie. DESCRIPTIF DE LA MISSION La mission s'articulera autour de 2 axes principaux : • Maintenance évolutive et corrective sur les applications du pôle o Analyse d'impacts o Rédactions des spécifications fonctionnelles et techniques o Développement le cas échéant (back up des 2 autres ressources) o Recette technique o Suivi des mises en production (préparation, planification, support) o Veille technologique • Récurrent (support niveau 2 des incidents de production) : analyse (contact téléphonique avec utilisateurs en magasin si nécessaire) avec recherche des solutions de contournement ou planification de correctifs Au besoin et en fonction des disponibilités, il pourra aussi intervenir en support sur d'autres applications connexes (RPA, Application Trésorerie centrale, …)

Freelance

Mission freelance
Developpeur Frontend react JS

PROPULSE IT
Publiée le
développeur
Front-end
Javascript

24 mois
375-750 €
Massy, Île-de-France

PROPULSE IT recherche un développeur Frontend JS Dans ce cadre, les missions et travaux à mener en tant que développeur sur l'applicatif du cockpit du SI sont : Cette prestation aura pour objectif principal la maintenance et la production sur la base des technologies existantes mais également de travailler avec l'équipe en charge de la refonte de la couche technique sous-jacente. •Prendre en main l'architecture existante, •Participer aux activités de corrections des Faits Techniques pouvant être identifiés en PROD •Discuter avec les experts Maximo pour définir les données nécessaires et maitriser leur rafraichissement pour afficher des indicateurs clairs, •Documenter et réaliser la mise en oeuvre du pipeline de données avec les technologies imposées (Qlik, API maximo, Kafka), •Participer à la définition de la refonte de cette architecture de données avec les équipes projet

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

CDI
Freelance

Offre d'emploi
Data Engineer Hadoop SQL Spark

Signe +
Publiée le
Apache Spark
Big Data
engineer

24 mois
45k-50k €
Lille, Hauts-de-France

Site : Lille (2 J / semaine sur site, le reste possible en TT) Nature du besoin : reprise d'un périmètre existant qui était délivré par un autre prestataire. Transition entre l'ESN et le prestataire sortant de 2 mois sur octobre/novembre. Forts enjeux car migration technique en cours avec échéance à fin d'année Date de démarrage : 1/10/2024 Durée mission : 12 mois renouvelables Type de projet : forfait, scrum team avec Tech Lead Process de qualification : Entretien Mission : Réaliser l'intégration des données depuis un Espace Produit basé sur Hadoop et précalculer des indicateurs pour les injecter dans des rapports Power BI Profil : besoin de 2 Data Engineer SQL Spark de 3 à 7 ans d'expérience Compétences techniques: Hadoop / Spark / SQL. Stack technique : Hadoop, HDFS, HIVE, SparkSQL, MS-SQLServer Activités : De conception et de développement en mode Agile

Freelance

Mission freelance
Business Analyst Customer Data 360 & CRM

W Executive France SAS
Publiée le
Agile Scrum
Big Data
Salesforce Sales Cloud

6 mois
100-350 €
Roissy-en-France, Île-de-France

Intégré(e) à la direction Marketing au sein du Customer Data Management (CDM) vous contribuerez au projet OneCRM dans un environnement complexe, international et transverse. Vous travaillerez au cœur de l’application Operational Customer Experiences (OCP), basée sur des technologies Big Data , qui capture et expose en temps réel des centaines d’événements au cours du parcours client. Dans ce rôle, vous serez responsable de la préparation des données clients pour un certain nombre de campagnes de communication (email, mobile, SMS), en coordination avec les parties prenantes internes (IT, projet OneCRM, architectes) et externes. Vous assurerez l’acquisition de nouvelles données, l’analyse des données existantes, et la validation des développements techniques. Analyse des données : Identifier les données disponibles, celles manquantes, et déterminer les règles de transformation. Gestion des campagnes : Préparer les données pour les campagnes de communication (email, app mobile, SMS) dans un contexte international. Suivi des développements : Accompagner les équipes techniques et valider les résultats. Qualité des données : Veiller à la qualité et à la fiabilité des données utilisées pour les campagnes. Documentation : Rédiger les règles métiers associées aux données et aux campagnes. Communication : Assurer un reporting régulier sur les réalisations et les avancées du projet auprès des parties prenantes.

Freelance
CDI
CDD

Offre d'emploi
Data Engineer

Halian
Publiée le
Big Data
Snowflake

2 ans
80k-200k €
Belgique

Nous recherchons deux Ingénieurs Data — Medior — pour concevoir, implémenter et optimiser des solutions de données basées sur le cloud. Les candidats idéaux travailleront sur des plateformes de données modernes comme Snowflake et des outils comme DBT et Wherescape RED pour soutenir nos initiatives de data warehouse, y compris l'adoption de l'architecture Data Vault 2.0. Principales responsabilités : Concevoir et implémenter des processus ETL pour migrer des données d'Oracle vers Snowflake en utilisant DBT. Développer des solutions de données cloud en utilisant des outils comme DBT pour la transformation des données. Travailler avec le cadre Data Vault 2.0 pour concevoir des solutions de data warehouse évolutives. Collaborer avec des équipes interfonctionnelles pour implémenter des pipelines CI/CD pour les workflows ETL. Rédiger et maintenir une documentation complète pour les processus ETL et les pipelines de données. Compétences et exigences : Outils : DBT, Wherescape RED, Snowflake, Oracle, Azure Synapse. Programmation : SQL, Python, ou d'autres langages de programmation modernes similaires. Contrôle de version : Maîtrise de Git pour le développement en mode trunk-based. Tests : Expérience en tests d'intégrité des données, de performance et de régression. Connaissances : Data Vault 2.0, concepts modernes de data warehousing. Résumé du rôle : Le rôles est axés sur la création de pipelines de données efficaces et évolutifs en utilisant des technologies cloud telles que Snowflake et DBT. et est davantage concentré sur l'exécution pratique et la livraison des projets. Pour postuler, envoyez votre CV et vous contacterons dans les plus brefs délais.

Freelance
CDI

Offre d'emploi
Architecte Data

VISIAN
Publiée le
Architecture
Big Data

3 ans
59k-94k €
Vélizy-Villacoublay, Île-de-France

Visian recherche pour un de ses clients grand compte un profil Architecte Data . Contexte : Au sein de la direction Architecture de notre client grand compte, l'Architecte de Data conçoit et met en œuvre l'architecture et la stratégie de données d'une organisation. Dans le cadre d'un programme de transformation numérique initié par le groupe, vous serez impliqué dans la conception et le soutien à la construction de l'environnement DATA 4.0. À cette fin, en tant qu'architecte data, vos principales missions seront de : Contribuer à l'architecture, à la mise en œuvre et à la pérennité de l'entreprise du point de vue technique et fonctionnel, en accord avec les architectes/expert IT de chaque domaine de compétence (Stockage, Réseau, etc.) afin de soutenir les données de l'entreprise et leur utilisation ; Formaliser la description des bases de données (modèle de données métiers et dictionnaire de définition) et s'appuyer sur le responsable des données ; Orienter les pratiques des Data Engineers de la plateforme (ingestion et exposition des données), ainsi que les responsables des pratiques en gestion des données, Dataviz et ingénierie ML avec la plateforme de données, responsables respectivement de la mise en œuvre de la gouvernance des données, de la dataviz et de la science des données ; Soutenir les projets informatiques (architecture) dans la définition des besoins métiers concernant la description et l'utilisation des données (concepts métiers, exigences métiers, utilisation des données dans les algorithmes, modèles de données, flux de données, etc.) et animer l'urbanisation des données du SI de l'entreprise ; Concevoir les produits et solutions de données soutenus par les équipes de la fabrique numérique (Data Factory) (BI, self-service, IA, IAGen, gestion des données) en fonction de la stratégie technique et industrielle du département IT en ce qui concerne les problématiques de données ; Orienter les projets en mettant en place et en appliquant des normes et standards applicables à la construction des données et à leur description, en particulier en utilisant le dictionnaire de données et les modèles métiers ; Porter la vision technique, en interne comme en externe, et encourager ses développements avec les équipes en ligne avec la stratégie globale ; Contribuer à la qualité du contenu du dictionnaire de données et des modèles de bases de données dans le temps, et mettre en place des outils pour garantir la pérennité des données Assurer la gestion des changements de données (formation à l'utilisation des données, communication), mais aussi sur les évolutions en matière de normes et standards de données, sur l'évolution du dictionnaire et des modèles de données.

Alternance

Offre d'alternance
Data Analyst Junior (H/F) - Alternance

IEF2I
Publiée le
Big Data

15 mois
20k-25k €
Paris, France

L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires "Préciser le type de société - ex : Startup parisienne", un profil Data Analyst Junior (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Collecte et Traitement des Données : Collecter des données à partir de diverses sources internes et externes Nettoyer et préparer les données pour l'analyse, en assurant leur qualité et leur intégrité Analyse des Données : Effectuer des analyses statistiques pour identifier des tendances, des schémas et des anomalies Utiliser des outils de visualisation des données pour créer des rapports et des tableaux de bord interactifs Support aux Équipes Métier : Collaborer avec les équipes métier pour comprendre leurs besoins en données et fournir des analyses ad hoc Présenter des conclusions et des recommandations basées sur les analyses de données Amélioration Continue : Proposer des améliorations pour optimiser les processus d'analyse de données Participer à la mise en place de nouvelles méthodologies et outils d'analyse Conditions de l'offre : Une opportunité unique de travailler sur des projets innovants et à fort impact Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise. Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP

CDI
Freelance

Offre d'emploi
Architecte entreprise expérimenté data

Signe +
Publiée le
architecte
Big Data
entreprise

24 mois
50k-55k €
Lyon, Auvergne-Rhône-Alpes

Profil : Architecte entreprise expérimenté data (6 à 7 ans d'exp) Compétences techniques : Architecture d'Entreprise Urbanisation de systèmes d'information Modèles fonctionnels bancaires Conception d'applications, de services, d'APIs Bonnes connaissances techniques (développement, intégration, déploiement dans des environnements distribués) Connaissance des outils : SGBDR : Teradata, SQL, Postgresql, MySQL No SQL : MongoDB ETL ou ELT : Data Stage , xDi (Stambia) ou autre Data Management : ABInitio BigData (Distribution Cloudera) , spark (java), Hive, Hbase … Kafka (Confluent) CI-CD – GitLab Cloud : AWS Compétences humaines : Communication Accompagnement d'équipes de développement Capacité de synthèse et de formalisation conceptuelle Pédagogie Capacité à montrer l'exemple y compris sur des tâches de développement ou de mise en oeuvre technologique.

Freelance

Mission freelance
Scrum master - Service réglementaire et DATA

VoiceDigit
Publiée le
Agile Scrum
Big Data
JIRA

3 ans
400-530 €
Lille, Hauts-de-France

Au Sein du service réglementaire et DATA Epargne Retraite, les équipes gèrent les applications répondant aux différentes exigences de la réglementation pour le groupe. En tant que Scrum Master sur le périmètre réglementaire et data épargne retraite, vous vous assurerez de la bonne exécution de la démarche agile de 3 équipes produits dans le bon fonctionnement de leurs pratiques. Ces trois équipes évoluent dans le cadre de travail SCRUM. Elles sont rythmées dans les cérémonies de planification, de revue/démonstration et de rétrospective. Les Daily meetings sont en place. Les niveaux de maturité des équipes sont différents, le scrum master est également en charge de l’animation d’une coreteam de transformation commune aux 3 équipes pour piloter les actions de transformations qui restent à mener. Pour cette mission, nous recherchons un profil de Scrum Master Expérimenté dont les attributions seront :

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

CDI

Offre d'emploi
Product owner - confirmé

Management Square
Publiée le
Big Data
Comité de pilotage (COPIL)
Gestion de projet

53k-57k €
Boulogne-Billancourt, Île-de-France

La prestation devra couvrir le pilotage d’une phase de de cadrage du sujet ESG (Environnement, Social et Gouvernance) et en particulier sur les solutions à mettre en œuvre pour répondre aux besoins du groupe client sur ce sujet. Cette phase exploratoire sera en partie réalisée avec le support d’une société extérieure. La prestation devra couvrir sur le sujet Carbon Management Platform : Les activités de run qui sont sous responsabilité d’un fournisseur Les petites évolutions fonctionnelles dans le cadre des activités de run Les définitions et le pilotage des évolutions majeures (simulation, projection moyenne et long terme en particulier), qui seront pilotées en mode projet dédiée.

676 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous