Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 280 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
SAP DATA

5COM Consulting
Publiée le
Big Data
SAP

3 ans
50k-75k €
Nanterre, Île-de-France

Mon client recherche un Senior fonctionnel data, en tant que membre du département Digital & IT - Data & Analytics du Groupe, vous intégrerez l’équipe Data As a Service CUSTOMER. Vous piloterez l’architecture fonctionnelle des données pour le périmètre Corporate (Finance / Juridique / IT / Achats...) et participerez aux évaluations de business cases et projets. Le client est dans le secteur de l'industrie, est recherche un SAP data. l'environnement est en anglais, avec 10 ans d'expériences dans l'univers.

Freelance

Mission freelance
Chef de projets Data Management & IA (H/F)

HAYS MEDIAS
Publiée le
Data science
Intelligence artificielle

4 mois
150-1 010 €
Levallois-Perret, Île-de-France

Objectifs du poste : En tant que Chef de Projet Données et Intelligence Artificielle, vous aurez pour mission de piloter et coordonner les projets liés à la valorisation des données et au déploiement de solutions d'IA au sein de la DSI. Vous serez en charge de transformer les besoins métiers en solutions techniques adaptées et de garantir la bonne intégration des solutions IA dans les processus de l'entreprise. Les missions principales : •Analyse des besoins métiers : oRecueillir et analyser les besoins des différents pôles (construction, énergie, promotion immobilière, ligne de services) en matière de gestion et d'exploitation des données ; oIdentifier les opportunités de création de valeur par la mise en oeuvre de solutions IA. •Conception et pilotage de projets : oÉlaborer des plans de projet, définir les étapes clés, les livrables, les budgets et les délais ; oAssurer la coordination des différents acteurs (internes et prestataires externes) ; oVeiller au respect des délais, du budget, et de la qualité des livrables ; oCadrer et déployer les premières briques de data gouvernance. •Gestion de la donnée : oContribuer à la mise en place de la gouvernance des données (qualité, sécurité, conformité RGPD) ; oStructurer et mettre en oeuvre des solutions de collecte, de stockage et d'analyse des données (Data Lake, Data Warehouse) ; oPromouvoir les bonnes pratiques en matière de gestion et de valorisation des données auprès des utilisateurs métiers. •Développement de solutions IA : oParticiper à la conception et à la modélisation de solutions IA adaptées aux enjeux de l'entreprise (prévision des besoins, optimisation de la chaîne logistique, maintenance prédictive, etc.) ; oCollaborer avec les data scientists pour le développement de modèles de machine learning, de deep learning, et de traitement automatique du langage ; oSuperviser les phases de test et de validation des modèles. •Accompagnement au changement : oAccompagner les équipes métiers dans la prise en main des nouvelles solutions ; oAnimer des formations et ateliers pour favoriser la compréhension et l’adoption des outils IA ; oAssurer la communication autour des projets pour valoriser les résultats et démontrer les gains obtenus.

CDI

Offre d'emploi
Data Engineer Scala / Spark - F/H

SCALIAN
Publiée le
Apache Spark
Microsoft SQL Server
MySQL

50k-60k €
Issy-les-Moulineaux, Île-de-France

Contribuez à des projets data complexes avec des technologies avancées. Quel sera votre rôle ? Nous recherchons un(e) Data Engineer Scala / Spark. Vous rejoignez l’équipe d’ingénierie data pour concevoir des pipelines de traitement de données à grande échelle. Au quotidien, vos missions seront les suivantes : Développer et optimiser des pipelines de données en utilisant Scala et Spark, dans un environnement distribué. Mettre en place des modèles de données complexes en SQL pour répondre aux besoins métier. Collaborer avec les data scientists pour garantir l’efficacité des flux de données et des modèles analytiques. Environnement technique : Scala, Apache Spark, SQL, Hadoop, Kafka

Freelance
CDI

Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote

skiils
Publiée le
Apache Kafka
Apache Spark
Scala

1 an
12k-200k €
Île-de-France, France

skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)

Freelance

Mission freelance
developpeur Big Data

Intuition IT Solutions Ltd.
Publiée le
Ansible
Apache Spark
Informatica

6 mois
400-520 €
Lyon, Auvergne-Rhône-Alpes

Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe 4 à 5 années d'expérience sont attendues sur le rôle au minimum. Expertise Spark, quelque soit le langage de prédilection (Java, Scala, Python). Défini/challenge les solutions et architectures techniques permettant le traitement de volumes importants de pipelines de données suffisamment sécurisés et lisibles Intervient auprès des architectes et urbanistes pour la préparation des dossiers techniques Anime les équipes Data sur toutes les étapes du traitement de la donnée Assure la bonne prise en compte des recommandations du CTO Nex’Us Maîtrise des solutions de stockage de données Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données Maîtrise des outils de gestion de code et de déploiement projet Maitrise des fondamentaux de l’agilité Maîtrise des solutions de stockage de données Maîtrise avancée des langages structurés Maîtrise avancée des technologies du Big Data permettant le traitement et la manipulation de données Expertise Spark Oracle

Freelance
CDI

Offre d'emploi
Architecte Data Engineer AWS

Hexateam
Publiée le
Apache Spark
Architecture
AWS Cloud

3 ans
10k-60k €
Paris, France

Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.

Freelance

Mission freelance
Product Owner Orienté Data et SLA

AGH CONSULTING
Publiée le
Apache Kafka
BigQuery
Data management

1 an
100-400 €
Lille, Hauts-de-France

Dans le cadre de la gestion d’un fournisseur de services de l'un de nos clients, nous recherchons un profil capable de piloter la prestation de ce fournisseur. Le candidat sera responsable de la supervision des SLA, du suivi des nouvelles fonctionnalités, ainsi que de la gestion quotidienne avec les fournisseurs et les équipes internes. Bien que le poste ne soit pas technique en termes de développement, des compétences techniques seront nécessaires pour gérer les flux et interagir avec les fournisseurs et les équipes. Ce poste est stratégique pour garantir la bonne qualité des services fournis et le respect des engagements contractuels. Supervision des SLA : Suivre les niveaux de service (SLA) contractuels avec les fournisseurs et assurer leur respect. Suivi des fonctionnalités : Gérer le déploiement et le suivi des nouvelles fonctionnalités fournies par les prestataires. Interface fournisseurs/équipes internes : Assurer une communication fluide entre les fournisseurs et les équipes internes (techniques, produits, etc.). Gestion de la qualité des données : Utiliser vos compétences en SQL et en data pour superviser la qualité des données dans le cadre de la prestation. Gestion de projet : Piloter les aspects techniques et contractuels du projet, avec un suivi rigoureux des contrats et des prestations fournies. Collaboration avec les équipes internes : Collaborer avec les équipes techniques et les Product Owners pour s'assurer que les objectifs sont atteints en temps et en heure. Expérience opérationnelle : Vous avez une solide expérience dans la gestion de projet et dans le suivi de prestations fournisseurs. Expertise en data : Vous avez une excellente maîtrise des outils de gestion de données, notamment BigQuery, et êtes capable de superviser et de garantir la qualité des données. Compétences techniques : Bien que vous ne serez pas directement impliqué dans le développement, des compétences en SQL et une bonne compréhension des technologies comme Kafka sont indispensables. Pilotage et gestion des SLA : Expérience dans le suivi et la supervision des niveaux de service contractuels. Autonomie et curiosité : Vous êtes autonome dans votre travail, curieux et capable d'interagir de manière proactive avec les équipes techniques.

Freelance

Mission freelance
Senior Data Architect (Snowflake)

Phaidon London- Glocomms
Publiée le
Architecture
Big Data
ETL (Extract-transform-load)

12 mois
600-750 €
Paris, France

Je suis à la recherche d'architectes de données seniors pour un projet à long terme de bout en bout. Rôle : Architecte de données senior Durée du contrat : Long terme Lieu : Paris : Paris Travail hybride Date de début : Fin octobre/début novembre Vous rejoindrez une nouvelle mission à long terme pour superviser un projet de transformation complet pour notre client. Vous travaillerez sur la modélisation et l'architecture des données, en partant de zéro. Profile: Vous avez une expérience confirmée de plusieurs projets d'architecture de données, idéalement à partir de zéro. Une solide expérience et connaissance de l'architecture de Snowflake, y compris le partage des données, la mise à l'échelle et les pratiques de sécurité. Compétence dans la conception et l'optimisation des bases de données Snowflake Capacité à créer des modèles de données complexes et à architecturer des pipelines ELT/ETL à l'aide d'outils tels que SNowpipe, Google Dataflow ou d'autres services GCP. Forte compréhension de la confidentialité des données, des normes de sécurité et des meilleures pratiques, y compris la gestion de l'accès, le cryptage et la conformité. Anglais courant

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

Freelance
CDI

Offre d'emploi
Data Engineer Python/Spark

VISIAN
Publiée le
Apache Spark
Informatica
PySpark

2 ans
10k-70k €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.

Freelance

Mission freelance
Product Owner Sénior - BORDEAUX

SURICATE IT
Publiée le
Agile Scrum
Big Data

3 mois
100-2 980 €
Bordeaux, Nouvelle-Aquitaine

Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes.

Freelance

Mission freelance
Développeur fullstack (avec culture data, automatisation Machine Learning, IA)

INSYCO
Publiée le
AWS Cloud
Data science
Git

3 ans
450-550 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Développeur fullstack. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/DEV/4528 en objet de votre message Description du besoin : Le client (secteur médias) recherche un prestataire Développeur Fullstack pour rejoindre son équipe d'innovation. Le prestataire sera rattaché au responsable de l’Innovation au sein de la direction Stratégie Digitale et Innovation (de la DSI). De la conception au développement/déploiement, le prestataire sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes de la DSI de notre client. Tâches principales : Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI du client Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab

Freelance

Mission freelance
Backlog Manager (H-F)

Groupe Aptenia
Publiée le
Agile Scrum
Big Data
Gestion de projet

3 ans
650-700 €
Paris, France

Principales responsabilités Dans le cadre de sa transformation, la division Data & Regulatory souhaite renforcer ses équipes avec un Backlog Manager , dont les missions seront les suivantes : Construire et gérer un Backlog Global pour la division. Collaborer étroitement avec les leaders de chaque stream et les Product Owners pour livrer la roadmap globale de la division. Assurer la préparation et l'exécution des artefacts Agile clés (planification stratégique, PI planning, Sprint planning...). Animer les scrums et maintenir à jour le tableau de bord Scrum. Garantir un service de haute qualité , en comprenant l'environnement de travail et les attentes métiers. Coordonner avec les leaders IT et les managers de release pour garantir un déploiement fluide en production. Assumer le rôle de Chef de projet global en suivant de près les parties prenantes internes et externes. Superviser la cohérence du Backlog et veiller à son alignement avec les priorités stratégiques. Assurer une communication fluide avec les autres responsables de streams et la direction IT.

Freelance
CDI

Offre d'emploi
ARCHITECTURE DATA PLATEFORM

Digistrat consulting
Publiée le
Apache Spark
AWS Cloud
Azure

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service

Alternance

Offre d'alternance
Data Engineer Junior (H/F) - Alternance

IEF2I
Publiée le
Big Data

24 mois
10k-20k €
Paris, France

L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires une fintech parisienne, un profil Data Engineer Junior (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Développement et Maintenance des Pipelines de Données : Concevoir, développer et optimiser des pipelines de données pour extraire, transformer et charger (ETL) les données Assurer la collecte, le stockage, la transformation et la diffusion des données provenant de diverses sources internes et externes Gestion des Bases de Données : Participer à la gestion et à l’optimisation des bases de données relationnelles et non relationnelles Collaborer à la modélisation des données et à la création de schémas de bases de données adaptés aux besoins de l’entreprise Qualité et Intégrité des Données : Mettre en place des processus de contrôle de la qualité des données Identifier et résoudre les problèmes de qualité des données, et proposer des améliorations continues Collaboration et Support : Travailler en étroite collaboration avec les data scientists, data analysts et autres équipes métiers pour comprendre leurs besoins en données et y répondre efficacement Fournir un support technique et résoudre les incidents liés aux pipelines de données Conditions de l'offre : Une opportunité unique de travailler sur des projets innovants et à fort impact Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise. Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP

Freelance
CDI

Offre d'emploi
Data Architect

UNITED SOLUTIONS
Publiée le
Big Data
Google Cloud Platform

12 mois
60k-70k €
Lille, Hauts-de-France

Contexte et Enjeux de la Mission : Dans le cadre d’une transformation numérique ambitieuse , une grande entreprise française, leader dans son secteur, recherche un(e) Data Architect pour moderniser et unifier son écosystème de données. Le projet se concentre principalement sur l’implémentation et l’optimisation d’une architecture sur Google Cloud Platform (GCP) , visant à améliorer la gestion des données à grande échelle et la qualité des insights pour les équipes métiers. Basé à Lille , vous interviendrez à un moment clé de ce projet stratégique, avec pour objectif de créer une architecture évolutive, scalable et résiliente, tout en facilitant l'exploitation des données pour l'ensemble des départements. Vos Responsabilités : Conception et mise en place d’une architecture data robuste sur Google Cloud Platform (GCP), en accord avec les meilleures pratiques de gestion des données et de sécurité. Structurer et gérer les pipelines de données pour garantir des flux fluides, fiables et sécurisés. Assurer la qualité et la gouvernance des données via la mise en place de standards, d’outils de monitoring, et de processus de validation. Collaborer de manière étroite avec les équipes Data Engineering et Data Science pour maximiser l’utilisation des données et proposer des améliorations continues. Apporter une vision stratégique à long terme, en anticipant les évolutions nécessaires pour adapter l'architecture aux besoins futurs de l'entreprise. Documenter les solutions et former les équipes internes sur l'utilisation et la maintenance des nouvelles structures.

280 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous