Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 662 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur Big Data

CAT-AMANIA
Publiée le
Apache Kafka
Big Data
Scala

36 mois
430-480 €
Île-de-France, France

Dans le cadre de notre développement, nous recherchons pour un client grand compte un développeur Big Data. Les missions seront les suivantes : Mettre en production des modèles statistiques Acheminer et mettre à disposition les données pour les équipes Suivre les projets de développement Développer des jobs Spark pour le traitement des données Gérer l’ingestion de divers formats de données Concevoir et implémenter des scripts pour la collecte, le traitement et le mapping des données Développer des moyens de restitution comme des fichiers, API et tableaux de bord Concevoir des pipelines pour l'ingestion de données en streaming et en batch, ainsi que des jobs Spark pour le prétraitement et le calcul des indicateurs de performance (KPI) Développer des API pour l'ingestion et le traitement des données dans un environnement Hadoop Participer à la conception et à l'administration de solutions Big Data Installer et configurer des clusters Hadoop Développer des services en Spring Boot pour extraire des données de systèmes existants et les envoyer au Datalake via Kafka Normaliser et agréger les données pour produire des rapports de type Business View

CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

40k-60k €
Paris, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance
CDI

Offre d'emploi
Data Engineer – Environnement Scala / Hadoop

CELAD
Publiée le
Hadoop
Scala
YAML

1 an
50k-65k €
Paris, France

Notre client est une grande entreprise opérant dans le secteur financier, avec une forte présence dans le domaine des services aux entreprises. Dans un contexte de transformation technologique, l'entreprise souhaite renforcer son équipe IT pour maintenir et faire évoluer ses applications critiques. Le projet en cours concerne l'optimisation et le maintien des applications d’une plateforme dédiée à la gestion des financements. Le projet s’intègre au sein d’un grand programme de modernisation de la plateforme de financements . Le système, basé sur des technologies Hadoop et Scala , gère un large éventail de services critiques. L'objectif principal de cette mission est d'assurer le bon fonctionnement des applications existantes et de contribuer aux évolutions techniques, notamment en participant aux déploiements et aux maintenances évolutives. Les applications sont gérées au sein de la DSI, plus précisément dans une filiale dédiée à la gestion des financements. Vous travaillerez avec une équipe dynamique dans un environnement Agile/SCRUM, en étroite collaboration avec des équipes métiers et techniques. Assurer le maintien en conditions opérationnelles (MCO) des applications sur la plateforme existante. Contribuer aux travaux de déploiement , d'intégration et de livraison des composants sur l'environnement PISA. Concevoir, modéliser et implémenter des solutions techniques pour les maintenances évolutives et correctives sur la plateforme. Développer et améliorer les traitements des calculateurs (basés sur des templates YAML et développements Scala ). Participer à la rédaction et mise à jour des spécifications techniques , en lien avec les travaux de maintenance corrective ou évolutive. Collaborer étroitement avec les équipes métier et les Business Analysts pour assurer la qualité des développements. Assurer le support technique durant les phases de recette. Suivi de la production et résolution des incidents sur la plateforme de financements. Participation active aux ateliers de conception avec les équipes métier et techniques. Développement de traitements sur les calculateurs, intégrant les règles métier via des configurations YAML et des développements en Scala . Assurer le déploiement des composants sur les environnements de recette et de qualification . Mise à jour du dictionnaire de données Nodata et collaboration avec les équipes pour garantir la cohérence des évolutions.

Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
Azure
Snowflake

3 ans
10k-64k €
Paris, France

En tant que Data Engineer Snowflake , vous serez responsable de la conception, du développement et de l'optimisation des pipelines de données sur Snowflake. Vous travaillerez en collaboration avec les équipes IT et métiers pour garantir la bonne exploitation des données au sein de l'organisation. Développement des pipelines : Concevoir et déployer des pipelines de données efficaces et évolutifs sur la plateforme Snowflake. Optimisation des bases de données : Assurer la performance et la scalabilité des systèmes de gestion des données. Sécurité et conformité : Implémenter des solutions sécurisées pour la gestion et la manipulation des données sensibles. Automatisation : Automatiser les processus de traitement et d’intégration des données. Collaboration : Travailler avec les équipes BI et métiers pour répondre aux besoins spécifiques de chaque département.

CDI

Offre d'emploi
Ingénieur DevOps BigData

nextSourcia
Publiée le
Apache Kafka
Big Data
DevOps

10k-50k €
Toulon, Provence-Alpes-Côte d'Azur

Notre client, acteur majeur du secteur de la défense, participe à l'innovation et à la sécurisation des systèmes d'information critiques. Dans le cadre de l'amélioration de ses capacités de gestion des données, il développe des solutions avancées pour la collecte, l'indexation et l'exploitation des informations stratégiques au sein de son infrastructure Big Data. Mission : Vous serez responsable de la mise en œuvre et de l’exploitation des solutions de gestion de données au sein des systèmes d’information. Vous interviendrez sur l’ensemble du cycle de vie des plateformes Big Data en utilisant les technologies ElasticSearch, Logstash et Cloudera CDP. Responsabilités : - Assurer la mise en œuvre et l’exploitation des solutions de collecte, d’indexation et de recherche de données (ElasticSearch/OpenSearch, Logstash, Kafka). - Gérer et maintenir les plateformes basées sur Cloudera CDP. - Effectuer le Maintien en Condition Opérationnelle (MCO) des composants de la plateforme Datalake. - Garantir la disponibilité et la performance des infrastructures Big Data en exploitant les clusters associés. - Superviser et analyser les performances via des outils comme Kibana et Grafana.

Freelance

Mission freelance
Data Engineer Annecy

COEXYA
Publiée le
SQL

1 an
100-470 €
Annecy, Auvergne-Rhône-Alpes

- Participer à la définition de l'architecture Data - Développer les solutions de collecte, et de stockage des données, au travers d'une modélisation à établir. Calculer des indicateurs métiers à partir des données collectées et les rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code 1 - Contribuer à la Fabrication des Produits des équipes de l'Entreprise dans un environnement Teradata (sur des activités BI) 2 - Etre force de proposition et expertise sur les techno manipulées

Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

PROPULSE IT
Publiée le
architecte
Azure
BI

24 mois
275-550 €
Massy, Île-de-France

Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data
ingenieur

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
Consultant data science / Chef de projet data

BLOOMAYS
Publiée le
Data science
Gestion de projet

12 mois
450-600 €
Pantin, Île-de-France

Mission en freelance à pourvoir ASAP à Pantin (93) au sein d'un DataLab chez le client final Les missions : - Mettre en œuvre et de déployer avec succès des outils d’aide à la décision (Business Intelligence & Intelligence Artificielle) - Initier et Participer activement aux programmes de transformation axée sur leurs données (Data Gouvernance). - Imaginer de nouveaux usages de la data applicables aux business de nos clients Apporter de la pédagogie auprès du client, accompagnement, conseil, encadrer ce qui est faisable ou non, capacité à comprendre les enjeux de modélisation, d’analyser la structure business des métiers Intervention sur l’acculturation, traiter des problématiques d’efficacité opérationnelle, sortir des cas d’usages, puis emmener un poc vers l’industrialisation

Freelance

Mission freelance
Data Engineer expert IICS avec une connaissance de Snowflake Bordeaux ou Paris/ TT

WorldWide People
Publiée le
Snowflake

3 mois
460-600 €
Paris, France

Data Engineer expert IICS (Cloud Data Integration Services) avec une connaissance de Snowflake Bordeaux ou Paris/ TT : en fonction de la localisation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire

Freelance

Mission freelance
Directeur Programme Data/BI (H/F)

Link Consulting
Publiée le
BI
Big Data

1 mois
700-750 €
Toulouse, Occitanie

Notre client, acteur majeur du secteur industriel, recherche un Directeur Programme Data/BI (H/F) pour piloter des projets stratégiques liés à la gouvernance des données et à l'optimisation des systèmes d’information. Basé à Toulouse, vous aurez un rôle clé dans la mise en place d'une stratégie data performante dans un environnement stimulant. Vos missions : * Gérer et piloter des programmes Data/BI en assurant la cohérence et l’efficacité des solutions déployées. * Assurer la gouvernance des données et l’intégration des systèmes d’information dans un environnement cloud (connaissance du domaine supply chain ou finance serait un plus). * Superviser la mise en œuvre des outils de planification (MRP II) et contribuer à l’optimisation des processus métier. * Collaborer étroitement avec les équipes techniques pour garantir la bonne intégration des systèmes de gestion de données dans les différents départements. * Promouvoir les meilleures pratiques en matière de gouvernance de données et d’analyse BI pour améliorer la performance et la prise de décision. Compétences techniques : * Solide expertise en gouvernance des données et en gestion de programmes Data/BI dans un environnement cloud. * Expérience dans la mise en place de solutions MRP II et l’optimisation des processus industriels. * Connaissance des secteurs industriels tels que le ferroviaire ou la pharmaceutique serait un atout. * Maitrise des méthodologies de gestion de projets et de la planification stratégique.

Freelance

Mission freelance
Data Engineer H/F

Hays Medias
Publiée le
Data visualisation
Master Data Management (MDM)

6 mois
100-450 €
Bordeaux, Nouvelle-Aquitaine

Nous recherchons pour notre client un Data Engineer (H/F) : Prestation pure en Freelance ou en Portage salarial (CDI.c) ; Durée : 6 mois, renouvelable ; Démarrage : Septembre – Octobre 2024 ; Localisation du client : Bordeaux (33) ; Télétravail : Jusqu’à 2 jours par semaine (après intégration). Mission : Création de pipelines d’intégration de données – Modifications et évolutions ; Modélisation et enrichissement du Data Model d’entreprise ; Dashboarding avec l’outil TABLEAU (Cloud) ; Data management (recueil du besoin, réalisation des extractions, coaching et communication…) Environnement technique : Data / BI, SQL, Python, Tableau / Tableau Cloud, Talend, Snowflake

Freelance

Mission freelance
Chef de projet DATA

CAT-AMANIA
Publiée le
Big Data

3 mois
750 €
Paris, France

Pour un grand compte du secteur assurance, nous recherchons un chef de projet expert Data qui aura pour mission de piloter le projet Benchmark, en étroite collaboration avec le responsable du Service et les architectes fonctionnels. Ses missions seront : Finaliser la part client de l'étude (comparatif interne) Préparer les éléments en vue des différentes présentations Apporter l'expertise et la connaissance du marché pour apporter les compléments au dossier Participer, voire réaliser, certaines présentation dans des instances internes ou clientes

Freelance

Mission freelance
Data Engineer

Kaïbee
Publiée le
AWS Cloud
CI/CD
Python

1 an
100-600 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI En tant que Data Ingénieur, vous serez responsable de la conception, du déploiement et de la maintenance d'une infrastructure de données basée sur les bonnes pratiques du Well Architected Framework (WAF) d'AWS, en respectant les piliers suivants : Excellence opérationnelle, Sécurité, Fiabilité, Efficacité des performances, Optimisation des coûts, et Développement durable. Vous travaillerez en étroite collaboration avec le CTO et les Data Scientists pour construire et maintenir des pipelines de données robustes et sécurisés sur AWS. 1. Mise en place de pipelines de données robustes et scalables : Concevoir des pipelines de données serverless optimisés (e.g., step function, Lambda, S3, Redshift) pour gérer des données provenant de compteurs énergétiques en mode batch et en streaming. Structurer la donnée en zones fonctionnelles sur S3 (Landing, Raw, Trusted, Curated, Archive) et transformer les formats (e.g., XML en JSON, JSON en Parquet) pour optimiser les performances et réduire les coûts. 2. Excellence opérationnelle : Implémenter et automatiser des workflows CI/CD/CT avec GitHub Actions pour garantir des déploiements continus, sécurisés et sans interruption (via EKS, ECS, App Runner, Sagemaker) Mettre en place un monitoring avancé pour les pipelines de données et les modèles déployés, garantissant la détection proactive des anomalies et une maintenance efficace. (via cloudwatch, SNS) 3. Sécurité et fiabilité : Collaborer à la migration des applications R/Shiny vers des technologies plus familières et sécurisées (e.g. Kotlin ou Python) tout en respectant les standards de sécurité, notamment via des solutions telles que Posit Connect 4. Optimisation des coûts et développement durable Proposer des optimisations pour réduire les coûts de stockage et de traitement des données, en s’appuyant sur des services AWS adaptés et en optimisant les formats et processus de gestion des données. 5. Collaborer avec l'équipe Data Science Faciliter l'accès aux données de qualité pour les Data Scientists, en veillant à ce que les modèles puissent être intégrés efficacement dans les applications existantes

Freelance

Mission freelance
Responsable gouvernance Data/IA (H/F)

HAYS MEDIAS
Publiée le
Data analysis
Data management
Intelligence artificielle

4 mois
190-1 010 €
Levallois-Perret, Île-de-France

Missions principales : En tant que Responsable Gouvernance Data / IA, vous aurez la charge de la mise en place et de la gestion de la gouvernance des données au sein de l’entreprise, tout en facilitant l’intégration et le déploiement des initiatives d’intelligence artificielle. Vous travaillerez étroitement avec les équipes de la DSI, les métiers, et les équipes Data pour garantir l’alignement des stratégies data et IA avec les objectifs de l’entreprise. Missions principales : •Pilotage et déploiement du schéma directeur DATA & IA oPiloter opérationnellement le schéma directeur DATA, l’ajuster et en assurer le suivi auprès des parties prenantes ; oPiloter opérationnellement les initiatives d’IAG engagée, de la gestion du portefeuille à la communication auprès de parties prenantes ; oCoordonner les équipes, instances et partenaires travaillant sur les problématiques DATA ; oPiloter le budget associé. •Stratégie de gouvernance des données : oDéfinir et mettre en oeuvre la stratégie de gouvernance des données, en veillant à la qualité, la sécurité, et la conformité des données ; oÉtablir des politiques de gestion des données (normes, règles de gestion, bonnes pratiques) pour assurer une utilisation responsable des données ; oPiloter la création et la maintenance du data catalog et du data dictionary. •Gestion des initiatives d'IA : oAccompagner les projets IA de l'entreprise, depuis l’identification des cas d’usage jusqu'à leur mise en production ; oCollaborer avec les Data Scientists et les équipes métiers pour intégrer les solutions d'IA dans les processus métier ; oParticiper à la définition des frameworks d'éthique et de transparence liés à l'utilisation des algorithmes IA. •Qualité et sécurité des données : oMettre en place des processus de Data Quality Management pour garantir la fiabilité des données ; oS'assurer de la conformité aux réglementations en vigueur (ex. : RGPD) et sensibiliser les équipes sur les enjeux de la protection des données ; oCollaborer avec le RSSI pour renforcer la sécurité des données et des algorithmes d’IA. •Pilotage de la gestion des données : oDéfinir les indicateurs de performance (KPI) pour mesurer l’efficacité de la gouvernance des données et des projets IA ; oCoordonner les Data Owners et les Data Stewards pour optimiser la gestion des données au sein de l'entreprise ; oSuperviser les processus de data lineage et de data mapping pour assurer la traçabilité des données. •Veille technologique et innovation : oEffectuer une veille sur les nouvelles technologies en matière de gouvernance des données et d’intelligence artificielle ; oProposer des innovations pour améliorer les pratiques de gestion des données et optimiser les performances des modèles d'IA.

Freelance

Mission freelance
Data Gouvernance

PARTENOR
Publiée le
Data management

1 an
520-760 €
Paris, France

Nous renforçons nos équipes d'architecte chez l'un de nos clients grands comptes et nous recherchons un(e) Chef de projet Data Gouvernance H/F. Des interactions fortes sont à entretenir avec autres pole de la DSI (Product Managers, Analystes Fonctionnels, Lead Opérationnels, responsables d’application) ainsi qu’avec les Acteurs Métier (gestion des actifs industriels; conduite, optimisation) principalement sollicités au travers des ateliers d’étude sur les données. Vous aurez pour rôle d'appuyer et accompagner les Métiers à l’expression des besoins en termes de data : quelles données (origine et alimentation via quelle processus par exemple) L’appui et l’accompagnement aux projets SI dans la formalisation des recommandations liées à la gestion des données, en lien avec le référent data de la DSI

662 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous