Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 362 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI
Big Data
SQL

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Freelance

Mission freelance
Ingénieur Full Stack Java spécialisé en ElasticSearch (Migration vers OpenSearch / AWS)

INSYCO
Publiée le
Amazon S3
Apache Maven
Apache Spark

3 ans
450-600 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Full Stack Java spécialisé en ElasticSearch pour participer à des projets stratégiques de migration et de développement applicatif. Vous interviendrez principalement dans le cadre d’une migration ElasticSearch 1.X vers OpenSearch 2.X, ainsi que sur le développement de fonctionnalités en Java/Spring au sein d’une équipe dynamique et collaborative. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/ELS/4551 en objet de votre message Missions principales Migration ElasticSearch/OpenSearch : Réaliser la migration de l’application existante d’ElasticSearch V1.8 vers OpenSearch sur AWS. Configuration avancée d'ElasticSearch et d'OpenSearch sur AWS, en tenant compte des bonnes pratiques et de la performance. Modélisation et mapping des données pour optimiser la structure des index. Création et gestion des index ElasticSearch. Mise en œuvre de fonctionnalités de recherche avancée, ainsi que la construction de requêtes ElasticSearch complexes. Optimisation des performances de la solution de recherche. Développement et maintenance d’applications Java/Angular : Implémenter, développer et maintenir des fonctionnalités en Java avec Spring et en front-end avec Angular 7+. Assurer le bon déroulement des tests unitaires et des tests de bout en bout avec l’appui du Product Owner. Produire la documentation technique, incluant les spécifications techniques et les processus de migration. Collaboration en équipe : Participer à l’animation de l’équipe Agile Safe, en contribuant aux rituels (daily meetings, PI planning, ateliers de partage de connaissances, démos, etc.). Environnement Technique : Langages et Frameworks : Java (Spring), Angular 7+, ElasticSearch, OpenSearch. Infrastructure Cloud : AWS (expérience de déploiement d’applications sur AWS, architecture serverless avec Lambda, API Gateway, etc.). Outils de DevOps et CI/CD : Docker, Terraform, GitLab CI/CD, avec gestion des environnements sur le cloud. Services AWS : S3, RDS Aurora, VPC, ainsi que des outils de monitoring (Grafana, Prometheus) et sécurité (Linux, Redhat). Autres : Apache Spark, Spring, Eclipse, VSCode, Maven, Git.

Freelance
CDI

Offre d'emploi
Expertise JAVA JEE SPARK - Engines optimization

VISIAN
Publiée le
Apache Spark
J2EE / Java EE

1 an
10k-80k €
Montreuil, Île-de-France

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la gestion de l'écosystème des moteurs de calculs réglementaires pour les stress-tests et le Capital Interne. Ces applications couvrent les générations de scenarios, des paramètres de risque et des métriques de types provisions et capital sous condition de stress. Un projet d'amélioration des performances est mis en oeuvre. La mission consiste à mettre en oeuvre les remédiations identifiées lors d'un audit sur un des moteurs afin d'en améliorer les performances. Puis une étude sera menée pour voir la possible application de ces recommandations sur les autres moteurs.

Freelance

Mission freelance
AWS Data Engineer

Groupe Aptenia
Publiée le
Apache Spark
AWS Cloud
Dataiku

6 mois
500-550 €
Paris, France

Les ingénieurs data de l’équipe ont deux missions principales : a. Maintien en condition opérationnelle de la plateforme : Assurer la disponibilité des données et des services de la plateforme Communiquer avec les utilisateurs de la plateforme Répondre aux demandes de données ad hoc ou à l'analyse des anomalies Développer des correctifs et des évolutions de la plateforme Contribuer à la qualité des données et à l’industrialisation de la plateforme b. Conception et développement de services et de pipelines de données performants et fiables : Mettre en place des flux d’acquisition et d’exportation de données Effectuer des modélisations de données Développer des pipelines de transformation Réaliser les tests unitaires et d'intégration Veiller à la qualité des développements et au respect des standards via les revues de code Gérer les dépendances entre les traitements et les ordonnancer Réaliser les déploiements dans tous les environnements Maintenir et enrichir la documentation de la plateforme

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

Freelance

Mission freelance
Tech-Lead/Dév Data AWS (H/F) - IDF

Espace Freelance
Publiée le
Apache Spark
AWS Cloud
Java

12 mois
100-500 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Un Tech-Lead/Dév Data AWS (H/F) Un profil senior (10+ ans d’expérience) est recherché pour le département Solutions Data (Data Engineering) La mission consistera à : Conception et Développement : Participer au design technique des solutions logicielles et à la recherche de solutions techniques. Prendre en charge une partie des développements. Encadrement et Qualité : Accompagner les autres développeurs (coaching, optimisation de code). Collaborer avec l'architecte data pour l'intégration dans le SI. Assurer la qualité des produits logiciels.

Freelance

Mission freelance
Sysops big data

SKILL EXPERT
Publiée le
Active Directory
Apache Kafka
Apache Spark

1 an
100-600 €
Vélizy-Villacoublay, Île-de-France

la prestation consiste à : Ø Maintenir l’architecture Big Data en utilisant les dernières technologies ad-hoc Ø Participer à l’industrialisation, au déploiement, au maintien des clusters Cloudera existants (Cloudera Manager, HDFS, Yarn, Hive, Ranger, Nifi, Kerberos) Ø Mettre en place les nouveaux outils que notre SI souhaite explorer: Kafka, Iceberg, Impala … Ø Participer à l’exploitation quotidienne des plateformes (vérifier la santé des clusters, mettre à jours mensuellement les serveurs) Ø Gérer la sécurité et l’accès aux clusters Ø Monitorer les plateformes et communiquer sur les besoins futurs Ø Apporter un support technique aux équipes de développement (Data Engineers / Data Scientists) Ø Mener les réflexions sur les évolutions à apporter aux plateformes

Freelance

Mission freelance
Data engineer

SILKHOM
Publiée le
Big Data
Snowflake
Talend

3 mois
100-550 €
Lyon, Auvergne-Rhône-Alpes

Notre client, est un acteur majeur dans le domaine de l'éducation supérieure et de la recherche, avec une forte spécialisation en gestion et en management. Son histoire et sa réputation lui permettent de se distinguer par une approche innovante et tournée vers l'avenir, notamment en matière de transformation numérique et de gestion de la donnée. Dans ce cadre, notre client un Architecte DATA visant à optimiser les infrastructures de gestion et d'analyse des données pour soutenir son évolution technologique et assurer une prise de décision basée sur des données fiables et précises. Directement rattaché à la direction générale, vous intégrerez un data office constitué de deux pôles, digital et métier, représentant une équipe d’une dizaine de personnes.

Freelance
CDI
CDD

Offre d'emploi
Architecte Sécurité Cloud ./ Data (SASE : Netcop/OKTA)

Freelance.com
Publiée le
Big Data
Cloud
Cybersécurité

1 an
10k-80k €
Maisons-Alfort, Île-de-France

Client : Banque Localisation : Maison Alfort Poste : Architecte Sécurité Cloud ./ Data Expérience : +9 années Démarrage : ASAP Objectif: Analyser les besoins Participer aux ateliers afin d’étudier et de cadrer les besoins en sécurité • Préconiser les solutions et architectures cibles • Contribuer à la rédaction des dossiers d’architecture et spécifications techniques basés sur les principes de sécurisation de la donnée • Coordonner la sécurité des projets afin d'aider les équipes à fournir des solutions d'infrastructure sécurisées avec les recommandations et les exigences de la SSI • Participer aux audits de sécurité des applications et des socles techniques • Effectuer des évaluations des risques techniques, la modélisation des menaces, des examens de la sécurité de l'architecture, des conseils et des suivis répétables pour les projets impliquant des services destinés aux clients de Bpifrance • Garantir la prévention et la bonne gestion des risques techniques en proposant des améliorations aux politiques, directives et normes de sécurité • Communiquer efficacement tout en répondant aux besoins de sécurité et en validant que les mesures de sécurité appropriées sont en place • Superviser le socle technique (sécurité, réseau, gouvernance...) • Veiller la sécurité et la fiabilité des environnements déployés • Créer / mettre à jour le corpus documentaire • Rédiger les dossiers d'arbitrage en étant force de proposition et de décision en coordination avec les parties prenantes du projet Industrialiser et opérer les environnements Contribuer à la mise en place des outils d’automatisation et de monitoring adaptés à l’environnement client • Participer à l’implémentation des outils nécessaires à la mise en place des pratiques DevOps (Puppet, Chef, Gitlab CI, Travis CI, Cloud Build, etc.)| Compétences métier souhaitables : Qualifications (seraient un plus) Certification de sécurité (CISSP et / ou GIAC) • Les certifications de fournisseur (AWS / Azure / GCP) • Expérience de sécurité offensive (Pentest, red teaming), un atout pour Bpifrance • Certification SAFe Expérience pertinente de +9 ans ou plus dans le domaine de la sécurité de l'information ou une expérience pertinente ; • Au moins cinq ans d'expérience pratique sur au moins l'un des sujets suivants : • sécurité Microsoft, sécurité réseau, sécurité Linux;|

CDI

Offre d'emploi
Data Manager

Lùkla
Publiée le
Data management
Gouvernance

45k-54k €
Hauts-de-Seine, France

Dans le cadre du projet réglementaire de dématérialisation des factures, notre client doit s'assurer de la maîtrise des données de ses nombreux systèmes de facturation. Nous cherchons un responsable du chantier data au sein du projet de dématérialisation des factures. Il sera accompagné du responsable gouvernance des données du Data Office et collaborera avec les autres responsables de chantiers (Chantier IT, Chantier DAF, Chantier Change Utilisateur) Sa mission sera de s'assurer que le niveau de qualité des données est en adéquation avec les enjeux et objectifs définies par le COPIL projet. L'objectif est de maitriser les données nécessaires à la bonne production des factures. En se basant sur les gap analysis produits et en réalisant des entretiens métiers, il devra étudier et documenter les lineages des données concernées et identifier les insuffisances des processus métier et IT. Il proposera ensuite des pistes de solutions, et, dans la mesure du possible suivra leur mise en oeuvre. La maitrise des données s'articule autour de 4 axes : - Outillage et documentation - Mesure et remédiation - Processus IT et Métier - Organisation et Gouvernance

CDI
Freelance

Offre d'emploi
Data Governance Officer

1G-LINK CONSULTING
Publiée le
Data management

12 mois
10k-65k €
Courbevoie, Île-de-France

Dans le cadre de la réalisation de divers projet, Pour notre client dans le secteur de l'industrie, nous recherchons un consultant data gouvernance qui sera en charge de la mise en place de l'architecture Policies ainsi que d'autres sujets en cours Vos missions : Excellente maitrise de l'architecture policies : Architecture Médaillon Très bonne capacité à cataloguer des données Expériences en gouvernance fédérée via un méta model Compétences en Data Quality et Data Observability capacité à gérer des projets dans la data

Freelance

Mission freelance
Consultant(e) Talend

STHREE SAS pour COMPUTER FUTURES
Publiée le
MySQL
Talend

1 an
100-400 €
Rungis, Île-de-France

Maintenir et faire évoluer le Système d’information décisionnel. Permettre à toutes les directions (commerciale, financière, technique, marketing, opérationnelle, etc…) d’avoir un reporting fiable des indicateurs de pilotages.  Conception des modèles de données pour le datawarehouse et les datamarts  Rédaction spécifications techniques et validation avec le métier  Développement des flux d’alimentation avec Talend Intégration Studio  Optimisation base de données mysql, Partitionnement  Livraison et Ordonnancement des taches (Jenkins), TAC  Modernisation du socle Bi  Revoir les traitements

Offre premium
CDI
Freelance

Offre d'emploi
Microsoft Fabric Engineer

Halian
Publiée le
Data management
microsoft

2 ans
98k-200k €
Belgique

1 jour sur site en Belgique Votre mission : Contribuer à l'optimisation des pipelines de données et à l'intégration de solutions innovantes dans notre infrastructure IT en tant qu'Ingénieur Microsoft Fabric. Ce que vous ferez : Améliorer l'efficacité des systèmes de gestion des données pour une prise de décision éclairée. Soutenir les équipes Data Science et DevOps avec une infrastructure fiable et évolutive. Développer des solutions pour automatiser les processus de gestion des données. Participer aux comités techniques pour recommander des améliorations. Documenter les processus et créer des guides utilisateurs. Ce que nous offrons : Une ambiance conviviale avec des collègues passionnés et professionnels. Un accompagnement par des experts et des formations continues. Autonomie dans un rôle varié, riche en opportunités d'apprentissage. Des outils et technologies de pointe. Un accompagnement personnalisé pour votre développement de carrière. Flexibilité avec des options de télétravail et un package salarial attractif. Un environnement de travail dynamique, axé sur l'innovation et le bien-être, avec des activités ludiques comme des food trucks et des barbecues. Votre profil : Expertise en gestion de données avec Microsoft Fabric et Azure. Bonne maîtrise des pipelines de données et de l'intégration continue. Connaissance de Python ou Spark, ainsi que des outils comme Power BI. Expérience avec les services cloud Azure et la sécurité des données. Certification DP600 préférée. Bilingue FR/EN avec un esprit analytique et proactif. Si vous êtes prêt à relever ce défi, n’hésitez pas à postuler !

Freelance

Mission freelance
Data Scientist - Time Series

WESPACES
Publiée le
Data science
Python
Time series

6 mois
100-520 €
Roissy-en-France, Île-de-France

Analyser et modéliser des séries temporelles pour optimiser les processus décisionnels. Collaborer avec les équipes techniques et métier pour développer des solutions data-driven. Participer activement à la gestion et à l’amélioration continue des modèles en production. Compétences requises : Maîtrise des techniques de modélisation Time Series . Solides connaissances en Python et bibliothèques associées (Pandas, Numpy, Scikit-learn). Bonnes compétences en communication pour transmettre des insights aux équipes non techniques.

Freelance
CDI

Offre d'emploi
Support Python Engineer H/F

Agate IT
Publiée le
Big Data
Python
SQL

3 ans
50k-65k €
Paris, France

En tant que Data Support analyste, vous serez responsable de fournir un soutien technique et opérationnel pour les systèmes et les processus liés aux données au sein du département de Data Technology. Vous travaillerez en étroite collaboration avec les équipes de développement et de data ingénierie pour résoudre les problèmes liés à la data, assurer la qualité des données et maintenir la disponibilité des systèmes. 1. Soutien technique : Diagnostiquer et résoudre les problèmes liés aux données. 2. Gestion de la qualité des données : Surveiller et analyser la qualité des données, identifier les anomalies et les incohérences, et proposer des solutions pour améliorer la qualité des données. Mettre en place des contrôles de qualité. 3. Maintenance et support opérationnel : Assurer la disponibilité des systèmes de données en surveillant les performances et en gérant les problèmes de capacité. Collaborer avec les équipes de développement pour effectuer des mises à jour logicielles, des correctifs de bugs et des améliorations des fonctionnalités des systèmes de données. 4. Formation et communication : Collaborer avec les différentes équipes pour communiquer les changements, les mises à jour et les problèmes liés aux données de manière claire et concise. Participer à des réunions et à des projets interfonctionnels pour fournir un aperçu et un soutien relatif aux données.

Offre premium
Freelance

Mission freelance
Mission Développeur Big Data (Cloudera / Spark / Apache Iceberg )

Intuition IT Solutions Ltd.
Publiée le
Apache Kafka
Apache Spark
Cloudera

15 mois
590-650 €
Guyancourt, Île-de-France

Nous recherchons un développeur Big Data senior avec une expertise sur Cloudera, Spark et Apache Iceberg pour intervenir sur une mission de longue durée. Le but de la mission est de participer sur un projet de création d'un Datalake opensource dans un contexte de création d'outils liés à de l'intelligence artificielle. La prestation s'effectuera au sein des équipes d'une vingtaine de personnes(data engineering, data architects). Anglais: Bon niveau requis car une partie des équipes est en Amérique et en Inde. Le datalake s'appuie sur l'offre Cloudera on premise. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l'administrateur du datalake house et à mettre en oeuvre et à valider l'infrastructure des plateformes de données. Dans ce cadre, le prestataire contribuera et aura la responsabilité des sujets suivants: -Conception et développements du POC avec Cloudera, NoSQL, Mifi, Apache Iceberg, Kafka... -Mise en œuvre des pipelines pour l'ingestion et l'intégration des données à partir des divers sources tout en s'assurant de la qualité et la cohérence des données. -Processus ETL / ELT -Développement et Optimisation des sources ETL et ELT pour soutenir les besoins en datawarehouse -Optimisation de la performance des flux de données et des requetes -Travail en étroite collaboration avec l'administrateur

362 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous