Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Votre recherche renvoie 63 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur java senior moteur de recherche

Kaïbee
Publiée le
Apache Solr
Elasticsearch
Java

1 an
100-630 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Dans le cadre d’un projet stratégique lié à la gestion et l’exploitation de gros volumes de données, nous recherchons un Tech Lead Backend expérimenté. Vous serez responsable de la conception, du développement et de l’optimisation d’un moteur de recherche basé sur des technologies de pointe telles qu’ ElasticSearch ou SolR . Vos missions : • Participer à l’architecture et au développement backend, avec un fort accent sur l’optimisation des moteurs de recherche. • Configurer et tuner des moteurs tels qu’ElasticSearch ou SolR : • Configuration des shards et gestion des index. • Mise en place et ajustement des principes de tuning de pertinence. • Indexation de documents complexes et optimisation des recherches. • Contribuer à la mise en œuvre de solutions robustes pour la gestion de très grands volumes de données et documents. • Collaborer avec des équipes techniques internationales (communication orale et écrite en anglais). • Assurer la qualité du code, le respect des délais, et la documentation des travaux.

Freelance

Mission freelance
Architecte Solutions Data (HF)

SMARTPOINT
Publiée le
Apache Airflow
Apache Spark
Architecture

12 mois
400-500 €
Paris, France

Dans le cadre de ses activités autour de la donnée, le domaine Data Fabric de la DSI et plus particulièrement le pôle ASD (Architecture Solutions Data) souhaite se faire renforcer d’un architecte applicatif spécialisé en solutions data. Il devra : Accompagnement, réalisation et suivi des projets à enjeux data dans l’élaboration et les phases de réalisation des architectures applicatives ; Prendre en compte les contraintes cybersécurité et de conformité réglementaire (RGPD) dans la conception des architectures ; Contribuer au plan de transformation sur la gouvernance de la donnée ; Contribution activité stratégie SI ; Participation aux revues d’architecture à enjeux data ; Maintient et évolution du cadre de cohérence technique Data & Master Data Management/Référentiel (en collaboration avec les experts MDM et architecte applicatif/domaine) : principes d’architecture, patterns, normes, bonnes pratiques ; Contribuer à la communauté data de la DSI. Liste de livrables (non exhaustive) : Flash report hebdomadaire et mensuel ; Supports d’animation des ateliers & Compte Rendu de réunion ; Dossiers d’Architecture Technique / Architecture Solution Design ; Principes d’architecture et directeurs, patterns, normes, bonnes pratiques ; Etudes solutions data & notes architecture data ; Matrice de choix ; Mise à jour des référentiels d’architecture (LeanIX) ; Cartographie (Solutions & plateformes Data, des données & modèles, flux d’échanges …) ; Offre de Services ASD ; Documentation technique ;

Freelance
CDI

Offre d'emploi
ARCHITECTURE DATA PLATEFORM

Digistrat consulting
Publiée le
Apache Spark
AWS Cloud
Azure

3 ans
40k-60k €
450-600 €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service

Freelance
CDI

Offre d'emploi
Développeur I.A. confirmé (H/F/X)

NSI France
Publiée le
Apache Airflow
Kubernetes
Python

3 ans
40k-60k €
400-550 €
Paris, France

En tant que consultant, vous êtes en charge de participer aux développements au sein de notre équipe projets Votre expérience vous permet de proposer des améliorations et d’être force de proposition quant aux choix technologiques , fonctionnalités à intégrer dans les solutions Suivant les projets et votre expertise, vous participez aux phases d'analyse , de développement , de test et de mise en production des applications. Vous participerez au développement de la Plateforme dédiée à l’intelligence artificielle, et services d’IA à destination des unités business internes et partenaires externes.

Freelance
CDI

Offre d'emploi
Date engineer

HN SERVICES
Publiée le
Apache Spark
Scala

2 ans
10k-57k €
100-550 €
Paris, France

Contexte : Le Groupe a lancé le programme qui se déroulera sur 5 ans (2020 / 2025). Une équipe dédiée a été créée pour la durée du programme. Ce programme s'articule autour des 4 principaux chantiers ci-dessous : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI (prudentiel notamment) basé sur cette assiette comptable de référence En particulier, le chantier "CARAT" Assiette Comptable de Référence comprend trois sous-chantiers majeurs au sein du datalake Finance et Risque : • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks mutualisée qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (SRB, PVA, Anatitres, Anacrédit, etc.) Au sein du chantier CARAT, travaillant en mode agile (SCRUM), la mission consistera à prendre part aux développements sur GASPARD, tout en étant garant de la pérennité et la non régression de l’outillage déjà en place, sur les deux sujets ci-dessous : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle L’équipe est principalement localisée à Paris mais dispose de ressources à Porto. L’anglais est donc d’usage dans l’équipe.

Freelance
CDD
CDI

Offre d'emploi
développeur python

Gentis Recruitment SAS
Publiée le
Angular
Apache Airflow
Databricks

12 mois
10k-80k €
100-500 €
Paris, France

Dans une démarche orientée qualité (documentation, tests de non régression automatisés, usine de builds…), le candidat définira et implémentera les apis et écrans nécessaire à l'execution des process business. Il orchestrera les différents composants intervenant dans la production des résultats et apportera un soin particulier à l'élaboration et la validation d'une plateforme stable, sécrusisée, scalable et performante. Il aidera les tema lead et tech lead à organiser la vie de l'équipe et sera un référent technique. La Mission à réaliser se déclinera notamment à travers: - La montée en compétence sur les applications existantes - La mise en place de builds et des outils de tests et de maintenance associés - La définition des apis, modules, libraires et écrans - Le lotissement des développements - L'implémentation des différents besoins - Les optimisations et évolutions diverses - La rédaction de tests en collaboration avec les Functional Analysts - La documentation et les manuels d'utilisations - L'assistance et le support aux utilisateurs - Le support niveau2, résolution d'incidents et résolution de problèmes (root causes d'incidents récurrents) - Le suivi post-release des livrables

Freelance
CDI

Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC

Digistrat consulting
Publiée le
Apache Kafka
Elasticsearch
ELK

3 ans
40k-60k €
450-600 €
Paris, France

💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) :  La collecte de log  La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log  La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition)  La mise en place d'un monitoring plus fin avec utilisation de l'IA  La configuration de logstash pour des tâches de parsing et d'enrichissements.  La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources.  L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs  Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont :  La mise à jour de la documentation  La maintien en condition des outils  Le développement des outils d'expoitation  La gestion des tickets d'incidents  La gestion des requêtes

Freelance

Mission freelance
Développeur Node Angular AWS (Mission longue)

SKILLWISE
Publiée le
Angular
Apache Kafka
AWS Cloud

18 mois
100-800 €
Paris, France

Vos tâches toucheront en un premier temps au développement. L’équipe est composée de 2 développeurs. Vous aurez pour mission : - Le développement de nouvelles fonctionnalités - Maintenir la CI/CD sur GitLabCI - Maintenance de la plateforme sur le cloud (OVH, Kubernetes) - Gestion des machines et serveurs - Maintenance opérationnelle (gestion des montées de versions, maintenance technique, etc..) Vous devrez également : - Rédiger la doc de conception technique - Développer des Users Stories - Corriger des anomalies - Rédiger des tests unitaires - Déployer ses développements - Maintenir la CI/CD - Maintenir la plateforme de production - Mettre à jour ses tickets dans JIRA

Freelance

Mission freelance
Développeur PHP / Symfony / VUE JS

SKILLWISE
Publiée le
Apache Kafka
AWS Cloud
Kubernetes

1 an
100-600 €
Paris, France

Nous vous proposons aujourd'hui une mission chez un de nos grand client en place parisienne dans le secteur du divertissement. Il s'agit ici de participer au développement d'outil interne servant à régir les ingestions vidéos et mises en ligne. Cet outil est composé: - d'un backoffice, permettant aux équipes éditioriales de planifier et suivre les ingestions et mises en lignes des contenus - et de workflows permettant la récupération des vidéos, leur envoi au service de transcodage, leur envoi aux partenaires, etc ... L'outil est développé en PHP 8.1, avec Symfony 5.4 actuellement, et VueJS pour la partie front . Ces éléments techniques sont régulièrement mis à jour (l'outil a plus de 10 ans). Il tourne sur AWS dans un cluster Kubernetes: une expérience du Cloud est appréciée, ainsi que des environnements Linux . Des changements d'architecture autour d'un bus évenementiel Kafka sont en cours, avec des messages sérialisés en Protobuf. La communication avec les partenaires se fait par différents transports (SFTP, Aspera ...) avec des formats variés (XML, JSON ...). Le domaine métier est très riche et sa bonne compréhension sera essentielle à l'intégration dans l'équipe et au bon déroulement de la mission

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
310-570 €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
Ingénieur de production- Support applicatif – N3 (applicarif)

KEONI CONSULTING
Publiée le
Apache
Reporting
UNIX

12 mois
100-380 €
Paris, France

Contexte Objectif global : Réaliser le support applicatif et technique des environnements de Production et de Recette des plateformes Front Agence du SI Mysys MISSIONS : Assister l'équipe dans la gestion et l'exploitation des fermes de serveurs du périmètre applicatif Front Agence Aider au diagnostic et à la résolution des incidents Participer à la construction et à la configuration des nouvelles machines Assurer, à terme, les astreintes hebdomadaires avec l'équipe Suivre au quotidien le run des activités Reporter régulièrement sur les tâches/projets en charge Contrainte forte du projet : Périmètre d'activités très large

CDI

Offre d'emploi
Ingénieur de production

FC Consulting
Publiée le
AIX (Advanced Interactive eXecutive)
Apache Tomcat
Centreon

45k-50k €
Paris, France

Vous opèrerez pour le compte du département d’exploitation (DEX), qui a pour activité de piloter l’offre de service de l’exploitation en coordonnant et contribuant aux opérations de ce métier assurées par des Centres de Service. Dans le cadre du contrat de service et de l’industrialisation de la production, intégrer, en apportant votre expertise, la dimension exploitation en amont des projets - Assurer l’intégration des solutions applicatives sur les environnements de Hors-Production et de Production. - Préparer et coordonner les déploiements sur le Portefeuille d’applications dont vous avez la charge - Contribuer au déroulement des PTO (Plan de Tests Opérationnel) dans le cadre des recettes de Hors-production - S'assurer du respect des normes et méthodes - Valider les prérequis à la mise en production et le respect des critères d'exploitabilité. - Opérer la documentation nécessaire aux déploiements (Manuel d’installation, Roadmap, Plan de MEP(P)) - Elaborer les consignes et autres documentations d’exploitation destinées aux équipes de MCO (RUN et Support). - Garantir le respect des délais des livrables aux différentes entités - Garantir le respect des processus en vigueur (ex : Gestion des Changements et CAB). - Apporter un soutien technique, une expertise auprès des équipes d’Exploitation durant la période de Vérification de Service Régulier (VSR). - Planifier ses activités dans le cadre du planning des projets auxquels il participe, en lien avec la Division Pilotage du Département DEX. - Repérer les dysfonctionnements et / ou identifier les axes de progrès possibles - Rendre compte de son activité auprès du Management et des Coordinateurs Techniques de l’entité. - Alerter sa hiérarchie ou les services concernés sur des risques potentiels, des dysfonctionnements ou tout autre évènement nécessitant un arbitrage ou une décision - Apporter son expertise "Exploitation" en amont des projets. - S'assurer du respect des normes et méthodes d’Exploitation. - Être responsable d'applications. - Préparer et coordonner le déploiement applicatif (en hors-production et production) - Elaborer les consignes / roadmap / Plan de MEP - Garantir le respect des délais des livrables aux projets - Garantir le niveau de service d'une production informatique vers ses utilisateurs - Former les équipes d'exploitation aux nouvelles versions applicatives et les assister en cas de problématiques rencontrés. - Piloter les mises en PROD (HO et HNO) et coordonner les intervenants (intégrateurs, et acteurs externes).

Freelance
CDI

Offre d'emploi
Ingénieur DevOps

HN SERVICES
Publiée le
Apache Maven
Docker

2 mois
10k-55k €
100-630 €
Paris, France

Nous recherchons un ingénieur DevOps pour une mission dans le secteur bancaire. Dans un environnement technique riche (Java / .Net / Angular / Python / Datastage / Oracle / MySQL / PowerBI / Shell / Openshift / GCP / …) : - Fournir un support aux composants de l'usine logicielle (Bitbucket/Jenkins/Azure DevOps/Sonar/Checkmarx/Artifactory/XLDeploy/XLRelease) - Améliorer les scripts Groovy internes pour offrir de nouvelles fonctionnalités dans les pipelines Jenkins - Aider les développeurs à construire des pipelines pertinents pour leurs produits - Collaborer avec les équipes de développement pour identifier et résoudre les problèmes.

Freelance
CDI

Offre d'emploi
ARCHITECTURE DATA PLATEFORM

Digistrat consulting
Publiée le
Apache Spark
AWS Cloud
Azure

3 ans
40k-60k €
450-600 €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service

CDI

Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75

Mindquest
Publiée le
AWS Cloud
Confluence
Databricks

70k-75k €
Paris, France

Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité

Freelance

Mission freelance
Ingénieur Full Stack Java spécialisé en ElasticSearch (Migration vers OpenSearch / AWS)

INSYCO
Publiée le
Amazon S3
Apache Maven
Apache Spark

3 ans
500-620 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Full Stack Java spécialisé en ElasticSearch pour participer à des projets stratégiques de migration et de développement applicatif. Vous interviendrez principalement dans le cadre d’une migration ElasticSearch 1.X vers OpenSearch 2.X, ainsi que sur le développement de fonctionnalités en Java/Spring au sein d’une équipe dynamique et collaborative. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/ELS/4551 en objet de votre message Missions principales Migration ElasticSearch/OpenSearch : Réaliser la migration de l’application existante d’ElasticSearch V1.8 vers OpenSearch sur AWS. Configuration avancée d'ElasticSearch et d'OpenSearch sur AWS, en tenant compte des bonnes pratiques et de la performance. Modélisation et mapping des données pour optimiser la structure des index. Création et gestion des index ElasticSearch. Mise en œuvre de fonctionnalités de recherche avancée, ainsi que la construction de requêtes ElasticSearch complexes. Optimisation des performances de la solution de recherche. Développement et maintenance d’applications Java/Angular : Implémenter, développer et maintenir des fonctionnalités en Java avec Spring et en front-end avec Angular 7+. Assurer le bon déroulement des tests unitaires et des tests de bout en bout avec l’appui du Product Owner. Produire la documentation technique, incluant les spécifications techniques et les processus de migration. Collaboration en équipe : Participer à l’animation de l’équipe Agile Safe, en contribuant aux rituels (daily meetings, PI planning, ateliers de partage de connaissances, démos, etc.). Environnement Technique : Langages et Frameworks : Java (Spring), Angular 7+, ElasticSearch, OpenSearch. Infrastructure Cloud : AWS (expérience de déploiement d’applications sur AWS, architecture serverless avec Lambda, API Gateway, etc.). Outils de DevOps et CI/CD : Docker, Terraform, GitLab CI/CD, avec gestion des environnements sur le cloud. Services AWS : S3, RDS Aurora, VPC, ainsi que des outils de monitoring (Grafana, Prometheus) et sécurité (Linux, Redhat). Autres : Apache Spark, Spring, Eclipse, VSCode, Maven, Git.

63 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous