Trouvez votre prochaine offre d’emploi ou de mission freelance Apache
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
data scientist python airflow spark anglais
Grâce à votre expertise en data science et data engineering, vous jouerez un rôle clé dans la conception, le développement et l'industrialisation de services digitaux. Encadré par le Data Science Domain Lead, vos principaux interlocuteurs seront vos coéquipiers et les autres équipes IT. Vous échangerez également avec les équipes métiers (Marketing, OPS, etc.) du groupe et des filiales. Vos qualités relationnelles, votre niveau d'anglais et de français et votre sens de l'organisation seront autant d'atouts pour accompagner les utilisateurs lors du cadrage des projets et des mises en production. Livrables Vous serez amené(e) à : - Contribuer au cadrage des projets avec les parties prenantes - Extraire, analyser et transformer des données - Créer des modèles prédictifs et/ou génératifs adaptés aux besoins de l'entreprise. - Développer, déployer et suivre des services numériques fiables et capables de passer à l'échelle. - Contribuer à trouver les solutions techniques les plus pertinentes en termes de stockage, de traitement distribué, de modèle, etc. - Participer activement à la vie de l'équipe dans un esprit de transparence et de solidarité - Accompagner les utilisateurs lors des déploiements de services pour faciliter leur adoption - Présenter les résultats des études et des projets, à ses filiales et aux différentes communautés IT et Business du Groupe.
Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE
Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting
Mission freelance
CONSULTANT APACHE SUPERSET
Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote
Mission freelance
Développeur Craftmanship / Kafka
Nous recherchons un Développeur Craftmanship spécialisé en Kafka pour accompagner un projet stratégique chez notre client. Vous serez responsable de concevoir, développer, et optimiser des solutions robustes et scalables en appliquant les principes de qualité et de craftmanship. Concevoir et développer des applications basées sur Kafka pour répondre aux besoins métiers et techniques. Implémenter des solutions selon les principes du Craftmanship : qualité de code, testabilité, maintenabilité et performance. Optimiser les flux et pipelines de données Kafka pour garantir leur robustesse et leur scalabilité. Collaborer avec les équipes techniques pour garantir l’intégration et le déploiement en CI/CD. Participer à la veille technologique et promouvoir les bonnes pratiques au sein des équipes.
Offre d'emploi
Data Engineer Spark Scala Kafka H/F
Contexte : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre Natixis SA servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI Finance (prudentiel notamment) basé sur cette assiette comptable de référence • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Missions : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle
Offre d'emploi
DevOps orienté Kafka (Genève - Relocalisation obligatoire)
Intégration d'une équipe en charge du développement, maintenance et évolution d'une plateforme sous OpenShift distribuant différents services aux équipes internes du clients. Installation et configuration des clusters Kafka sous OpenShift. Maintenance, évolution, gestion et sécurisation de la plateforme Kafka. Adepte de l'approche DevOps et automatisation. Création, maintenance et évolution des configurations IaC. Assurer le support N3. Documentation technique et fonctionnelle. Création de dashboard et assurer l'intéraction de la plateforme et les outils autours.
Mission freelance
Développeur Big Data Spark (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Big Data Spark (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Projet de pilotage et d’analyse du système et doit répondre aux enjeux suivants : Assurer le pilotage du système et des processus métier associés. Garantir la qualité et la sécurité des informations. Contribuer à l’amélioration continue du système. L’application permet trois principales fonctionnalités : Le reporting L’export des données L’exploitation de données Elle est utilisée par environ 1500 utilisateurs (analystes, experts métiers, experts SI). Fonctionnement : 50% sur site à Lyon + 50% télétravail. Les missions attendues par le Développeur Big Data Spark (H/F) : Les missions tournent autour de 4 axes : Apporter une connaissance en Big Data (Spark) pour faciliter la manipulation des données. Définir les solutions techniques permettant le traitement massif de données. Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.). Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation. Activité principale : Assure la création, la maintenance, l'optimisation et la sécurité des bases de données. Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier. Assure le support aux équipes de développement afin d’identifier et proposer des solutions performantes SGBD les mieux adaptées d’un point de vue métier. Apporte une connaissance transverse sur Spark. Activité secondaire : Veille technologique sur les outils utilisés au sein du projet. Partage et formation sur les guides de bonnes conduites. Stack technique de l'équipe : Big Data: Spark, Hive, Indexima. Stockage: Oracle, CEPH S3 (parquet). Langages: Java, Python, PL/SQL, Shell. CI/CD: Ansible, Terraform, Jenkins, GIT. ETL: Informatica. Dataviz: Tableau Server. Ordonnanceur: Control-M.
Mission freelance
data engineer python / spark / databricks
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Offre d'emploi
Tech Lead Exploitation et Mobilité JAVA/ ANGULAR/ KAFKA
Le techlead exploitation anime une équipe de 5 à 7 personnes en charge de développer et de maintenir le système d’information « exploitation ». Ce SI critique est constitué d’une demi-douzaine de produits. Il permet de piloter nos mobiliers connectés, de gérer et suivre y compris en mobilité l’activité d’un millier d’agents en charge de l’entretien de mobiliers. Ses principales missions sont : Participer avec le product owner et l’architecte SI au positionnent des nouveaux produits dans le SI. Concevoir et développer, avec son équipe, les nouveaux produits et/ou les nouvelles fonctionnalités. Assurer le maintien en condition opérationnelle des produits du SI exploitation. Être garant des sources et de l’intégration continue des produits du SI exploitation. Être garant de la qualité des développements (bonnes pratiques, Test, documentation, etc.) Assurer le sourcing et l’animation de l’équipe (5 à 7 personnes) Être l’interlocuteur privilégié du product owner et assurer l’interface avec les équipes architecture du SI, industrialisation, production et avec les autres équipes de développements. Assumer le rôle de Scrummaster et participer activement à l’amélioration des pratiques Agile (Scrum). En plus des missions, les principaux objectifs à moyen terme porteront sur : l’amélioration des pratiques agiles et de développement de l’équipe. une contribution active au cadrage et la réalisation de nouveaux produits permettant d’élargir la digitalisation de l’activité d’exploitation.
Mission freelance
Lead Developpeur /Junior PHP / Laravel Kafka
Le profil recherché est un développeur PHP Senior ayant une expérience significative, avec une capacité de conception technique de solution applicative, et sachant orienter et encadrer le travail d’autres développeurs. Il interviendra en renfort d’un Tech Lead en place pour soutenir le suivi de développements offshore en Inde. La mission se déroulera au sein de la Direction des Systèmes d’Information, sous la responsabilité d’un architecte de la solution « Hive » et en collaboration etroite avec le Tech Lead. Le rôle du tech lead consiste à : · Suivre au quotidien la bonne prise en compte des principes établis, et de manière générale le respect des bonnes pratiques o Le cas échéant, aider les développeurs o Donner aux POs tous les éléments pour prioriser la backlog en conséquence o Compléter si besoin les consignes à respecter o Adapter la chaîne de CI si nécessaire o Suivre, encadrer et controler le travail des équipes off-shore · Prendre connaissance des nouveaux besoins et assister les POs dans la qualification et les macro-estimations. o Détecter des difficultés particulières, imaginer des esquisses de solution, se rapprocher de l’architecte pour envisager les options o Le cas échéant, effectuer la conception détaillée des solutions · Suivre l’exploitabilité et le comportement des applications o Surveiller régulièrement, avec les POs, le comportement des applications avec les outils disponibles § Le cas échéant, proposer/réaliser des dashboards supplémentaires, ou remonter le besoin d’amélioration o Rester en contact régulier avec les intégrateurs et les ops · Suivre et traiter les merge requests · Rester à l’écoute des pratiques et des technologies qui émergent · Contribuer, avec l’architecte et les autres tech leads, à l’animation technique des équipes (ex. sessions Lunch&Learn) · Concevoir et réaliser des stories Participer au recrutement des développeurs
Offre d'emploi
Data architect SPARK
developper l'offre SPARK aas sur le cloud privé IBM Nous recherchons un Architecte Data - qui maitrise les notions DEVOPS et les études d'architectures des produits as a Services qu'on fournit: (Apache AIFRLOW OU STARBURST OU SPARK) L'outillage/ecosystème ( Vault, Kubernetes/HELM, Monitoring elastic/dynatrace, Gitlab CI, ArgoCD, sécurité) - Challenger les nouveaux besoins des clients et les inclure dans la roadmap/release management - Fournir des standards et modèles d'intégrations de solutions Data à BNP - Accompagner et former les équipes de solutions Data
Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote
skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Offre d'emploi
Ingénieur Back End Java Kafka H/F
Proelan recrute pour un de ses client basé à Sophia Antipolis, un(e) Ingénieur Java qui possède une forte sensibilité pour la stack technique Kafka. Si tu es passionné par les nouvelles technologies, les environnements agiles et les architectures modernes, ce poste est fait pour vous ! Tes principales missions seront : En tant que Développeur Java, vos principales responsabilités seront : - Participer à l'élaboration des besoins métiers - Concevoir et estimer des solutions techniques adaptées - Implémenter les solutions techniques - Livrer régulièrement des fonctionnalités apportant une réelle valeur métier - Analyser et corriger les anomalies identifiées - Participer à la validation des développements (tests unitaires, revue de code). Ta stack technique : - Contexte Agile (Kanban, cycle itératif) - Utilisation de pratiques DDD (Domain-Driven Design) - Back-end : Java (Java 8+), Spring (Core, Boot, Data, Batch, Security OAuth, Cloud Config), Kafka, Hibernate, Oracle, ElasticSearch - Front-end : JavaFX - Architecture : CQRS, Event Sourcing, DDD, architecture distribuée - Outils : Git, Maven, Jenkins.
Offre d'emploi
Data Engineer DevOps Airflow (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Intégration des modèles d’IA · Développement de processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers · Conception des solutions nécessitant l’utilisation de technologies data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données · Travaille avec différents profils data du groupe (Data Scientist, Data Engineer, Data Architect, Data Analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
Back-End Developer Java Springboot Maven *english/french*
Secteur : Services aux entreprises Présentation du projet Le Designer fournira une solution globale pour le contexte B2B, que chaque pays pourra utiliser selon ses besoins spécifiques pour créer et concevoir leurs offres. Mission Développer de nouveaux modules, tels que spécifiés par le Product Owner, en respectant les priorités définies lors des cérémonies Agile. Soutenir l'équipe dans la prise de décisions techniques. Proposer activement des idées pour améliorer la qualité ou la livraison. Maintenir et améliorer la solution existante. Développer en respectant les processus de gestion de projet Agile Scrum. Maintenir et développer les pipelines CI/CD/CT.
Offre d'emploi
Développeur Java Kafka H/F
Le bénéficiaire souhaite une prestation d’accompagnement dans l´objectif d´assurer de l´expertise technique dans le cadre d'un projet d'implémentation de solution permettant l'amélioration de l'efficacité du Screening. L'objectif du projet est de contribuer à améliorer le balayage et le traitement quotidien des dizaines de million de relations de la Banque contre des listes de Sanctions, Embargos et PPE (personnes politiquement exposées). Autrement dit, améliorer la lutte contre le blanchiment d'argent (LCB/AML) et le financement du terrorisme (FT). Les missions sont : - Compréhension et appropriation du code, de l’architecture et des fonctionnalités existantes; - Réalisation des développements; - Création ou mise à jour des tests unitaires associés; - Respect des principes de développement et les barrières qualité; - Mise en place de la documentation technique; - Proposition de solutions dans le cadre de l’amélioration continue; - Conduite du changement vers les technologies innovantes (Docker, Kubernetes, Cloud...) et des méthodes de développement (TDD, DDD, BDD).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.