Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Hive à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert plateforme Live Replay et OTT avec expertise en architecture broadcast
Bonjour, Nous recherchons pour notre client grand compte un Expert plateforme Live Replay et OTT avec expertise en architecture broadcast . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/OTT/4614 dans l’objet de votre mail Prestation : Un client grand compte recherche une expertise technique senior pour renforcer son équipe d'Ingénierie Réseaux dans le cadre des projets d'évolution des infrastructures de diffusion vidéo sur IP (Live, Replay, OTT). L'expert interviendra sur la définition d'architectures broadcast, l'intégration et le déploiement des réseaux IP Multicast. Activités principales de la prestation : Organisation ou participation aux projets d'évolutions Définition d'architectures techniques adaptées à l’environnement du client Intégration et configuration des solutions Recette des environnements Transfert de connaissance aux équipes Ingénierie et Support Migration vers les nouvelles architectures identifiées Support N3 auprès de l’équipe exploitation réseaux Compétences requises : Livrables attendus : Documentation technique et schémas d’architecture. Procédures d’exploitation. Cahier de recette.
Mission freelance
Expert diffusion Replay Live – OTT - IP Multicast - SMPTE 2110
Afin de renforcer l'équipe d'Ingénierie Réseaux dans le cadre des projets d’évolution des infrastructures de diffusion de vidéo sur IP pour le build / run d’une infrastructure de diffusion Live, Replay et OTT, nous avons besoin d’une prestation d’expertise technique de niveau senior avec une expérience significative sur la définition d’architecture broadcast sur ce type d’environnement (Live, Replay et OTT), l’intégration et les déploiements des réseaux IP Multicast dans une entreprise audiovisuelle. Activités principales et livrables attendus pour la réalisation de la prestation : • Organisation ou participation aux différents projets d'évolutions • Définition d'architecture technique dans l’environnement • Intégration et configuration des solutions • Recette des environnements • Transfert de connaissance aux équipes Ingénierie et Support • Migration des environnements identifiés sur les nouvelles architectures • Assurer un support N3 à l’équipe exploitation réseaux Expertises requises (obligatoires) : • Expertise sur les environnements Cisco NDFC / DCNM • Expertise sur les déploiements d’architecture SMPTE 2110 • Maitrise des environnements Spine & Leaf (MP-BGP / VXLAN) • Maitrise des protocoles de routage OSPF / BGP / PIM / • Maitrise du protocole PTP • Maitrise des environnements NXOS (NBM / Reflector NAT) • Maitrise des environnements IP Multicast • Maitrise des environnements Palo-Alto / Asa • Expertise sur les déploiements d’architecture SRT/OTT/RTMP/SDI • Expertise sur les modulation optiques, multiplexage actif /passif Expertise optionnelle : • Certification CCNP Livrables attendus : • Document d'architecture technique / schéma d’architecture • Procédures d’exploitation • Cahier de recette Modalités de la prestation : • Interventions ponctuelles en HNO • Astreintes en HNO et WE
Mission freelance
Data Engineer Python Spark - Confirmé/fa
Data Engineer Python Spark - Confirmé client Banque basé à Paris Gare de Lyon, un Data Engineer - Confirmé avec un minimum de 4 ans d’expériences. Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Contribuer à la Fabrication des Produits des équipes dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) Contribuer à la fabrication d'un entrepôt de données interne dans un environnement Python - PostGresql Etre force de proposition et expertise sur les techno manipulées Principaux livrables : Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et les équipes) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences requises : Python (requis), Spark - spark streaming et batch (requis), Kafka (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Autonomie, Adaptabilité, Bonne communication (lien direct avec les PO ou DEV), Apprécié - activités BI : BDD Teradata, xDI, SQL Data viz : Microstrategy
Mission freelance
Architecte Data Solution - CIB
Nous recherchons un Architecte Data Solution expérimenté ayant des expérience au sein du secteur bancaire CIB. Vos missions : Mise en place du data mesh en temps réel pour gérer les flux de données Travailler sur des modèles de données normalisés tels que Common Domain Model (CDM) et Financial Products Markup Language (FPML) pour standardiser les processus Architecture hexagonal et DDM : conception et mise en oeuvre des architectures hexagonales basées sur le Distributed Data Management Pré-requis : bac + 5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte Data Solution avec une ou plusieurs expérience dans le secteur bancaire, idéalement CIB vous avez obligatoirement travailler sur la mise en place du data mesh , travailler sur le CDM, FPML et l'architecture hexagonal (DDM) Maitrise de l'anglais maitrise de la stack technique big data : Kafka, Hive, Spark et Oozie
Mission freelance
Chef de Projet SAS Confirmé H/F
Dans le cadre de la transformation de son activité Décisionnel, le client recherche un Chef de projet SAS H/F pour l’accompagner sur deux sujets de transformation (à mi-temps) : - Migration des utilisateurs SAS de Teradata vers Hadoop - Appel d’offre, choix et acquisition d’un nouvel outil en vue de remplacer SAS Le chef de projet H/F pilotera l’activité de transformation avec une équipe dédiée, sur Lyon et sur Paris. Des déplacements sont donc à prévoir dans le cadre de ce pilotage. Vous accompagnerez le client sur la migration vers SAS-Hadoop, et le process d’acquisition d’un nouvel outil en vue de remplacer SAS dans les prochaines années. Un premier benchmark de solution du marché est en cours de réalisation avant de démarrer le projet, avec un recensement des cas d’usages utilisateur. Fort de votre expérience sur cette technologie et de vos compétences en gestion de projet, vous piloterez le projet par les jalons, gérerez les risques et alerterez la hiérarchie en cas de glissement. Vous devrez également préparer et animer la comitologie du projet de transformation SAS. Rattaché(e) au responsable Transformation Décisionnel, vos principales missions sont : Faire un état des lieux technique et fonctionnel de l’existant Mener des entretiens utilisateurs afin de faire un état des lieux des usages SAS et les besoins futurs Accompagner les utilisateurs dans la migration de SAS-Teradata vers SAS-Hadoop, et piloter ce plan de migration Planifier et suivre l’avancement des travaux liés à la transformation Gérer les risques inerrants au projet, Préparer et animer les différents comités (Comité suivi, Comité opérationnel ,.. ) Assister le responsable Transformation Décisionnel pour la préparation des comités de pilotage Jouer un rôle de conseil sur les bonnes pratiques en termes de gestion de projet, ainsi que sur les fonctionnalités SAS à utiliser dans Hadoop. Accompagner les utilisateurs sur les aspects techniques de SAS. Être amené(e) à coordonner les différentes équipes techniques, recette et métier tout au long de la phase de migration Piloter les démarches pour le choix et l’acquisition d’un nouvel outil, en relation avec l’ensemble des parties prenantes Rédaction de documents de synthèse sur les deux périmètres Rédaction et dépouillement des appels d’offre A noter que cette mission est à pourvoir à mi-temps. Environnement technique SAS Teradata Python et le stack Cloudera (HDFS, Hive, Spark, Impala, HBase, …), pour des usages Big Data
Mission freelance
Un Data Engineer sur Paris
Smarteo recherche pour l'un de ses clients, grand compte, Un Data Engineer sur Paris Projet : Contribuer à la Fabrication des Produits des équipes dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) Contribuer à la fabrication d'un entrepôt de données interne dans un environnement Python - PostGresql Etre force de proposition et expertise sur les techno manipulées Principaux livrables : Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et les équipes) Mettre en ?uvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences requises : Python (requis), Spark - spark streaming et batch (requis), Kafka (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Autonomie, Adaptabilité, Bonne communication (lien direct avec les PO ou DEV), Apprécié - activités BI : BDD Teradata, xDI, SQL Data viz : Microstrategy Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible
Mission freelance
POT8135-Un Data engineer sur Paris
Almatek recherche pour l'un de ses clients Un Data engineer sur Paris. Projet : Contribuer à la Fabrication des Produits des équipes dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) Contribuer à la fabrication d'un entrepôt de données interne dans un environnement Python - PostGresql Etre force de proposition et expertise sur les techno manipulées Principaux livrables : Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et les équipes) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences requises : Python (requis), Spark - spark streaming et batch (requis), Kafka (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Autonomie, Adaptabilité, Bonne communication (lien direct avec les PO ou DEV), Apprécié - activités BI : BDD Teradata, xDI, SQL Data viz : Microstrategy Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans
Offre d'emploi
Tech Lead Java Spark
💼 Poste : Tech Lead Java Spark référence 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite mettre en œuvre le volet transformation du système d'information du programme d'amélioration du dispositif de pilotage et de certification de l'assiette risques structurels dont les objectifs sont : Amélioration et accélération de la constitution de l'assiette risques structurels La certification de cette assiette risques structurels cohérente comptable Renforcer la remédiation en termes de qualité de donnée et réduire le nombre d'ajustements manuels Notre client souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre notre client souhaite bénéficier de l'expertise du Prestataire en termes de conception et développement. Dans ce cadre, la prestation consiste à contribuer à/au(x): L’instruction et le cadrage technique des projets, L’implémentation de solutions techniques en méthodologie agile Environnement technique : Java (Spark est un gros plus, Python est un plus) Devops : Ansible, Jenkins, GitHub Actions, Sonar, Artifactory Big Data & Cloud : Cloudera CDP, Apache stack (HDFS, Oozie, Yarn) Data : Oracle DB, PostgreSQL, Hive, Elastic Search, REST APIs Livrables attendus Les livrables attendus sont : Notes de cadrage techniques Spécifications techniques Support et développement sur toutes les releases 2024-2025 🤝 Expertises spécifiques : Agile Scrum Ansible Artifactory Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Elastic Search & Kibana Hive Java Jenkins Oracle Database Enterprise Server PostGreSQL REST Scripting (GuitHub, Ansible, AWX, shell, vba) Sonar
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.