Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Spark
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Consultant décisionnel BI
Nous recherchons un Consultant Décisionnel BI expérimenté pour intégrer une équipe projet dynamique et réaliser une mission chez l'un de nos clients. En tant que tel, vos missions seront les suivantes : Analyser les besoins fonctionnels et techniques afin de concevoir une architecture de données efficace et performante. Collaborer étroitement avec les référents techniques pour des sujets hors cadre BI classique (ex. : Big Data, solutions NoSQL, intégration sans ETL). Modéliser et enrichir des datawarehouses (entrepôts de données) et datamarts (magasins de données) pour répondre aux besoins métiers. Développer et documenter les processus d’intégration et transformation de données. Créer des rapports et tableaux de bord lisibles et exploitables, en adéquation avec les attentes métiers. Tester la qualité et la performance des rapports et dashboards produits. Assurer la formation et l’accompagnement des utilisateurs pour une prise en main optimale des livrables BI. Maintenir en conditions opérationnelles les solutions livrées Environnement technique : Informatica, Java, Tableau Server, Oracle, Cascading, Maven, Hive, CEPH, Indexima, Control-M, Git, Jenkins, Ansible, Spark, Terraform
Mission freelance
Dévelopeur Java/Scala (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Dévelopeur Java/Scala (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons un développeur Java/Scala pour rejoindre une équipe technique travaillant sur des projets Big Data dans le cadre de la transformation digitale d'un acteur majeur de la logistique pour l'intégration de systèmes et l'optimisation des flux de données. Vos missions : - Participer au développement des injecteurs et des adaptateurs en Java et Scala. - Implémenter des microservices permettant la gestion et le suivi des flux de données. - Réaliser les tests unitaires et d'intégration pour garantir la qualité des composants. - Collaborer avec les Tech Leads et les Product Owners pour garantir la bonne intégration des composants dans l'architecture globale. Profil recherché : - Expérience : Minimum 3 ans d'expérience en développement Java/Scala dans des environnements Big Data. - Compétences techniques : - Langages : Java, Scala - Big Data : Kafka, Spark Streaming - Bases de données : Cassandra, Elasticsearch - Outils DevOps : Docker, Jenkins - Capacité à travailler en équipe et bonne connaissance des méthodologies agiles (Scrum). Pourquoi nous rejoindre ? - Projet d'envergure : Participez à un projet innovant et complexe visant à transformer la logistique. - Environnement stimulant : Travaillez sur des technologies modernes avec une équipe d'experts en Big Data. - Possibilité de télétravail partiel pour favoriser un équilibre entre vie professionnelle et personnelle. Modalités de la Mission : - Durée : 6 mois (renouvelable). - Localisation : Île-de-France avec possibilité de télétravail 2 jours par semaine.
Mission freelance
Architecte Solution Big Data (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Architecte Solution Big Data (H/F) dans le cadre d'un projet Big Data. Description du poste : Nous recherchons un Architecte Solution expérimenté pour rejoindre notre équipe dédiée à la transformation digitale et aux projets Big Data dans le secteur de la logistique et de la livraison. Le candidat idéal concevra des architectures logicielles robustes et adaptatives pour des solutions de gestion de flux de données à grande échelle, contribuant à optimiser les services de suivi et de gestion d'objets de livraison. Responsabilités : - Concevoir et mettre en oeuvre des architectures système et logicielles adaptées aux besoins des projets Big Data et en ligne avec les exigences d'urbanisme. - Assurer la cohérence et l'homogénéité des solutions logicielles tout en garantissant leur évolutivité et adaptabilité. - Collaborer avec les équipes de développement pour leur communiquer les règles d'architecture et offrir un support technique. - Participer à la définition de l'architecture fonctionnelle des projets en collaboration avec les urbanistes. - Analyser et proposer des améliorations sur les architectures existantes. Compétences requises : - Expérience significative en architecture de solutions Big Data. - Maîtrise des technologies Java, Scala et de frameworks comme Spring Boot. - Connaissance des outils de traitement de flux (Kafka, Spark Streaming, Akka Streaming). - Compétences en bases de données distribuées (Cassandra, Elasticsearch). - Connaissance des environnements de déploiement Docker, Kubernetes et Jenkins. - Compétences en méthodologies agiles (Scrum) pour s'intégrer dans un contexte de développement itératif. Profil recherché : - Niveau : Sénior à Expert en architecture logicielle. - Expérience de collaboration dans un environnement agile. - Capacité à travailler en équipe, à former et guider les développeurs sur les bonnes pratiques. - Autonomie, rigueur et excellent sens de la communication. Conditions de travail : - Localisation : Issy-les-Moulineaux avec possibilité de télétravail partiel. - Disponibilité : Démarrage souhaité début décembre 2024.
Mission freelance
Tech Lead senior Java et Scala (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Consultant Tech Lead Java & Scala (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons actuellement 2 Tech Leads ayant une forte expertise et expérience en Java et Scala et une solide expérience dans des environnements Big Data. Vous rejoindrez une équipe dédiée au développement de solutions autour de la traçabilité des objets, de la gestion des événements, et de l'amélioration des services client dans le cadre d'un projet de transformation digitale majeur. Vos missions : - Définir l'architecture logicielle des solutions en collaboration avec l'équipe d'architectes. - Participer au développement en restant un acteur clé sur la partie technique pour maintenir votre expertise. - Accompagner et encadrer l'équipe de développeurs, en assurant la montée en compétences sur les technologies Big Data. - Garantir la qualité des livrables en effectuant des revues de code, en supervisant les tests unitaires et en optimisant les performances. - Contribuer à la veille technologique et au développement de prototypes, avec une capacité à être force de proposition sur les choix technologiques. - Collaborer étroitement avec les Product Owners, Scrum Masters, et les architectes pour garantir l'alignement de l'architecture et des développements avec les besoins métier. Profil recherché : - Expérience : Vous êtes un expert avec au moins 7 ans d'expérience professionnelle en développement Java (spring boot) et Scala (la maitrîse des 2 langages de programmation est obligatoire), ainsi qu'une expérience significative en tant que Tech Lead sur des projets complexes. - Expertise technique : - Langages : Java (spring boot), Scala - Big Data : Kafka, Spark Streaming, Akka - Bases de données : Cassandra, Elasticsearch - Déploiement : Docker, Kubernetes, Jenkins - Message Protocol : Protobuf, Avro - Compétences en leadership : Expérience dans l'encadrement et la montée en compétences des développeurs, mise en oeuvre des bonnes pratiques de développement, coaching agile. - Agilité : Bonne connaissance de la méthodologie Scrum, capable d'évoluer dans un environnement agile et d'encadrer les équipes dans ce cadre. Modalités de la Mission : - Durée : Mission de 6 mois (renouvelable selon les besoins). - Environnement de travail : Localisation en Île-de-France avec possibilité de télétravail partiel.
Mission freelance
Ingénieur DevOps Senior (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Ingénieur DevOps Senior (H/F) dans le cadre d'un projet Big Data. Description du poste : Nous recrutons pour notre client, une entreprise d'envergure, actuellement en pleine transformation digitale de sa plateforme de données. Ce projet vise à optimiser une infrastructure robuste et élastique capable de répondre aux besoins de performance et de personnalisation, tout en permettant des traitements en temps réel et des analyses avancées. Missions principales : - Développer et gérer une infrastructure automatisée et scalable, en utilisant des pratiques Infrastructure as Code. - Orchestrer et automatiser le déploiement de conteneurs et la gestion d'applications dans un environnement de grande échelle. - Mettre en place et gérer des pipelines d'intégration et de déploiement continus pour garantir la fluidité des déploiements et la rapidité des itérations. - Développer des scripts avancés pour optimiser les processus de monitoring, de sécurité et de maintenance. - Participer à la gestion de flux de données distribués en temps réel et au traitement de gros volumes, tout en assurant la résilience et la sécurité de la plateforme. Profil recherché : - Expérience confirmée de 5 ans minimum en DevOps et Infrastructure as Code. - Maîtrise des technologies de conteneurisation et d'orchestration. - Compétences avancées en scripting pour l'automatisation des processus. - Connaissance approfondie des systèmes distribués et des environnements de production. Connaissances techniques requises : - Infrastructure as Code : Ansible. - Conteneurisation et orchestration : Kubernetes, Docker. - Automatisation et scripting : Bash, Python. - Gestion de pipelines CI/CD : GitLab CI, Jenkins, Nexus. - Middleware et traitement des données : Kafka, Spark, Cassandra, Elastic. - Outils de monitoring : Grafana, Prometheus, Kibana. - Connaissance de GO (souhaitée) pour le développement de microservices. - Environnement cloud et réseau sous Linux.
Offre d'emploi
Architecte Data Azure
INVENTIV IT est à la recherche de son futur Architecte Data Azure. Avec 7 ans d'expérience au minimum Profil Technico-fonctionnel. Nous travaillons principalement dans un environnement Azure sur des sujets Big Data & Data Viz. Nous gérons à la fois le Build & le Run des applicatifs. Nous devons avoir une vision 360 des sujets Data : Data Mesh, Data Management, Acculturation Data ... Environnemennt : Azure Data Lake Azure Databricks Azure Synapse Azure Fabric Azure Data Factory Spark / Scala / Python Power BI Snowflake Résumé quelques une de nos missions : Participation à l’évaluation et à la livraison de composants Azure • Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). • Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. • Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. • Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). • Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. • Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure.
Mission freelance
Tech Lead en BigData/PowerBI
Attendu : BI (Senior): - SQL (Teradata serait un plus) - Script Shell/Unix - PowerBI & Business Object (confirmé) BigData (Senior): - Java - Spark - Kafka - Script Shell/Unix - La partie la plus importante car tous les process comportent des scripts javaSpark en batch ou streaming (source Kafka) Autre (Confirmé): - Anglais (B2) - Jira - Scrum - SAFe Soft Skills: Il faudrait idéalement quelqu'un qui a eu une expérience avec l'offshore en Inde. Un team player, problem solver et pragmatique qui sait se rendre dispo pour aider tous les membres de l'équipe. Nb années d'expérience : 5 ans et +
Mission freelance
Tech Lead (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Consultant Tech Lead (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons actuellement deux Tech Leads ayant une forte expertise en Java/Scala et une solide expérience dans des environnements Big Data. Vous rejoindrez une équipe dédiée au développement de solutions autour de la traçabilité des objets, de la gestion des événements, et de l'amélioration des services client dans le cadre d'un projet de transformation digitale majeur. Vos missions : - Définir l'architecture logicielle des solutions en collaboration avec l'équipe d'architectes. - Participer au développement en restant un acteur clé sur la partie technique pour maintenir votre expertise. - Accompagner et encadrer l'équipe de développeurs, en assurant la montée en compétences sur les technologies Big Data. - Garantir la qualité des livrables en effectuant des revues de code, en supervisant les tests unitaires et en optimisant les performances. - Contribuer à la veille technologique et au développement de prototypes, avec une capacité à être force de proposition sur les choix technologiques. - Collaborer étroitement avec les Product Owners, Scrum Masters, et les architectes pour garantir l'alignement de l'architecture et des développements avec les besoins métier. Profil recherché : - Expérience : Vous êtes un expert avec au moins 7 ans d'expérience professionnelle en développement Java et Scala, ainsi qu'une expérience significative en tant que Tech Lead sur des projets complexes. - Expertise technique : - Langages : Java, Scala (Spring Boot) - Big Data : Kafka, Spark Streaming, Akka - Bases de données : Cassandra, Elasticsearch - Déploiement : Docker, Kubernetes, Jenkins - Message Protocol : Protobuf, Avro - Compétences en leadership : Expérience dans l'encadrement et la montée en compétences des développeurs, mise en oeuvre des bonnes pratiques de développement, coaching agile. - Agilité : Bonne connaissance de la méthodologie Scrum, capable d'évoluer dans un environnement agile et d'encadrer les équipes dans ce cadre. Modalités de la Mission : - Durée : Mission de 6 mois (renouvelable selon les besoins). - Environnement de travail : Localisation en Île-de-France avec possibilité de télétravail partiel.
Offre d'emploi
Data Engineer Snowflake / Databricks
À propos de l'entreprise : Notre client est une société dynamique et innovante spécialisée dans l'accompagnement des entreprises dans la valorisation de leurs données. En pleine expansion, cette société à taille humaine (environ 15 collaborateurs) se distingue par sa capacité d'adaptation et sa forte culture collaborative. • Structure agile : taille humaine, faible turn-over, esprit d'équipe. • Collaboratif et engagé : chaque collaborateur contribue au développement technique et commercial de l'entreprise, ainsi qu'au recrutement. • Montée en compétences : formations régulières en techniques avancées, certifications et développement des soft skills. • Évolution rapide : revue de performance semestrielle, permettant des perspectives d'évolution accélérées. • Contexte international : l'entreprise est en phase d'expansion au-delà des frontières nationales. • Stabilité des missions : aucun consultant en intercontrat, signe d'une gestion optimale. Vos missions incluent : • Conception et développement de solutions de données avec Snowflake et/ou Databricks pour des analyses optimisées. • Intégration et maintenance des pipelines de données pour assurer leur fiabilité et performance. • Collaboration avec les équipes techniques et métiers pour recueillir les besoins, définir les objectifs, et fournir des solutions adaptées. • Modélisation et optimisation des structures de données pour garantir la fluidité des analyses et une exploitation efficace. • Rédaction de spécifications fonctionnelles et techniques pour assurer une documentation de qualité. • Participation aux sessions de définition des processus cibles avec les clients et recommandations de Best Practices. Profil recherché : • Diplôme d'Ingénieur ou Bac+5 en informatique, spécialisation en Data Engineering est un plus. • Expérience d'au moins 3 ans en cabinet de conseil, avec une expertise en Snowflake, Databricks ou technologies similaires. • Compétences en modélisation et structuration de données (ETL, SQL avancé, Spark). • Anglais professionnel, permettant d'échanger dans un contexte international. Qualités recherchées : Vous êtes autonome, avez une excellente communication et une capacité d'adaptation. Votre esprit analytique et votre sens de l'initiative vous permettent d'apporter une réelle valeur ajoutée aux projets. Ce poste est fait pour vous ? Rejoignez une société en pleine croissance et portez vos compétences Data au niveau supérieur ! Candidatures confidentielles
Offre d'emploi
Tech Lead Data GCP
Tech Lead Data Cloud (GCP/AWS) Nous recherchons pour l'un de nos clients un(e) Tech Lead Data Cloud. Vous aurez l'opportunité de rejoindre une entreprise innovante, en pleine croissance, et de contribuer activement à la transformation digitale de ses clients grâce à des projets data ambitieux. Vos missions principales : • Audit cloud : Évaluer la configuration cloud des clients et recommander des améliorations pour optimiser leurs systèmes. • Architecture cloud-native : Concevoir des architectures data sur GCP et AWS, en utilisant des technologies telles que BigQuery, Redshift, MongoDB, Athena, CloudSQL, et Firestore. • Développement de pipelines : Mettre en place et développer des pipelines de traitement de données avec Spark, Dataflow, PubSub, SQS, etc. • Support aux équipes Data Science : Préparer et fournir les données nécessaires pour les projets de Machine Learning. • Onboarding clients : Accompagner les clients dans l'adoption des bonnes pratiques cloud et DevOps. • Automatisation CI/CD : Déployer des processus d'automatisation (CI/CD, GitOps) pour assurer des projets fluides. • Intégration et déploiement : Assurer le déploiement et l'intégration des solutions data et leur passage en production. Pourquoi rejoindre cette entreprise ? • Formation continue : Accès à des formations certifiantes 100% prises en charge et du temps dédié à la veille. • Days : Une journée par mois (12 jours par an) pour la veille technologique et le partage de connaissances. • Jours hors projets : Un quota de jours annuels dédié aux formations et conférences. • Mobilité durable : Prise en charge à 50% des frais de transport public et forfait pour les mobilités douces. ???? • Événements et culture d'entreprise : Séminaire annuel, activités mensuelles sponsorisées par l'entreprise, conférences tech, et afterworks réguliers ! Intéressé(e) par ce poste ? N'hésitez pas à nous contacter pour plus d'informations et discuter des opportunités !
Mission freelance
Développeur Big Data - Lyon (F/H)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Développeur Big Data - Lyon (F/H) Mission à pourvoir en régie en région Lyonnaise Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : · Création, maintenance et optimisation des bases de données. · Optimisation des requêtes SQL et PL/SQL pour améliorer les performances applicatives. · Support aux équipes de développement et expertise Big Data (Spark). · Veille technologique et accompagnement des développeurs sur les bonnes pratiques.
Mission freelance
Scrum Master (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Scrum Master (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons un Scrum Master pour rejoindre une équipe Agile travaillant sur un projet de transformation digitale dans le secteur de la logistique. Vous encadrerez deux squads dédiées au développement de solutions Big Data innovantes pour la traçabilité des objets, la gestion des événements logistiques, et l'amélioration des services clients. Ce projet comprend des développements en Java/Scala, l'utilisation de technologies Big Data, et l'intégration avec des systèmes d'information complexes. Vos missions : - Faciliter les cérémonies Agile (Daily Stand-ups, Sprint Planning, Retrospectives, Reviews) pour assurer le bon déroulement des sprints. - Encadrer et coacher les équipes de développement afin de maximiser leur vélocité et leur engagement envers les objectifs du sprint. - Assurer la transparence des objectifs, des obstacles, et de la progression des squads en communiquant efficacement avec les parties prenantes et les Product Owners. - Identifier et lever les obstacles (impediments) qui pourraient freiner l'avancement de l'équipe, en collaboration avec les Tech Leads et les autres membres de l'équipe. - Promouvoir l'amélioration continue en s'assurant que chaque rétrospective mène à des actions concrètes pour améliorer les processus et la collaboration. - Collaborer avec les Product Owners pour établir et maintenir un backlog clair, détaillé, et priorisé, garantissant l'alignement entre les équipes et les besoins métiers. Profil recherché : - Expérience : Au moins 5 ans d'expérience en tant que Scrum Master, avec une solide expertise dans des projets Agile d'envergure, idéalement dans des environnements techniques complexes. - Certifications : Certification Scrum Master (CSM, PSM) fortement souhaitée. - Compétences en facilitation : Capacité à animer des cérémonies Scrum avec rigueur tout en favorisant une ambiance bienveillante et constructive. - Compétences en coaching : Expérience avérée dans la montée en compétences des équipes de développement, en aidant chaque membre à maximiser son potentiel. - Technologies : Une bonne compréhension des environnements Big Data (Kafka, Spark, Cassandra) et du développement en Java/Scala est un plus pour être en mesure de mieux encadrer l'équipe technique. - Qualités personnelles : Excellentes compétences en communication, esprit collaboratif, capacité à gérer des équipes pluridisciplinaires, et forte orientation vers la résolution de problèmes. Pourquoi nous rejoindre ? - Impact direct sur un projet stratégique visant à transformer le secteur de la logistique grâce à des solutions innovantes. - Environnement Agile stimulant avec des équipes passionnées et des technologies modernes. - Possibilité de télétravail partiel, favorisant un équilibre vie professionnelle et personnelle. Modalités de la Mission : - Durée : 6 mois (renouvelable selon les besoins). - Localisation : Île-de-France avec possibilité de télétravail 2 jours par semaine.
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions ????? : • ???? Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. • ???? Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. • ????? Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. • ????? Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. • ???? Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique ???? : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow • Langages de Programmation : Python, SQL • Outils de DevOps : Terraform, Docker, Kubernetes • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : • Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? ???? Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Mission freelance
DATA INGENIEUR (DATAIKU) MAX €420
Hanson Regan recherche actuellement un DATA INGENIEUR (DATAIKU) en freelance pour travailler sur un projet de données à grande échelle pour une entreprise française bien connue à Aix en Provence. En collaboration avec une équipe existante, vous serez responsable de l'administration de la plateforme DataIku DSS ; concevez et développez des pipelines de données robustes et évolutifs ; et travaillez en étroite collaboration avec les équipes pour comprendre les besoins et adapter les solutions appropriées. L'ingénieur de données retenu devra avoir une très bonne connaissance de la plateforme DataIku et des principes DevOps, ainsi que de solides compétences SQL et Python pour la manipulation des données. Vous serez familiarisé avec les technologies Big Data (Hadoop, Spark, etc.) et connaîtrez les bases de données relationnelles. En raison des exigences du client, nous ne pouvons soumettre que des freelances travaillant via leur propre entreprise. Malheureusement, nous ne pouvons pas accepter les solutions de portage pour cette mission. Si cela vous intéresse, veuillez nous contacter dès que possible avec un CV à jour aux coordonnées ci-dessous.
Offre d'emploi
Senior Cloud Devops Engineer
Senior Cloud DevOps Engineer Objectives of the position: At our unit \"Data Foundation - Big Data Management\" we aim to offer organizations a robust and scalable solution for managing and deriving insights from vast quantities of data. By utilizing Azure's PaaS components, our platform streamlines the deployment and handling of Big Data workloads, empowering our clients to make data-driven decisions and propel business expansion. Our team is accountable for the creation and upkeep of the Big Data platform built on Azure PaaS components EDL (Enterprise Data Lake). We collaborate intensively with stakeholders to comprehend their needs and devise solutions that fulfill their expectations. The team is also in charge of guaranteeing the platform's scalability, dependability, and security, and for staying abreast with the newest technologies and trends in the big data domain About the Job: We are seeking a highly motivated and detail-oriented candidate who will be responsible for the Azure Enterprise Data Lake Infrastructure and is able to maintain/scale the platform in an ambitious team. Your main responsibilities include: * To make sure that the platform is optimally maintained through monitoring, performance measurements, and automation. * Develop continuous deployment and monitoring solutions. * Together with us, empower and improve our DevOps culture mindset. * Development and deployment of infrastructure as code (Terraform) and using Azure DevOps. * CI/CD - develop, test and automate pipelines (Azure DevOps, Jenkins, Github Actions) * Continue learning new technologies and evaluating new tools. * Design the implementation of our cloud strategy and automation technologies in the context of CI / CD, Azure, Python and Spark - automate everything. * Monitoring of our cloud environment with focus on availability, performance, and security. * Incident/Change/Problem Management - Continual Service Improvement. * Ensure BASF compliance and security guidelines on our platform. * Patch management of cloud infrastructure. * Creation and implementation of Backup and Recovery concepts. * Manage and monitor 3rd party tickets for supplier support. * Demonstrate fluent communication skills in English (spoken and written). Internal Our main requirements: * Bachelor's degree in computer science, Information Technology, Engineering, Business, or related fields. * Minimum 3-4 years' related working with cloud infrastructure and familiarity with Big Data concepts. * Experience in Azure, Python and Terraform. * Experience operating and troubleshooting production environments, including monitoring, alerting & log analysis. * Experience in securing cloud environments and implementing best practices in regards of cyber security. * Experience with development and deployment of infrastructure as code (Terraform or similar tools) and using Azure DevOps. * Experience with installation and usage of monitoring tools (DataDog or similar tools). * Working flexible and agile (Scrum knowledge appreciated) with a DevOps mindset. Beneficial further knowledge: * Ideally, backed up by vendor certifications (e.g. Microsoft, Linux). * Team player with strong interpersonal, written, and verbal communication skills. What's in it for you: - A secure work environment because your health, safety and wellbeing is always our top priority. - Flexible work schedule and Home-office options, so that you can balance your working life and private life. - Learning and development opportunities - 23 holiday days per year - 5 days of adjustment - 2 cultural days - A collaborative, trustful and innovative work environment - Being part of an international team and work in global projects - Relocation assistance to Madrid provided
Offre d'emploi
Senior Cloud Devops Engineer
Senior Cloud DevOps Engineer Objectives of the position: At our unit \"Data Foundation - Big Data Management\" we aim to offer organizations a robust and scalable solution for managing and deriving insights from vast quantities of data. By utilizing Azure's PaaS components, our platform streamlines the deployment and handling of Big Data workloads, empowering our clients to make data-driven decisions and propel business expansion. Our team is accountable for the creation and upkeep of the Big Data platform built on Azure PaaS components EDL (Enterprise Data Lake). We collaborate intensively with stakeholders to comprehend their needs and devise solutions that fulfill their expectations. The team is also in charge of guaranteeing the platform's scalability, dependability, and security, and for staying abreast with the newest technologies and trends in the big data domain About the Job: We are seeking a highly motivated and detail-oriented candidate who will be responsible for the Azure Enterprise Data Lake Infrastructure and is able to maintain/scale the platform in an ambitious team. Your main responsibilities include: * To make sure that the platform is optimally maintained through monitoring, performance measurements, and automation. * Develop continuous deployment and monitoring solutions. * Together with us, empower and improve our DevOps culture mindset. * Development and deployment of infrastructure as code (Terraform) and using Azure DevOps. * CI/CD - develop, test and automate pipelines (Azure DevOps, Jenkins, Github Actions) * Continue learning new technologies and evaluating new tools. * Design the implementation of our cloud strategy and automation technologies in the context of CI / CD, Azure, Python and Spark - automate everything. * Monitoring of our cloud environment with focus on availability, performance, and security. * Incident/Change/Problem Management - Continual Service Improvement. * Ensure BASF compliance and security guidelines on our platform. * Patch management of cloud infrastructure. * Creation and implementation of Backup and Recovery concepts. * Manage and monitor 3rd party tickets for supplier support. * Demonstrate fluent communication skills in English (spoken and written). Internal Our main requirements: * Bachelor's degree in computer science, Information Technology, Engineering, Business, or related fields. * Minimum 3-4 years' related working with cloud infrastructure and familiarity with Big Data concepts. * Experience in Azure, Python and Terraform. * Experience operating and troubleshooting production environments, including monitoring, alerting & log analysis. * Experience in securing cloud environments and implementing best practices in regards of cyber security. * Experience with development and deployment of infrastructure as code (Terraform or similar tools) and using Azure DevOps. * Experience with installation and usage of monitoring tools (DataDog or similar tools). * Working flexible and agile (Scrum knowledge appreciated) with a DevOps mindset. Beneficial further knowledge: * Ideally, backed up by vendor certifications (e.g. Microsoft, Linux). * Team player with strong interpersonal, written, and verbal communication skills. What's in it for you: - A secure work environment because your health, safety and wellbeing is always our top priority. - Flexible work schedule and Home-office options, so that you can balance your working life and private life. - Learning and development opportunities - 23 holiday days per year - 5 days of adjustment - 2 cultural days - A collaborative, trustful and innovative work environment - Being part of an international team and work in global projects - Relocation assistance to Madrid provided
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.