Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 450 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Architecte Finance

ALLEGIS GROUP
Publiée le
Architecture
Master Data Management (MDM)

6 mois
100-680 €
Île-de-France, France

TEKsystems recherche pour l'un de ses clients grands comptes un ARCHITECTE FINANCE : Dans le cadre de cette mission, il est nécessaire que le profil proposé présente les compétences techniques suivantes : · Bonne connaissance du Système d'Information global et de la gouvernance du SI, · Excellentes connaissances des principes d’urbanisation du SI, · Bonnes connaissances en matière de sécurité du SI, · Posséder un niveau technique élevé (systèmes d’exploitation, systèmes de gestion des bases de données, serveur d’application), · Bonnes connaissances en plateforme d’échanges, · Bonnes connaissances des architectures orientées services ou API, · Bonnes connaissances des problématiques de Master Data Management (MDM), · Bonnes connaissances des architectures décisionnelles, · Expertise CaseWise Evolve serait un plus.

Freelance
CDI

Offre d'emploi
Développeur Java - Apache Camel

Ecco Technologies
Publiée le
Apache
J2EE / Java EE
Java

2 ans
45k-50k €
Valbonne, Provence-Alpes-Côte d'Azur

Intitulé du poste : Développeur Java Middleware Lieu / Rythme : 2 jours sont à prévoir par semaine sur Valbonne Description du poste : Nous recherchons un Développeur Java Middleware talentueux et expérimenté pour rejoindre notre équipe technique. Le candidat idéal aura une solide expérience en développement Java (au moins 4 ans) et éventuellement une maîtrise des technologies middleware. Ce poste se concentre exclusivement sur le développement de connecteurs et l'intégration de systèmes sans partie front-end (web). Vous travaillerez avec une équipe d'experts pour optimiser et développer des solutions de connectivité essentielles. Responsabilités : Concevoir, développer et maintenir des connecteurs et services d'intégration en Java. Assurer l’intégration et la gestion des flux de données via des solutions middleware, en utilisant des technologies telles que Apache Camel pour orchestrer les flux. Travailler avec les systèmes de messagerie asynchrone et JMS (Java Message Service) pour la transmission de messages entre les applications. Configurer et gérer les files d’attente de messages avec IBM MQ et Kafka pour permettre une communication fiable et rapide entre différents systèmes. Développer des services d'intégration et des APIs avec Spring et Spring Boot, en suivant les bonnes pratiques et en veillant à une architecture modulaire et performante. Collaborer avec les équipes techniques pour analyser les besoins et élaborer des solutions middleware robustes et évolutives. Lieu / Rythme : 2 jours sont à prévoir par semaine sur Valbonne

CDI

Offre d'emploi
Data Engineer GCP

Tenth Revolution Group
Publiée le

Lyon, Auvergne-Rhône-Alpes

À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions ????? : • ???? Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. • ???? Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. • ????? Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. • ????? Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. • ???? Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique ???? : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow • Langages de Programmation : Python, SQL • Outils de DevOps : Terraform, Docker, Kubernetes • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : • Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? ???? Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.

Freelance

Mission freelance
Expert Craft H/F

Insitoo Freelances
Publiée le
Domain Driven Design (DDD)
Test-Driven Development (TDD)

2 ans
650-715 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Expert Craft H/F à Lyon, Auvergne-Rhône-Alpes, France. Contexte : En tant qu'Expert Craft, vous aurez pour mission de guider et d'accompagner l'équipe projet dans l'analyse de la refonte de l'application. Les missions attendues par le Expert Craft H/F : Activité principale : - Conseil et Accompagnement : Assurer le leadership technique sur les projets DDD, conseiller les équipes sur les meilleures pratiques et les choix architecturaux. - Modélisation de Domaines : Collaborer avec les parties prenantes pour identifier, comprendre et modéliser les domaines métiers complexes. - Développement de Solutions : Concevoir et développer des systèmes robustes et évolutifs en utilisant les principes de DDD et les pratiques de développement agiles. - Mentorat et Formation : Former et encadrer les développeurs, promouvoir les bonnes pratiques de développement et de conception logicielle au sein des équipes. - Revues Techniques : Réaliser des revues de code, des audits de conception et proposer des améliorations techniques. - Innovation et R&D : Explorer de nouvelles technologies et pratiques pour améliorer la qualité des produits et l'efficacité des équipes. Activité secondaire : o Participation aux ateliers transverses et autres points inter-SI nécessaires au bon fonctionnement du projet ou à la préparation du dossier décisionnel sur l'avenir de la plateforme o Appui à la communication et à la formation sur le crafmanship o Analyses diverses en lien avec l’activité Stack technique de l'équipe : Amazon webservices, Docker, Kafka, Flume, Kubernetes, Java, Oracle, Postgre SQL, ElasticSearch, Xamarin, Postgré SQL, Zookeeper, Jenkins, Gatling, Kibana, Zipkin, Angular, Datadog, Compétences attendues sur le profil : Maîtrise avancée des principes du Domain-Driven Design. - Expérience solide en développement logiciel dans des langages de programmation (Java, etc.) avec une spécialisation en DDD et pratiques Craft - Maitrise avancée des différentes types d'architectures (microservices, monolithe modulaire, hexagonale) et des approches API-first - Compétences en TDD, BDD, et intégration continue - Aisance dans la pédagogie et à former sur le craftmanship les équipes pour les faire monter en compétences

Freelance

Mission freelance
DATA INGENIEUR (DATAIKU) MAX €420

Hanson Regan Limited
Publiée le
Dataiku
DevOps

6 mois
100-420 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Hanson Regan recherche actuellement un DATA INGENIEUR (DATAIKU) en freelance pour travailler sur un projet de données à grande échelle pour une entreprise française bien connue à Aix en Provence. En collaboration avec une équipe existante, vous serez responsable de l'administration de la plateforme DataIku DSS ; concevez et développez des pipelines de données robustes et évolutifs ; et travaillez en étroite collaboration avec les équipes pour comprendre les besoins et adapter les solutions appropriées. L'ingénieur de données retenu devra avoir une très bonne connaissance de la plateforme DataIku et des principes DevOps, ainsi que de solides compétences SQL et Python pour la manipulation des données. Vous serez familiarisé avec les technologies Big Data (Hadoop, Spark, etc.) et connaîtrez les bases de données relationnelles. En raison des exigences du client, nous ne pouvons soumettre que des freelances travaillant via leur propre entreprise. Malheureusement, nous ne pouvons pas accepter les solutions de portage pour cette mission. Si cela vous intéresse, veuillez nous contacter dès que possible avec un CV à jour aux coordonnées ci-dessous.

CDI

Offre d'emploi
Administrateur/Expert Elasticsearch H/F

UMANTIC
Publiée le

55k-60k €
Meudon, Île-de-France

La mission aura lieu dans la direction Data&IA dans l'entité data réseau qui est en charge de la big data pour le réseau. La mission se déroulera autour de deux axes principaux : · Administration des clusters ElasticSearch · Support aux clients du cluster Objectifs et livrables: Le candidat aura la charge d'administrer les clusters ElasticSearch de la data réseau. Il y a actuellement 6 clusters ElasticSearch à administrer, représentant 325 instances et 2PB de données. Les principales tâches sont les suivantes : · Mettre en place la supervision des clusters · Réagir en cas d'alarme afin de limiter les impacts clients. · Effectuer les différents mis à jour de version en fonction du besoin. · Mettre en place et administrer les logstashs d'ingestion. · S'assurer que la réplication Cross cluster fonctionne correctement. · Donner du support aux utilisateurs du cluster (Kibana et elastic). Opérant au sein d'1 equipe polyvalente, il sera apprécié d'avoir 1 expérience sur l'un de ces composants : Kubernetes ( k8s) Kafka ( version open source) Object storage ( minio ou ceph etc...)

CDI

Offre d'emploi
Senior Cloud Devops Engineer

Tenth Revolution Group
Publiée le

58k-59k €

Senior Cloud DevOps Engineer Objectives of the position: At our unit \"Data Foundation - Big Data Management\" we aim to offer organizations a robust and scalable solution for managing and deriving insights from vast quantities of data. By utilizing Azure's PaaS components, our platform streamlines the deployment and handling of Big Data workloads, empowering our clients to make data-driven decisions and propel business expansion. Our team is accountable for the creation and upkeep of the Big Data platform built on Azure PaaS components EDL (Enterprise Data Lake). We collaborate intensively with stakeholders to comprehend their needs and devise solutions that fulfill their expectations. The team is also in charge of guaranteeing the platform's scalability, dependability, and security, and for staying abreast with the newest technologies and trends in the big data domain About the Job: We are seeking a highly motivated and detail-oriented candidate who will be responsible for the Azure Enterprise Data Lake Infrastructure and is able to maintain/scale the platform in an ambitious team. Your main responsibilities include: * To make sure that the platform is optimally maintained through monitoring, performance measurements, and automation. * Develop continuous deployment and monitoring solutions. * Together with us, empower and improve our DevOps culture mindset. * Development and deployment of infrastructure as code (Terraform) and using Azure DevOps. * CI/CD - develop, test and automate pipelines (Azure DevOps, Jenkins, Github Actions) * Continue learning new technologies and evaluating new tools. * Design the implementation of our cloud strategy and automation technologies in the context of CI / CD, Azure, Python and Spark - automate everything. * Monitoring of our cloud environment with focus on availability, performance, and security. * Incident/Change/Problem Management - Continual Service Improvement. * Ensure BASF compliance and security guidelines on our platform. * Patch management of cloud infrastructure. * Creation and implementation of Backup and Recovery concepts. * Manage and monitor 3rd party tickets for supplier support. * Demonstrate fluent communication skills in English (spoken and written). Internal Our main requirements: * Bachelor's degree in computer science, Information Technology, Engineering, Business, or related fields. * Minimum 3-4 years' related working with cloud infrastructure and familiarity with Big Data concepts. * Experience in Azure, Python and Terraform. * Experience operating and troubleshooting production environments, including monitoring, alerting & log analysis. * Experience in securing cloud environments and implementing best practices in regards of cyber security. * Experience with development and deployment of infrastructure as code (Terraform or similar tools) and using Azure DevOps. * Experience with installation and usage of monitoring tools (DataDog or similar tools). * Working flexible and agile (Scrum knowledge appreciated) with a DevOps mindset. Beneficial further knowledge: * Ideally, backed up by vendor certifications (e.g. Microsoft, Linux). * Team player with strong interpersonal, written, and verbal communication skills. What's in it for you: - A secure work environment because your health, safety and wellbeing is always our top priority. - Flexible work schedule and Home-office options, so that you can balance your working life and private life. - Learning and development opportunities - 23 holiday days per year - 5 days of adjustment - 2 cultural days - A collaborative, trustful and innovative work environment - Being part of an international team and work in global projects - Relocation assistance to Madrid provided

Freelance

Mission freelance
Architecte AWS

STHREE SAS pour COMPUTER FUTURES
Publiée le
Architecture
AWS Cloud

6 mois
100-600 €
Yvelines, France

Bonjour, Je suis à la recherche d’un Architecte AWS: Tâches : Concevoir et mettre en œuvre des solutions cloud sur AWS pour répondre aux besoins des clients. Développer des architectures scalables, sécurisées et robustes. Gérer et optimiser les environnements AWS pour des performances maximales. Intégrer et orchestrer des conteneurs à l'aide de Kubernetes. Implémenter et gérer des systèmes de messagerie et de streaming de données avec Kafka. Collaborer étroitement avec les équipes de développement et d'opérations pour assurer une livraison fluide des projets. Assurer une veille technologique et proposer des améliorations continues.

Freelance

Mission freelance
Scrum Master - Application (B2C/B2B)

Cherry Pick
Publiée le
Agile Scrum

12 mois
500-570 €
Île-de-France, France

Nous recherchons un Scrum Master expérimenté pour encadrer deux équipes agiles travaillant sur des applications B2C et B2B. Ce projet implique le développement d’applications de suivi de consommation d'énergie (B2C) et d'optimisation de la consommation pour les entreprises (B2B), avec un focus sur les hôtels via des API backend intelligentes. Faciliter les cérémonies agiles (Daily, Sprint Planning, Rétrospectives, Démos). Coordonner les équipes Feature Team composées de Devs, Tech Leads, OPS, QA et PO. Veiller à la bonne mise en œuvre des pratiques DevOps et CI/CD (déploiement, monitoring, observabilité). Travailler en étroite collaboration avec les équipes OPS pour garantir la fiabilité des systèmes en production. Encourager les bonnes pratiques de code et une sensibilité Craft au sein de l’équipe (qualité du code, tests, TDD, etc.). S’assurer d’atteindre une couverture de tests d’au moins 80% . Accompagner l’utilisation de Kafka en tant que producteur (producer) et consommateur (consumer) de messages sur les brokers.

Freelance

Mission freelance
Product Owner MDM - Lille

Intuition IT Solutions Ltd.
Publiée le
Master Data Management (MDM)

6 mois
100-500 €
Lille, Hauts-de-France

Projet : En tant que Product Owner, vous êtes responsable de la gestion, de la priorisation et de la vision produit pour REPERE et FCT au sein d'une équipe Agile. Vous travaillez en étroite collaboration avec les équipes de développement, les architectes et les parties prenantes pour garantir que les évolutions et la maintenance des produits répondent aux besoins métiers et aux objectifs stratégiques du groupe. Vous pilotez le backlog, en priorisant les demandes d'évolution et les corrections, et en vous assurant de la bonne intégration des contributions projets (traitements ODI, Semarchy xDI, etc.). Vous animez les cérémonies Agile (sprint planning, review, rétrospectives), tout en veillant à la qualité et à la performance des livrables. Votre rôle inclut également l'alignement des parties prenantes autour de la roadmap et la gestion des dépendances avec d'autres projets du groupe.

CDI

Offre d'emploi
Senior Cloud Devops Engineer

Tenth Revolution Group
Publiée le

58k-59k €

Senior Cloud DevOps Engineer Objectives of the position: At our unit \"Data Foundation - Big Data Management\" we aim to offer organizations a robust and scalable solution for managing and deriving insights from vast quantities of data. By utilizing Azure's PaaS components, our platform streamlines the deployment and handling of Big Data workloads, empowering our clients to make data-driven decisions and propel business expansion. Our team is accountable for the creation and upkeep of the Big Data platform built on Azure PaaS components EDL (Enterprise Data Lake). We collaborate intensively with stakeholders to comprehend their needs and devise solutions that fulfill their expectations. The team is also in charge of guaranteeing the platform's scalability, dependability, and security, and for staying abreast with the newest technologies and trends in the big data domain About the Job: We are seeking a highly motivated and detail-oriented candidate who will be responsible for the Azure Enterprise Data Lake Infrastructure and is able to maintain/scale the platform in an ambitious team. Your main responsibilities include: * To make sure that the platform is optimally maintained through monitoring, performance measurements, and automation. * Develop continuous deployment and monitoring solutions. * Together with us, empower and improve our DevOps culture mindset. * Development and deployment of infrastructure as code (Terraform) and using Azure DevOps. * CI/CD - develop, test and automate pipelines (Azure DevOps, Jenkins, Github Actions) * Continue learning new technologies and evaluating new tools. * Design the implementation of our cloud strategy and automation technologies in the context of CI / CD, Azure, Python and Spark - automate everything. * Monitoring of our cloud environment with focus on availability, performance, and security. * Incident/Change/Problem Management - Continual Service Improvement. * Ensure BASF compliance and security guidelines on our platform. * Patch management of cloud infrastructure. * Creation and implementation of Backup and Recovery concepts. * Manage and monitor 3rd party tickets for supplier support. * Demonstrate fluent communication skills in English (spoken and written). Internal Our main requirements: * Bachelor's degree in computer science, Information Technology, Engineering, Business, or related fields. * Minimum 3-4 years' related working with cloud infrastructure and familiarity with Big Data concepts. * Experience in Azure, Python and Terraform. * Experience operating and troubleshooting production environments, including monitoring, alerting & log analysis. * Experience in securing cloud environments and implementing best practices in regards of cyber security. * Experience with development and deployment of infrastructure as code (Terraform or similar tools) and using Azure DevOps. * Experience with installation and usage of monitoring tools (DataDog or similar tools). * Working flexible and agile (Scrum knowledge appreciated) with a DevOps mindset. Beneficial further knowledge: * Ideally, backed up by vendor certifications (e.g. Microsoft, Linux). * Team player with strong interpersonal, written, and verbal communication skills. What's in it for you: - A secure work environment because your health, safety and wellbeing is always our top priority. - Flexible work schedule and Home-office options, so that you can balance your working life and private life. - Learning and development opportunities - 23 holiday days per year - 5 days of adjustment - 2 cultural days - A collaborative, trustful and innovative work environment - Being part of an international team and work in global projects - Relocation assistance to Madrid provided

Freelance

Mission freelance
Expert Hadoop

CAT-AMANIA
Publiée le
Cloudera
Hadoop

1 an
600-800 €
Paris, France

Je suis à la recherche pour un de nos clients d'un Expert Hadoop. Stack technologique : Distribution Hadoop : HDFS, YARN, Cloudera Manager, Hive, Hue, Impala, Spark, Zeppelin, Ranger, Knox, SQL, Zookeeper, ... Langages de scripting et de développement : Shell, Python, Spark Moteur de requetage : SQL, Hive, Impala, Système d'exploitation : Linux Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages tels que : • Pour les équipes « DSI Etudes » : - Dans le cadre de phases d’études amont être en capacité d’explorer, croiser et analyser des données provenant de différents contextes, afin de formaliser des points structurants relatifs à la gestion des informations. - Dans le cadre de phases de spécifications savoir adapter la solution aux enjeux de volumétrie d’un cas d’usage ; • Pour les équipes « DSI Supports Fonctionnels » : Participer au suivi de Production pour explorer, croiser analyser les données inter-applications dans le but de piloter les opérations d’exploitation et être en mesure d’adresser aux éditeurs des demandes d’intervention pertinentes. • Pour les équipes « DSI Centre National de Recette et d’Intégration » : Préparer les jeux de données en explorant et en identifiant les données des applications qui constitueront les jeux d’essais en lien avec les critères métiers. • Pour les équipes « DSI Système d’Information Décisionnel », envisager une bascule vers Hadoop d’une partie des données stockées dans Teradata, dans l’objectif de réduire l’impact Teradata.

Freelance

Mission freelance
Développeur Java Sénior

Lawrence Harvey (LHI group limited)
Publiée le

6 mois
400-450 €
Île-de-France, France

Mission / Freelance / France / Paris / Développeur Java / Sénior / API Java / Framework / Systèmes de supervision Date de démarrage : ASAP Durée : 6 mois renouvelables Localisation : Paris Rythme en télétravail : 50% (2 à 3j/semaine) Développeur Java Sénior Missions principales : • Architecture SI et contribution à la mise en œuvre des développements des applications à partir des besoins fonctionnels • Conception, développement, test et maintien de l'application • Responsable de l'application jusqu'à la production (surveillance, support, amélioration, …) • Développement en respectant les bonnes pratiques définies • Participation à la correction des anomalies fonctionnelles et/ou techniques • Communication et remontée des alertes ou points de blocages aux personnes concernées • Participation aux différentes réunions/ateliers de l'équipe • Amélioration de l'outillage d'exploitabilité du SI : monitoring, alerting, exploitation Profil recherché : • Java 8+ (ou 11) notamment la syntaxe autour des Annotations et des Lambda Expressions et de l'outillage classique présent dans l'écosystème d'un projet Java est indispensable. • API Java : CDI, JAX-RS, JPA, JMS & EJB • Runtimes/frameworks suivants : WebLogic Server • Utilisation de Maven, Jenkins & Ansible • Spring (Spring Core au minimum), Git, Shell, VirtualBox, Docker • Pour des développeurs Front : Angular et React • Expérience de systèmes de supervision (ex. Grafana, InfluxDB, Prometheus, Collectd, Telegraf, AppDynamics, JmxTrans, Micrometer, etc…) • Autres compétences demandées : Base de données relationnelles (Oracle), Kafka, Systèmes Unix (RHEL), Notions en sécurité (structure d'une PKI, protocole TLS) Si cette opportunité vous intéresse, merci de postuler sur l'annonce ou de m'envoyer votre CV à l'adresse suivante : -email masqué- (Christopher Delannoy) et je vous recontacterai pour vous donner plus de détails sur la mission. Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)

Freelance

Mission freelance
Développeur ODI confirmé (H/F)

Insitoo Freelances
Publiée le
Modélisation
ODI Oracle Data Integrator
SQL

2 ans
351-400 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur ODI confirmé (H/F) à Lille, Hauts-de-France, France. Contexte : Les missions attendues par le Développeur ODI confirmé (H/F) : Développement de flux sur ODI Maîtrise des normes techniques et concepts de la modélisation décisionnelle (Modélisation, Alimentation) Très bonne maitrise SQL Maîtrise des KM (Knowledge Modules) Maîtrise des principes de calcul de statistiques sur une base de données Oracle Rigueur et esprit d'analyse, capacité relationnelle et autonomie. Maîtrise d’un environnement complexe (+ 1000 tables et 250 scénarios ODI sur le périmètre) 5 ans d'expérience en développement ODI minimum

CDI

Offre d'emploi
Ingénieur Devops (DevOps)

Lùkla
Publiée le

55k-70k €
Paris, France

Description de l‘entreprise En tant qu'Ingénieur DevOps, vous serez responsable de la gestion, de l'optimisation et de l'évolution des infrastructures cloud tout en assurant l'automatisation et le bon fonctionnement des processus de déploiement continu. Vous participerez à l'industrialisation des environnements de production, au suivi des performances, ainsi qu’à la sécurité des systèmes. Votre rôle sera essentiel pour soutenir les équipes de développement et d’exploitation, et garantir que les applications soient livrées avec efficacité, fiabilité et dans le respect des meilleures pratiques DevOps. Missions : Conception et gestion des infrastructures cloud (AWS) : Gérer et optimiser l'infrastructure hébergée sur AWS. Implémenter des solutions scalables et robustes en utilisant les services AWS (EC2, S3, Lambda, RDS, etc.). Orchestration de conteneurs et gestion des clusters Kubernetes : Déployer et gérer des clusters Kubernetes. Assurer la haute disponibilité, la mise à l'échelle et la maintenance des applications sur Kubernetes. Automatisation des processus avec Ansible : Automatiser le provisionnement des serveurs, les configurations et les déploiements. Rédiger des playbooks Ansible pour faciliter les processus récurrents. Gestion des conteneurs avec Docker : Construire et gérer des images Docker pour les différents environnements de développement, test et production. Assurer le bon fonctionnement des environnements de conteneurs et résoudre les éventuels problèmes de performance. Gestion des flux de données avec Kafka : Déployer et administrer les brokers Kafka pour les besoins en messagerie et traitement de flux de données. Assurer la résilience et la scalabilité des systèmes de traitement de données en temps réel. Utilisation de Helm pour la gestion des releases Kubernetes : Créer et gérer des charts Helm pour le déploiement simplifié des applications sur Kubernetes. Amélioration continue et surveillance des performances : Mettre en place des outils de monitoring pour assurer la surveillance proactive des performances (Prometheus, Grafana, CloudWatch, etc.). Participer aux efforts d'amélioration continue des processus CI/CD. Collaboration inter-équipes : Travailler en étroite collaboration avec les équipes de développement, sécurité et infrastructure. Participer aux rituels Agile et fournir un support pour les mises en production. Compétences Requises : Expérience avec AWS et ses principaux services (EC2, RDS, VPC, S3, etc.). Maîtrise de Kubernetes pour l’orchestration de conteneurs, ainsi que des outils associés (kubectl, Helm). Maîtrise d’Ansible pour l’automatisation de l’infrastructure et des déploiements. Solide expérience avec Docker , de la construction à la gestion de conteneurs. Expérience avec Kafka , notamment pour la gestion des brokers et la messagerie. Connaissance des processus CI/CD et des outils tels que Jenkins, GitLab CI, ou CircleCI. Connaissance en scripting (Python, Bash, etc.) pour l’automatisation des tâches.

Freelance

Mission freelance
DATA ENGINEER

SURICATE IT
Publiée le
Azure
Databricks
Python

3 mois
100-590 €
Paris, France

- Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure - Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) - Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) - Réalisation des tests unitaires - Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) - Préparation de package pour livraison en CI/CD avec les équipes DevOps - Réalisation des activités de maintenance corrective et évolutive - Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…)

450 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous