Trouvez votre prochaine offre d’emploi ou de mission freelance Nginx
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
QA Engineer
Sous la supervision du Lead QA, vos missions incluront : • Concevoir et implémenter des plans de test automatisés pour assurer une couverture complète des fonctionnalités. • Développer et exécuter des scripts de tests automatisés permettant de détecter des anomalies et de mesurer les performances des solutions. • Collaborer étroitement avec les développeurs pour faciliter la détection et la résolution continue des défauts. • Assurer la maintenance et l'évolution des scripts automatisés pour refléter les changements de l'application. • Contribuer à la mise en place de stratégies de test pour renforcer la fiabilité et les performances des logiciels.
Mission freelance
AI Engineer - Climate Risk Modeling
Nous recherchons un ingénieur spécialisé en intelligence artificielle (IA) et en Systèmes d’Information Géographique (SIG) afin de rejoindre un projet ambitieux et innovant visant à évaluer et modéliser les risques climatiques liés à des événements extrêmes. Ce projet, porté par un grand groupe international en collaboration avec Nvidia et des experts en climatologie, s’appuie sur les dernières avancées en deep learning et en modélisation climatique pour concevoir des solutions adaptées aux enjeux environnementaux actuels et futurs. Votre rôle principal consistera à concevoir et développer une preuve de concept (PoC) , en mettant en place un pipeline de traitement de données et des expérimentations robustes qui pourront être reproduites et utilisées pour d’autres cas d’usage. Vous serez chargé d’intégrer des modèles académiques avancés et des outils de pointe, tels que ceux proposés par Nvidia (Earth2Studio) et Google Graphcast, au sein d’un cadre technique performant, optimisé pour les expérimentations sur AWS.
Offre d'emploi
Data Engineer Expérimenté (H/F)
Notre client, société en pleine croissance, spécialisé dans le domaine du Big Data, recherche des Consultants Data Engineer expérimentés avec minimum 3 ans d'expérience ! Participez à cette aventure et rejoignez une formidable équipe. Vos missions principales seront diversifiées, comprenant notamment : - Participation aux processus d'avant-vente : Vous contribuerez à l'élaboration des propositions techniques, mettant en avant votre expertise pour répondre aux besoins des clients. - Qualification technique des prestataires : Vous participerez activement à l'évaluation et à la sélection des prestataires, garantissant un partenariat de qualité. - Direction et coordination des projets : Vous dirigerez et coordonnerez la conception et la mise en oeuvre des projets, assurant leur réussite technique. - Documentation technique : Vous élaborerez, au besoin, des dossiers d'architecture, d'installation et d'exploitation, assurant une traçabilité et une compréhension optimale des solutions mises en place. - Participation active aux développements : Vous apporterez votre expertise en contribuant directement aux développements dans le cadre des projets. De manière plus étendue, vous aurez l'opportunité de : - Enrichir les bonnes pratiques : Vous contribuerez à l'évolution et à l'amélioration des bonnes pratiques d'architecture et de développement dans le domaine du Big Data. - Veille technologique : Vous réaliserez une veille constante sur les avancées technologiques du secteur, assurant ainsi la pertinence des solutions proposées. - Formation technique : Vous élaborerez des supports de formation technique pour nos clients et/ou nos consultants juniors, partageant ainsi votre savoir-faire. - Animation du pôle technique : Vous participerez activement à l'animation du pôle technique favorisant un environnement collaboratif et innovant.
Mission freelance
QA Engineer - API Rest/Cucumber/gitlab/aws
DESCRIPTION DE MISSION API Rest - Confirmé - Impératif cucumber - Confirmé - Important gitlab - Confirmé - Important AWS - Junior - Souhaitable Méthodes de travail Scrum, proactivité et défis technologiques. Les équipes sont obligatoirement en présentiel tous les mardis. Le reste en télétravail. Domaine: Distribution and hotel services Vous intégrerez la feature Team « Welcome Connect Offers 2 » au sein du domaine «Distribution and hotel services» de la Digital Factory. Cette équipe se compose d’un Product Owner, d’un TechLead, 4 développeurs. Elle a 2 missions : Assurer le développement de nouvelles fonctionnalités sur l’application « offers-api ». Ces API rest donnent la disponibilité et le prix des offres des chambres d’hôtels du groupe. Il s’agit d’une application récemment réécrite et portée dans le Cloud AWS. Assurer le développement de notre nouvelle chaîne CI/CD qui amènera l’équipe vers de l’intégration continue et du déploiement continu. La CI/CD valide de manière automatique et complète l’application : tests unitaires, tests d’intégration, mutation testing , dark canary testing, quality gates. L’équipe délivre une fois par Sprint en production. Vos missions et responsabilités Au sein de cette Feature Team, vous rejoignez notre équipe en tant que QA Engineer : Définir / contribuer à la stratégie de test Concevoir les plans de test et cas de tests d’évolution et de non-régression, sur l’api et la chaine CI/CD Traduire les exigences fonctionnelles en scénarios de test Produire les jeux de données de tests nécessaires à l'exécution des tests avec l’équipe ; tester ces jeux de données avant l’utilisation dans les tests. Assurer la couverture complète des exigences Produire les releases note de version Partager la stratégie et le reporting des tests à notre cellule transverse « Digital excellence » Contribuer à l’analyse des incidents de production Mener une veille technologique sur les outils liés à la Qualité
Offre d'emploi
Front end Engineer h/f
Dans le cadre de notre développement, nous recherchons un.e Front end engineer. L’objectif de notre client est de créer une nouvelle plateforme de 0 afin de collecter, afficher et analyser les avis laissés par leurs clients sur leurs produits et services et ceux de leurs partenaires. Cette nouvelle plateforme sera le lancement de leur nouvelle stratégie en termes de captation des contenus générés par leurs clients (social media, questions/réponses, vidéo, images, ...). Mission : Dans le cadre de la construction de cette nouvelle plateforme, nous cherchons un.e Front end engineer afin de construire les formulaires de collecte d'avis, interface d'affichage des avis et l'outils d'administration des avis, qui travaillera en collaboration avec un développeur Senior Front end. Environnement technique : - Back : Java, PostgreSQL, Elasticsearch, Kafka - Front : React - Cloud : GCP, K8S - CI/CD : GitHub, Github action, Docker - Monitoring : Datadog
Mission freelance
Data Engineer H/F
Dans le cadre de la réalisation d'une TMA, nous recherchons pour un client un Data Engineer H/F. Les technologies majeures de la TMA sont les suivantes : Langages : Scala Python Java Frameworks : Hadoop Spark Akka BDD / gestion des données: Hbase Postgre Elastic HDFS Hive DevOps : Ambari Ansible VSTS Git Zookeeper Bonne qualité de communication irréprochable et savoir communiquer avec les métiers. Connaitre les méthodologies agile (Scrum et Kanban). Profils polyvalents car ils interviendront d’abord dans un contexte de run mais également sur de la MCO.
Offre d'emploi
Data Engineer (H/F)
En bref : Nice- CDI - Data Engineer Talend (F/H) - Salaire selon expérience - Télétravail Adsearch, cabinet de recrutement basé à Nice vous accompagne dans votre carrière pour vous trouver LE poste idéal. Je recrute pour un client un Data Engineer Talend (F/H) basé à Nice. Vos missions : Cadre du besoin Implémentation des solutions BI - Talend Rédaction des spécifications techniques et fonctionnelles Modélisation des systèmes décisionnels Optimisation et monitoring Adsearch vous propose des milliers d''opportunités de carrières dans toute la France pour les profils d''experts, cadres et managers. Que ce soit pour un emploi ou pour une mission, Adsearch c''est le cabinet de recrutement qu''il vous faut ! Retrouvez toutes nos offres d'emploi en CDI, CDD, Intérim et Freelance sur notre site internet !
Mission freelance
Data engineer (Snowflake obligatoire) H/F
Notre client dans le secteur Infrastructure, BTP et matériaux de construction recherche un data engineer expert de minimum 8 ans d'experience H/F Descriptif de la mission: Le client est un acteur majeur dans le secteur de la construction, vous rejoindrez une équipe de data engineering. Compétences recherchées : - Excellent niveau SQL - Missions précédentes ou certification Snowflake et sont en capacité de développer des procédures snowflake mais également de travailler sur des sujets de modélisations de données (Datamanagement, Datawarehouse). - Des connaissances en Talend sont aussi nécessaires, mais la priorité repose sur de fortes compétences en modélisation et SQL. -Connaissance d'ETL (en particulier Talend) Les Data Engineers vont être amenés à : Réaliser le cadrage technique Créer l’ensemble de la chaine d’ingestion de la donnée, aussi bien sur des sources tabulaires que sur du JSON provenant d’API d’IOT. Travailler à l’amélioration de notre processus de QOS / QOD mais également notre chaine CI/CD Il est important que le consultant soit dynamique et en capacité d’échanger avec des équipes métiers (dimension fonctionnelle de leurs travaux)
Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).
Offre d'emploi
Data Engineer Snowflake / Databricks
Notre société recherche pour son client une personne passionnée par la Data et motivée par des missions stimulantes dans un environnement dynamique et humain. Acquisition et transformation des données pour des entrepôts de données. Participation au développement avec des responsabilités proches d'un Product Owner (PO). Gestion de projet : structuration, suivi des coûts et des délais. Maintenance des systèmes et gestion des coûts OPEX. Utilisation de technologies modernes : Hana, Snowflake, Databricks, etc. Bac +5 Expérience confirmée (3-5 ans) en modélisation avec des outils comme Snowflake, Databricks, SAP HANA, BW ou Business Object. Connaissance d'outils complémentaires : Power BI, Qliksense, SAP Analytics Cloud (appréciée). Français et anglais courants (pour collaborer avec une équipe offshore). Autonomie chez les clients, avec une aspiration à prendre des responsabilités en gestion de projet. Rémunération attractive : A partir de 45k€. Avantages inclus : intéressement, PEE, repas, transport, mutuelle, etc. Ambiance et collaboration : missions en équipe, soirées entre collègues, faible turn-over. Évolution et accompagnement : revue de performance biannuelle, formations techniques et certifiantes (SAP). 📍 Lieu : Paris 12e 👉 Postulez maintenant pour rejoindre une structure humaine et innovante !
Offre d'emploi
Data engineer Databricks
Objet de la prestation Nous recherchons Un Data Engineer expérimenté H/F pour accompagner la mise en production de "data products" sur une plateforme d'analytics Databricks. Le candidat idéal aura un profil de développeur Python orienté data avec une expérience sur le traitement de grande volumétrie de données. Le candidat devra être capable d’intéragir avec des datascientists et avoir une bonne compréhension des principes algorithmiques. Le travail consiste, entre autre, à reprendre et industrialiser des preuves de concept (PoCs) développées par notre centre de recherche et de les déployer sur la plateforme Databricks. Activités · Participer avec l’équipe technique à la mise en place de la gouvernance de la platforme · Collaborer (en anglais) avec les chercheurs pour comprendre les algorithmes existants · Implémenter les pipelines d’ingestion de données brut · Implémenter et optimiser les algorithmes de traitement en pyspark · Suivre les jobs en production
Mission freelance
MLOPS ENGINEER
Contexte de la mission Intégré à une équipe Produit, l'ingénieur MLOPs contribue à l'industrialisation de modèles ML déjà développés. Nous avons besoin de quelqu'un qui peut nous aider à automatiser et à améliorer notre pipeline de ML, à mettre en place des pratiques de MLOps et à assurer la qualité des données. Objectifs et livrables Nous cherchons à atteindre les objectifs suivants : Implémenter les pipelines automatisés pour le déploiement et la surveillance des modèles (Gestion des alertes) Amélioration et automatisation du pipeline de ML Mise en place de pratiques de MLOps et d'outils IA Assurer la qualité des données Optimiser l'efficacité et la scalabilité des flux de travail ML
Mission freelance
Système engineer Linux
MUST : • Maîtrise de RedHat Enterprise Linux (RHEL) et SuSE Enterprise • Connaissance des systèmes de virtualisation (VMware & Hyper-V). • Expérience en scripting (Bash, Python, Perl). • Connaissance des systèmes de fichiers (ext4, xfs, NFS). • Compréhension des concepts de réseau (TCP/IP, DNS, DHCP, VPN). • Compétence en gestion de la sécurité (SELinux, iptables, firewalld). • Connaissance des services courants (HTTPD, NGINX, Samba, LDAP). • Familiarité avec les outils de surveillance et de gestion des performances (Zabbix, Scom, Azure Monitor, Grafana). • Connaissances en systèmes de stockage (SAN/NAS). • Connaissances en Architecture IT. • Connaissance de l'anglais (technique). SHOULD : • Distributions dérivées de RedHat (CentOS, Fedora). • Expérience avec les outils de gestion de configuration (Ansible & Chef). • PKI / Certificat / Active-Directory. • Connaissances du Cloud Azure (PAAS – IAAS).
Offre d'emploi
Azure Security Engineer
As an Azure Security Engineer , you will play a critical role in ensuring the security and compliance of our cloud estate. You will work closely with IT, DevOps and SecOps teams to design, implement, and manage security solutions that safeguard our organization's assets and data. Your expertise in security best practices will be instrumental in enhancing our security posture. Support the implementation of our Public Cloud Security strategy. Develop, implement, and enforce security policies, standards, and procedures to maintain compliance with corporate standards, industry regulations and best practices. Implement auditing and logging solutions to track and report on security-related events and anomalies. Set up and maintain Defender for Cloud and Azure Monitor for proactive security event monitoring. Monitor timely application of security patches and updates to Azure resources. Provide training and awareness programs to educate our Security Community about security best practices and risks. Steer the implementation of continuous remediation and improvement plans. github actions - Confirmé powershell - Confirmé defender for cloud - Confirmé terraform - Confirmé azure policy Confirmé microsoft azure Confirmé microsoft sentinel - Confirmé cloud security - Expert
Mission freelance
EXPERT GCP ENGINEER
Titre du poste : Expert GCP Engineer Durée du contrat : 12 mois (avec possibilité de prolongation) Lieu : Télétravail complet (bureaux à Londres et Paris) Présentation : Nous recherchons un Expert GCP Engineer pour rejoindre une initiative de transformation cloud menée par une grande banque. Ce rôle est essentiel pour concevoir, implémenter et optimiser des solutions basées sur GCP, répondant aux exigences strictes du secteur bancaire en matière d'évolutivité, de sécurité et de performance. Responsabilités principales : Concevoir et implémenter une infrastructure GCP pour soutenir des applications bancaires critiques, tout en respectant les meilleures pratiques de l'industrie et les normes de conformité (ex. : RGPD, DORA). Développer et gérer des infrastructures en tant que code ( IaC ) avec Terraform , garantissant des déploiements cohérents et reproductibles. Optimiser les configurations réseau sur GCP, notamment la conception de VPC , la connectivité hybride ( Cloud VPN , Interconnect ) et les politiques IAM. Assurer une haute disponibilité et une tolérance aux pannes des services bancaires en utilisant des outils GCP tels que Cloud Load Balancer , Cloud Monitoring et Cloud Operations Suite . Collaborer avec les équipes de sécurité pour mettre en œuvre des mesures de sécurité avancées , incluant le chiffrement, les configurations de pare-feu et la gestion des accès. Automatiser les pipelines CI/CD avec Cloud Build ou Jenkins , pour déployer efficacement des applications basées sur des microservices. Surveiller et résoudre les problèmes des services GCP ( BigQuery , Cloud Functions , Pub/Sub ) afin de garantir les performances attendues. Fournir une documentation détaillée et transférer les connaissances aux équipes internes pour renforcer leur maîtrise des bonnes pratiques sur GCP. Compétences clés : Expertise approfondie de Google Cloud Platform (GCP) avec une expérience pratique sur Compute Engine , Kubernetes Engine (GKE) et BigQuery . Maîtrise de Terraform et Git pour l’automatisation de l’infrastructure. Expérience confirmée en réseaux GCP , incluant Cloud NAT , Cloud Armor et IAM . Compétences avancées en scripting ( Python ou Bash ) pour l’automatisation et la création d’outils personnalisés. Solide compréhension des technologies de containerisation telles que Docker et orchestration avec Kubernetes. Connaissance des cadres de conformité bancaire (ex. : PCI DSS , RGPD ). Exigences : Expérience avérée dans la livraison de solutions GCP au sein d'environnements à grande échelle et fortement réglementés. Excellentes compétences analytiques et de résolution de problèmes avec une attitude proactive. Capacité à travailler de manière autonome et à produire des résultats en télétravail. Atouts : Expérience des architectures multi-cloud (ex. : Azure, AWS). Certifications telles que Google Professional Cloud Architect ou Google Professional Data Engineer .
Offre d'emploi
Data engineer F/H
Et si vous deveniez consultant chez nous ? Mais d’abord, c’est quoi un consultant ? Evidemment, c’est un collaborateur qui accompagnera nos clients dans la réalisation de leurs projets innovants. Mais être consultant chez OTTEO, c’est aussi être un ambassadeur, qui participera à l’évolution et à la croissance de la société ! Votre 1er projet Vous rejoindrez notre client dans le retail, et travaillerez sur un produit dédié à la performance ! Ce produit permet de saisir, stocker, calculer et transmettre les données de performance et d’objectifs à tous les acteurs métiers qui pilotent l’activité. Votre mission principale sera de répondre aux besoins métiers en mettant à disposition des données de qualité , essentielles pour un pilotage efficace de l’activité. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini ! Vous intégrerez une équipe agile de 10 personnes (un proxy PO, un Scrum Master et des Data Engineers) qui pratique l’agilité en Scrum depuis un an. Vos missions : Participer à la conception des environnements de qualification, de production, d’architecture applicative et des processus de mise en production. Développer l’intégration des données, leur exposition et leur transmission en garantissant l’implémentation du produit et des solutions apportées. Construire les environnements de qualification et de production selon les pratiques de l’entreprise. Implémenter la surveillance du produit et réaliser les tests unitaires. Présentation et validation des livrables par le métier. Mettre en production et assurer le bon fonctionnement de la production en gérant les incidents/problèmes. Collaborer, c’est aussi : Documenter les solutions et réaliser une veille technologique régulière. Accompagner les équipes et favoriser l’échange de connaissances. ENVIRONNEMENT TECHNIQUE : Intégration et flux de données : Talend, Shell Base de données : BigQuery, PostgreSQL, Teradata DataViz : DataStudio Autres : Firestore, Cloud Functions GCP, Git
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.