Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data engineer AWS
Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais
Offre d'emploi
Data Engineer
Ce que tu recherches : · Evoluer au sein d’une équipe dynamique · Participer à des projets innovants d’envergure · Relever des défis · Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : · Analyse des besoins, tu feras · Spécifications techniques, tu rédigeras · L’architecture et/ou socle technique, tu définiras · Bonnes pratiques, tu instaureras · De nouvelles fonctionnalités, tu développeras · Zéro bug, tu laisseras · Ton équipe, tu accompagneras · Aux instances de pilotage, tu participeras
Offre d'emploi
AMOE Technico-Fonctionnel
Nous recherchons un AMOE Technico-Fonctionnel orienté Oracle ayant une réelle expérience TMA et projets. Au sein de l’équipe MOE, la prestation attendue est une Assistance à Maîtrise d'Œuvre. Assurer la maintenance corrective, perfective et évolutive de l’application Mobile de maintenance et l’application Pilotage des Interventions ; Assurer la maintenance corrective, évolutive et perfective de l’application AGoRA sur la partie GMAO. Contexte et compétences : Développements Oracle (SQL, procédures stockées) et shell Connaissances de Digital Works Advanced Connaissances solides des API REST et SOAP Expérience TMA et projets exigés Gestion de configuration logicielle : Git/Jenkins Connaissances Unix (shell, crontab) Prendre en charge des sujets de maintenance corrective et perfective Analyse des expressions de besoins métier et/ou techniques (proposition d’implémentation et/ou adaptation, impact, charges, délais) sécurité Prendre en charge des sujets de maintenance évolutive Organiser et suivre les développements ; Gérer les environnements de développements ; Suivre les fiches Mantis (anomalies, évolutions) dans l'analyse, la qualification et le suivi de résolution ; Ecrire des DAT Elaborer des plans de bascule Suivre les réalisations ou réaliser les évolutions ; Accompagner le(s) titulaire(s) dans l’élaboration de la solution ou élaborer la solution Analyser et négocier ou réaliser les devis ; Réceptionner et installer les livraisons ; Réaliser les tests techniques ; Accompagner les recettes ; Livrer les modules, évolutions et correctifs en production conformément aux processus qualité ; Garantir le maintien en conditions opérationnelles les environnements AGORA ainsi que leurs performances ; Participer à la réalisation de tests de performance. Assister la MOA Rendre compte de l’avancement et du Reste A Faire Contrôler la qualité des prestations et garantir le niveau de service de l’unité. Assurer le backup des autres MOE durant leurs absences. Installer le SI Agora sur de nouveau environnements Coordonner techniquement les projets MOA Mise en œuvre des adaptations (développement, paramétrage, tests) sur EAM v11.1, incluant les adaptations sur les interfaces existantes ou la réalisation de nouvelles interfaces Les petits + : Connaissance Oracle application serveur (IAS 1012) Savoir organiser, animer des comités et rédiger les CR associés Connaissances AWS GMAO INFOR EAM 11 et supérieure (v12 Saas) Paramétrages, spécifiques, (JSP, javascript, flex) Interfaçages, rapports, web services Connaissances métiers sur les fonctions de Maintenance, Stock et achat
Mission freelance
Développeur Node.js
PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un développeur passionné et expérimenté pour rejoindre notre équipe en tant que freelance ou consultant pour une mission de développement Craft avec Node.js et AWS . Missions principales : • Participer à la conception et au développement d’applications backend performantes et évolutives sur Node.js . • Intégrer et optimiser des services AWS (Lambda, S3, DynamoDB, etc.) pour assurer la scalabilité et la performance des projets. • Collaborer avec les équipes DevOps pour gérer les déploiements et l’infrastructure cloud sur AWS. • Écrire du code maintenable, propre, et respecter les meilleures pratiques Craft et Node.js. • Effectuer des tests unitaires et d’intégration pour garantir la fiabilité du code. • Participer à la veille technologique et proposer des solutions innovantes pour optimiser les processus existants.
Offre d'emploi
TechLead Cloud DevOps
En tant que TechLead Cloud DevOps , vous serez chargé de concevoir, d’implémenter et d’optimiser des infrastructures cloud tout en établissant des pipelines CI/CD automatisés. Vous superviserez la migration des environnements on-premise vers le cloud, en assurant la robustesse, la sécurité et la scalabilité des systèmes, principalement basés sur Kubernetes et des architectures microservices. Missions principales : - Concevoir et déployer des infrastructures cloud robustes, évolutives et sécurisées, basées sur des architectures microservices ; - Administrer et gérer les environnements OpenStack, en veillant à leur bon fonctionnement et à leur évolutivité ; - Orchestrer les conteneurs avec Kubernetes, gérer les clusters en production et optimiser leur performance ; - Mettre en place, déployer et gérer des pipelines CI/CD automatisés, principalement avec GitLab CI, afin d’assurer des déploiements continus et fiables ; - Automatiser les tâches d'administration et de déploiement à l'aide de scripts Python et d'outils d'infrastructure as code (Ansible, Terraform) ; - Surveiller les performances des infrastructures et effectuer les ajustements nécessaires pour garantir leur fiabilité et leur disponibilité.
Mission freelance
consultant en infrastructure Citrix
Hanson Regan recherche actuellement un consultant en infrastructure Citrix pour une mission à long terme à Paris. Travaillant dans un environnement AWS, vous utiliserez votre connaissance approfondie de Citrix et du réseau AWS pour concevoir et créer des composants technologiques de centre de données. Vous travaillerez avec des équipes interfonctionnelles pour assurer une intégration fluide des composants d'infrastructure, et dépanner et résoudre les problèmes liés au réseau. Le consultant en infrastructure retenu devra avoir une solide connaissance du réseau AWS, ainsi qu'une expérience de Citrix Hyper-V, MS Windows Server, Ansible et Terraform. Des certifications en Citrix sont requises, tout comme une expérience de travail dans des environnements cloud AWS. En raison des exigences du client, nous ne pouvons accepter que les candidatures de freelances travaillant via leur propre entreprise française. Malheureusement, nous ne pouvons pas accepter les solutions de portage pour cette mission. Si cela vous intéresse, veuillez nous contacter dès que possible avec un CV à jour aux coordonnées ci-dessous pour plus d'informations.
Mission freelance
Developpeur Frontend react JS
PROPULSE IT recherche un développeur Frontend JS Dans ce cadre, les missions et travaux à mener en tant que développeur sur l'applicatif du cockpit du SI sont : Cette prestation aura pour objectif principal la maintenance et la production sur la base des technologies existantes mais également de travailler avec l'équipe en charge de la refonte de la couche technique sous-jacente. •Prendre en main l'architecture existante, •Participer aux activités de corrections des Faits Techniques pouvant être identifiés en PROD •Discuter avec les experts Maximo pour définir les données nécessaires et maitriser leur rafraichissement pour afficher des indicateurs clairs, •Documenter et réaliser la mise en oeuvre du pipeline de données avec les technologies imposées (Qlik, API maximo, Kafka), •Participer à la définition de la refonte de cette architecture de données avec les équipes projet
Mission freelance
Architect data
L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev
Offre d'emploi
Data Engineer
Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.
Offre d'emploi
Développeur Back-end Java/Scala H/F
Offre d'emploi : Développeur Back-end Java/Scala H/F Vous êtes développeur et passionné par les défis techniques ? Vous avez envie de travailler dans le secteur de la santé, un domaine en constante évolution et à fort impact social ? Nous avons une opportunité pour vous ! Nous sommes un éditeur et intégrateur de solutions logicielles dédiées aux acteurs du secteur de la santé : hôpitaux, cliniques, centres hospitaliers universitaires, ainsi que les professionnels de la radiologie. Dans le cadre de notre expansion, nous recherchons un développeur back-end expérimenté, basé à Lyon, pour rejoindre notre département dédié aux solutions d’interopérabilité. Vos missions : Vous intégrerez une équipe dynamique, au sein de la tribu interopérabilité . Votre mission principale consistera à développer et maintenir des connecteurs permettant d'échanger des données entre systèmes tiers, tout en garantissant des critères d'intégrité, de traçabilité, et de sécurité. Vous serez également amené à intervenir sur des sujets à haute performance dans un environnement à forte dimension technique. Voici ce qui vous attend : Participation à des projets de grande envergure, notamment sur des projets en Belgique . Une stack technique riche et variée, principalement orientée back-end (Java, Scala, Kafka, MongoDB, ElasticSearch), dans un environnement micro-services. Collaboration avec une équipe agile (Scrum) composée de Product Owner, testeur et de 4 à 5 développeurs. Périmètre d'action transverse qui vous permettra de toucher à presque tous les workflows métiers d'un établissement hospitalier. Ce que nous offrons : Un environnement de travail stimulant, avec des projets longs et de la visibilité sur 12 à 24 mois. Télétravail possible 2 jours par semaine. Une équipe à taille humaine, des horaires flexibles (9h - 17h30), et une ambiance collaborative. Une localisation à Lyon . Vous êtes basé à Lyon ou ses alentours et vous souhaitez rejoindre une entreprise dynamique dans le secteur de la santé ? Rejoignez-nous et faites partie de cette aventure passionnante !
Offre d'emploi
Data Engineer BI
➢ CONTEXTE * Au sein du domaine Data BI nous recherchons un Data Engineer qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l’équipe. À la suite d’une passation avec notre centre de service, il devra également être en mesure d’innover et d’améliorer les processus existants pour perfectionner l’efficience de l’équipe au quotidien dans ses différentes tâches. ➢ DESCRIPTION DE LA MISSION • Participe à l’analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) • Être force de proposition sur l’amélioration de notre stack Data • Faire le reporting d’avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe
Offre d'emploi
Big Data Engineer Scala - Spark H/F
[Contexte] La prestation se déroule au sein du pôle Cybersecurity eFraud & Solutions dans lequel sont développés les outils de Maching Learning lutte contre la fraude et de réponse cyber à des recommendations de la BCE en cartographie et microsegmentation réseau (Octoflow) L'outil permet de recenser les échanges entre serveur afin de certifer les logs. Pour cela l'équipe a besoin d'un data engénieur afin de parser les données des différentes sources afin de les restituer à un outil interne. socle technique : Spark, Scala, Hadoop, Hive, Control-M, Starburst, ElasticSearch, Hbase [La prestation consiste à contribuer à/au(x)] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - Examen du code et assurance qualité : respect des normes de codage et mise en œuvre des pratiques d'assurance qualité afin de maintenir un niveau élevé de qualité des logiciels. - L'assistance au Product Owner et aux autres entité dont les architectes, les parties prenantes et les bénéficaires pour définir les exigences du projet et garantir l'alignement sur les objectifs de l'entreprise - Expertise technique : tendances et technologies du secteur dont le domaine DATA, WEB, etc. et assistance à l'entité. - Résolution de problèmes : Défis techniques et contribuer à apporter des moyens innovants à des problèmes complexes. - Gestion des performances : Evaluations des performances, retour d'information et favoriser la croissance et le développement professionnels au sein de l'entité [Les livrables attendus sont] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - veille technologique d'outils contribuant à l'optimisation de la solution
Offre d'emploi
Data Engineer Confirmé
1 - Contexte La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. 2 - Description de la mission Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL Développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitements avancés des données Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés
Offre d'emploi
Data Engineer
Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Architecte Data & Solution
🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.
Offre d'emploi
Data Engineer sénior H/F
SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE … Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.