Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur SysOps AWS
Contexte de la mission : La prestation d’expertise Cloud Public intègrera la DevTeam AWS de la Squad Cloud Public du client et prendra en charge des features Build dans le backlog qui pourront être soit orientées métier soit orientées infra et participera aussi aux actions liées au Run. Tâches à réaliser : · Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’application métier · Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements AWS · Assurer la généricité de ces pipelines · Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions · Garantir la sécurité ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement · Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections · Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud · Ouvrir et suivre des incidents chez l’infogérant Cloud Public en cohérence avec les processus ITIL du client
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Mission freelance
Expert technique Oracle - Minimum 10 ans d'exp
Propulse IT recherche pour un de ses clients un consultant Oracle expérimenté. Le client souhaite renforcer son pôle de compétence base de données et serveur d'application (middleware) avec un expert ayant des compétences et une expérience sur les différentes SGBD (PostgreSQL, Microsoft SQL Server, Oracle) et sur les serveurs d'application (Oracle 10gAS, 11gAS, …, Tomcat) afin de l'assister sur les projets d'évolution de briques. Voici un exemple des projets en cours de réalisation par l'équipe : • Participation à la mise en oeuvre d'une chaine CI/CD de delivery d'infrastructure OnPrem • Évolution des socles techniques (PostgreSQL version 14, Oracle version 19c, SQL Server version 2017) • Mise en œuvre des solutions de haute disponibilité Oracle DataGuard, Microsoft SQL Server AlwaysOn, PostgreSQL Patroni. • Etude de mutualisation de ressources : Oracle Exadata. • Mise à disposition d'un SGBD NoSQL : MongoDB. L'estimation de la répartition des tâches à réaliser dans le cadre de la prestation s'articule de la manière suivante : - Ingénierie bases de données/serveur d'application : 60-70% - Support N3 : 20-25% - Conduite technique de projet : 10-15% Les projets identifiés à ce jour dans le cadre de la prestation est : • Mise en place de de l'évolution Oracle Forms/reports D'autres projets sont susceptibles de s'ajouter à cette liste, en fonction des besoins de l'équipe. Livrables attendus : • Rédaction des dossiers d'architecture, d'exploitation, d'installation • Rédaction des modes opératoires à destination des différents acteurs projets et des équipes de Production • Compte rendu des ateliers de travail et des réunions réalisées dans le cadre des projets • Compte rendu de l'activité mensuelle
Mission freelance
Longue Mission - Développeur Node Angular
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, angular, mongo, postgre, kafka, bucket S3,
Offre d'emploi
INGENIEUR OPS RUN; CI/CD AWS/Azure; ITSM; Confluence
Assurer le lien avec entre la prod et les DevOps des projets et CDP Gérer toutes les phases de la mise en production des applications : Utiliser et Maintenir le Delivry de l’infrastructure cloud (services IaaS (Infrastructure As A Service), PaaS, ...) des projets via Terraform Configurer les composants applicatifs / services dans les environnements de production Utiliser les outils de livraisons continues du groupe (usine logicielle PIC/PDC) pour le déploiement des feautures en production Garantir le bon fonctionnement des applications en production et leurs évolutions. Gérer la disponibilité, de la sécurité et de l’évolution du socle avec selon les préconisations du schéma directeur et des architectes Mettre en œuvre les procédures d’exploitation (sauvegarde, automatisations, etc.) Etablir les documents techniques (contribution au DAT (Dossier d'Architecture Technique) / DEX) Superviser les applications avec l’outil de monitoring Groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents, mise en place de nouvelles sondes au besoin) ;
Offre d'emploi
Ingénieur Réseaux - Sécurité H/F
Nous sommes à la recherche d'un(e) Ingénieur Sécurité Réseau. Ce poste implique une grande polyvalence et une solide expérience dans les infrastructures de sécurité. Le profil retenu sera intégré dans une équipe en charge du Build, du Maintien en Condition Opérationnelle (MCO) et du RUN sur des équipements de sécurité d'infrastructure. Vos missions principales : - Accompagnement client : Analyse des besoins et proposition de solutions adaptées. - Conception de l'architecture : Élaboration des solutions matérielles et services, planification des activités, rédaction des livrables techniques (DAT). - Support Niveau 3 : Résolution des incidents complexes et prise en charge du support avancé. - Contribution aux appels d'offres : Participation à la relecture et à l'élaboration des cahiers des charges. - Maintien en condition opérationnelle : Identification et résolution des anomalies, mise en oeuvre des évolutions pour garantir la stabilité des infrastructures. - Design et implémentation : Participation active à la conception des nouvelles architectures et solutions de sécurité. - Expertise Firewall : Maîtrise des technologies de pare-feu, notamment FortiGate, Checkpoint, Palo Alto, F5, Fortinet, Juniper, Infoblox, Stormshield ou Cisco ASA/FTD. - Comprendre et gérer des architectures LAN, WAN, Wifi et Sécurité dans des environnements de grande envergure. - Proposer des améliorations pour optimiser la performance des systèmes et des infrastructures. - Effectuer une veille technologique sur les produits et tendances du marché. - Réaliser des diagnostics techniques pour identifier et résoudre les dysfonctionnements, et proposer des solutions de contournement. - Gérer l'exploitation et le capacity planning des composants techniques. - Définir et appliquer les règles de bonne gestion et d'exploitabilité des systèmes et produits techniques.
Offre d'emploi
Développeur Python React AWS
L'équipe supervise la maintenance et l'évolution des nombreux systèmes de trading qui permettent de participer à toutes sortes d'activités de marché. Les applications logicielles permettent d'effectuer au jour le jour les opérations nécessaires à la bonne gestion de ses activités. L'objectif du service est d'intégrer une personne supplémentaire à l'équipe chargée de gérer le backlog des applications en rédigeant, en suivant et en testant les User Story et en définissant les priorités. Les applications sont toutes développées en interne et écrites en Python en utilisant Redis, Celery, Flask et FlaskAdmin, SQL-Alchemy, PostgreSQL, Pandas, Timescale DB, React et elles sont hébergées sur AWS.
Mission freelance
DEVOPS / CLOUD
Vous intégrerez une équipe de passionnés d'architecture Cloud et participerez pleinement à faire évoluer un environnement technique très varié et up to date à travers les missions suivantes : ● Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. ● Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/CD…) ● Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. ● Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) ● Travailler en étroite collaboration avec l’équipe d’infrastructure. ● Veille technologique dans le domaine du DevOps. Le candidat doit analyser les tendances et les perspectives d’évolution éventuelles dans le cadre d’eTF1. ● Sensibilisation des développeurs aux problématiques opérationnelles: performances, haute disponibilité, supervision et sécurité Notre stack : AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns Expérience significative à un poste similaire: orienté accompagnement et expérience développeur. ● Bonnes connaissance des processus CI/CD ● Une expérience sur l’écosystème Kubernetes (k8s) dans un environnement de production ● Une expérience significative dans l’environnement et la mise en place de solutions AWS ● Utilisation d’outils d’IAC (Helm, Terraform, Packer, Ansible…) ● Être familier avec les problématiques de HA et les architectures distribuées à forte charge. ● Expérience significative sur au moins un des langages suivant : Bash, Python, Golang
Offre d'emploi
Consultant Data Gouvernance Collibra
Nous un recherchons un Data Manager - Consultant Data Gouvernance étant spécialisé en Gouvernance de données. Maîtrisant la Data Management et la Data Visualisation. Dans le cadre de la gestion et de la mise en gouvernance des données d'une Plateforme Data. Accompagnement des Uses Cases Data pour la définition de leur architecture data au sein de la plateforme dans le respect du paradigme du Data Mesh ; Identification, modélisation et documentation des Data-as-a-products exposés par chaque domaine de données ; Animation et contribution aux ateliers avec les correspondants RGPD (relais DPO) ainsi que les MOA pour l’identification et la classification des données sensibles et des données à caractère personnel ; Catalogage et taggage des données de couche Bronze dans le gestionnaire des métadonnées ; Accompagnement pour la prise en main de l’outil COLLATE (Open Metadata) par les ingénieurs de données afin d’effectuer le taggage des métadonnées de leurs domaines data respectifs conformément aux règles data management ; Participation aux cadrages des fonctionnalités techniques relatives au Data Management : gestion des schémas de données, gestion des contrats d’interface, minimisation des données, framework d’exposition des données … Conception et développement d’une newsletter Data Management sous forme d’un tableau de bord Power BI pour suivre l’évolution des principaux KPIs du patrimoine de données de la plateforme. Environnement Technique : Data Engineering : Databricks Data Storage & DB : AWS S3 Data Visualisation : Microsoft Power BI Data Management : OPEN METADATA, COLLIBRA, Data Galaxy / Data Catalog
Offre d'emploi
Product Owner Bi
Rattaché au Responsable du pôle BI, vous serez en charge du projet de refonte des reporting BI du pôle. Vous serez l’interface entre les utilisateurs des différents métiers (Commercial, Marketing, Contrôle de Gestion), le Data Office et la DSI. Vous interviendrez, sur la nouvelle plateforme, à la fois sur le support des applications existantes et sur le développement de nouvelles applications. Dans un contexte complexe et en construction, avec beaucoup d’interlocuteurs, vous devrez faire preuve d’un très bon relationnel . Vos missions sont : Ø Gérer le Backlog du chantier : l’initialise, le suit et l’améliore Ø Identifier les risques et propose des solutions pour les mitiger Ø Recueillir les besoins et rédige les User Stories avec les utilisateurs : maquettes, règles de gestion Ø S’assurer de la production de la documentation utile Ø Identifier et cartographie les sources de données nécessaires aux rapports Ø Réaliser les études de qualité de données et les dictionnaires de donnée BI Ø Etre le garant de la traduction des données en indicateurs et axes d’analyse métiers : mapping des données et règles de gestion Ø Superviser la performance du chantier au travers des KPIs fonctionnels et techniques Ø Assurer la cohérence fonctionnelle et technique du chantier Ø Rédiger les manuels utilisateurs Ø Etre disponible pour les utilisateurs, le Data Office et les data engineers Ø Etre responsable de la communication : o Participer à la définition de la stratégie de communication vers les utilisateurs o Organiser une boucle de feedback utilisateur en amont des projets o Communiquer sur le Produit et mettre en avant les équipes
Mission freelance
Développeur Node (React ou Angular)
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, mongo, postgre, kafka, bucket S3
Mission freelance
Développeur backend NodeJS PROFIL START UP
Je recherche pour une startup un profil confirmé/senior backend NodeJS. Toutes vos missions : ·Assurer toutes les étapes du développement du produit (conception, développement, test/qualité, déploiement) ·Participer à l’évolution de notre stack technique (architecture, librairies, tests, performance, monitoring, etc.) ·Travailler en collaboration avec les autres membres de l’équipe technique, ainsi que l’équipe produit (méthodes agiles) ·Assurer une veille technologique adaptée aux besoins de l’entreprise
Offre d'emploi
Consultant Data Gouvernance - Chefferie de Projet
Au sein de notre Data Fabric, Nous recherchons un Consultant Data Gouvernance orienté Chefferie de projet. Un profil Smart ayant un vernis technique et une réelle expertise en Gouvernance de données (3 ans d'XP minimum). Environnement : Data Catalog / Data Galaxy / Collibra / Le poste est en rythme Hybride. Des déplacements en Allemagne sont à prévoir (prise en charge par l'entreprise) Contexte : Gestion et mise en gouvernance des données d'une plateforme Data Définition,mise en œuvre et gestion du Cadre de Gouvernance des données Gestion & Chefferie de projet des sujets de Gouvernance Accompagnement des Uses Cases Data pour la définition d'architecture (Data Mesh) Identification, modélisation et documentation des Data-as-a-products Animation et contribution des données Catalogage et taggage des donnée Accompagnement pour la prise en main des différents outils de Data Gouvernance par l'ensemble des équipes Participation aux cadrages des fonctionnalités techniques relatives au Data Gouvernance & Management Conception de solutions de Gouvernance Formalisation d’une méthodologie de catalogage des données Construction d’un modèle de métadonnées (métamodèle) sur-mesure Définition des indicateurs de suivi de l’implémentation du Cadre de Gouvernance des données Développement d’un tableau de bord de pilotage Elaboration d’un plan de communication sur le Cadre de Gouvernance des données et proposition de supports de communication adaptés pour chacune des cibles retenues (métiers, IT et Data).
Offre d'alternance
LD / Développeur Junior SalesForce GV H/F
Au sein de la DSI France, vous aurez la charge de Missions : o Le développeur Salesforce en régie sera responsable de réaliser des développements sur la plateforme Salesforce, basés sur des besoins précis décrits dans des tickets Jira. Il participera activement au développement des cas d'utilisation pour les clients des équipes de vente, de la satisfaction client et de l'administration des ventes, ainsi qu'à un projet majeur d'implémentation de la fonctionnalité de Billing. Activités : o Développer des fonctionnalités Salesforce en accord avec les exigences spécifiées dans les tickets Jira. o Créer et développer des cas d'utilisation pour les clients des équipes de vente, de la satisfaction client et de l'administration des ventes. o Participer à l'implémentation de la fonctionnalité de Billing dans un projet majeur. o Collaborer étroitement avec les équipes métier pour assurer une compréhension approfondie des besoins. o Assurer la qualité des développements et leur conformité aux bonnes pratiques Salesforce.
Offre d'emploi
Expert Tanium H/F
Nous recherchons un profil possédant des compétences en Tanium , pour intervenir chez un de nos clients, un acteur majeur du secteur industriel, situé à Écully . Ce poste consiste à intervenir au sein de l’équipe IT en charge de la gestion des postes de travail et de la sécurité des endpoints, dans un environnement complexe et évolutif. Une expérience en migration SCCM vers Tanium serait un réel atout, notamment pour contribuer à la phase de transition et à la migration des configurations et des processus existants vers la nouvelle plateforme Tanium.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.