Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant DevOps
Technologies : AMQ, KAFKA, APIGEE, BUCKET GCP, Scripts, code Terraform pour CI/CD, Procédures, Scripting (Shell, Python), Git, Argo, Kubernetes, Ansible Descriptif de la prestation : Participer au sein de l'équipe Plateforme Échanges en tant que DevOps dans un contexte Agile (Agile Master + Product Owner) sur des évolutions spécifiques des plateformes d'échanges AMQ, KAFKA, APIGEE et BUCKET GCP. Améliorer l'industrialisation, la sécurisation, la résilience et la supervision des plateformes d'échanges : AMQ, KAFKA, APIGEE, Bucket GCP et SFTP. Travailler sur la résilience d'APIGEE et KAFKA, ainsi que sur l'accompagnement auprès des équipes produits vers la fin d'usage d'AMQ. Mise en place du portail APIGEE Integrated Portal. - Cloud Provider Public (idéalement GCP) - Scripting (Shell, Python) - Terraform, Git, Argo, Kubernetes, Ansible, scripts, code Terraform pour CI/CD, procédures
Mission freelance
Ingénieur Full Stack Java spécialisé en ElasticSearch (Migration vers OpenSearch / AWS)
Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Full Stack Java spécialisé en ElasticSearch pour participer à des projets stratégiques de migration et de développement applicatif. Vous interviendrez principalement dans le cadre d’une migration ElasticSearch 1.X vers OpenSearch 2.X, ainsi que sur le développement de fonctionnalités en Java/Spring au sein d’une équipe dynamique et collaborative. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/ELS/4551 en objet de votre message Missions principales Migration ElasticSearch/OpenSearch : Réaliser la migration de l’application existante d’ElasticSearch V1.8 vers OpenSearch sur AWS. Configuration avancée d'ElasticSearch et d'OpenSearch sur AWS, en tenant compte des bonnes pratiques et de la performance. Modélisation et mapping des données pour optimiser la structure des index. Création et gestion des index ElasticSearch. Mise en œuvre de fonctionnalités de recherche avancée, ainsi que la construction de requêtes ElasticSearch complexes. Optimisation des performances de la solution de recherche. Développement et maintenance d’applications Java/Angular : Implémenter, développer et maintenir des fonctionnalités en Java avec Spring et en front-end avec Angular 7+. Assurer le bon déroulement des tests unitaires et des tests de bout en bout avec l’appui du Product Owner. Produire la documentation technique, incluant les spécifications techniques et les processus de migration. Collaboration en équipe : Participer à l’animation de l’équipe Agile Safe, en contribuant aux rituels (daily meetings, PI planning, ateliers de partage de connaissances, démos, etc.). Environnement Technique : Langages et Frameworks : Java (Spring), Angular 7+, ElasticSearch, OpenSearch. Infrastructure Cloud : AWS (expérience de déploiement d’applications sur AWS, architecture serverless avec Lambda, API Gateway, etc.). Outils de DevOps et CI/CD : Docker, Terraform, GitLab CI/CD, avec gestion des environnements sur le cloud. Services AWS : S3, RDS Aurora, VPC, ainsi que des outils de monitoring (Grafana, Prometheus) et sécurité (Linux, Redhat). Autres : Apache Spark, Spring, Eclipse, VSCode, Maven, Git.
Mission freelance
Ingénieur de production (H/F) - 92
Au sein du service RUN de la Direction Informatique et rattaché au Responsable de production l’Ingénieur de Production a pour mission de maintenir les systèmes SI en production afin de garantir la qualité de service rendu aux utilisateurs. - Assurer le bon fonctionnement technique des applications en production - Garantir un niveau défini de qualité de service aux utilisateurs, en adéquation avec les exigences métiers (définition et mise en œuvre des moyens permettant de mesurer la QoS) - Gérer les incidents Niv 2 et 3 selon l’expertise - Administration Systèmes Linux & Windows - Scripting et automatisation - Assurer la maintenance préventive et curative - Gérer des sauvegardes, logs, alertes, supervision, etc - Accompagner les équipes Projets et Infrastructure pour anticiper les moyens de Production à mettre en œuvre sur les nouveaux sujets - Suivre et mettre en œuvre les échanges techniques avec les prestataires et partenaires ; - Gérer un « Capacity planning » sur le SI - Participer aux tâches de supports (journée) et astreintes (HNO) du SI
Offre d'emploi
Product Owner Bi
Rattaché au Responsable du pôle BI, vous serez en charge du projet de refonte des reporting BI du pôle. Vous serez l’interface entre les utilisateurs des différents métiers (Commercial, Marketing, Contrôle de Gestion), le Data Office et la DSI. Vous interviendrez, sur la nouvelle plateforme, à la fois sur le support des applications existantes et sur le développement de nouvelles applications. Dans un contexte complexe et en construction, avec beaucoup d’interlocuteurs, vous devrez faire preuve d’un très bon relationnel . Vos missions sont : Ø Gérer le Backlog du chantier : l’initialise, le suit et l’améliore Ø Identifier les risques et propose des solutions pour les mitiger Ø Recueillir les besoins et rédige les User Stories avec les utilisateurs : maquettes, règles de gestion Ø S’assurer de la production de la documentation utile Ø Identifier et cartographie les sources de données nécessaires aux rapports Ø Réaliser les études de qualité de données et les dictionnaires de donnée BI Ø Etre le garant de la traduction des données en indicateurs et axes d’analyse métiers : mapping des données et règles de gestion Ø Superviser la performance du chantier au travers des KPIs fonctionnels et techniques Ø Assurer la cohérence fonctionnelle et technique du chantier Ø Rédiger les manuels utilisateurs Ø Etre disponible pour les utilisateurs, le Data Office et les data engineers Ø Etre responsable de la communication : o Participer à la définition de la stratégie de communication vers les utilisateurs o Organiser une boucle de feedback utilisateur en amont des projets o Communiquer sur le Produit et mettre en avant les équipes
Offre d'emploi
Data Analyst confirmé / senior
Bonjour, Nous recherchons pour un poste (mission de longue durée) à pourvoir ASAP un profil Data Analyst pour notre client basé en région parisienne (Châtillon) confirmé/sénior disposant d’au moins 5 ans d’expérience data. Au sein de la Direction Digital & Data, l’équipe Data Lab intervient sur les périmètres Data et Analytics, dans le cadre du programme de transformation du SI de notre client. Vous aurez l’opportunité de rejoindre leur Data Factory dont la mission première est de déployer des produits Analytics innovants à destination des fonctions support et logistique, des magasins, et surtout des consommateurs. Après les premiers succès et des attentes de plus en plus fortes, nous passons désormais à l’échelle avec une nouvelle organisation Agile en Domaine/Tribu/Squad et la nécessité d’industrialiser nos pratiques pour accélérer la livraison des produits, tout en capitalisant mieux sur le patrimoine de données constitué. Vous aurez l’occasion d’intégrer une de nos squad dont la principale mission est de développer des cas d’usage BI, Analytics et Data Science déployés sur notre plateforme Data hébergée sur le Cloud Azure. Objectif global : Rédiger Rédaction Contrat d'interface & Specs Ci-dessous les principales tâches prévues : - Rédaction des contrats d’interfaces pour mise à disposition des données par la source de données - Rédaction de spécifications techniques détaillées de contrôles - … Une 1ere expérience dans le secteur de la grande distribution serait appréciée Les livrables sont · Contrat d'interface · Spécifications techniques détaillées Définition du profil CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes Un test technique sera réalisé lors de l’entretien Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
Développeur backend NodeJS PROFIL START UP
Je recherche pour une startup un profil confirmé/senior backend NodeJS. Toutes vos missions : ·Assurer toutes les étapes du développement du produit (conception, développement, test/qualité, déploiement) ·Participer à l’évolution de notre stack technique (architecture, librairies, tests, performance, monitoring, etc.) ·Travailler en collaboration avec les autres membres de l’équipe technique, ainsi que l’équipe produit (méthodes agiles) ·Assurer une veille technologique adaptée aux besoins de l’entreprise
Mission freelance
Expert Data (H/F) - 94+95+Remote
L'enjeu de ce chantier consiste en un dé-silotage des données d'application pour construire une vision business 360 unifiée (une couche de données qualifiées, consolidées, homogénéisées et complètes pour exploitation) à travers une gestion de la qualité et de la cohérence des données Prestation Les expressions de besoin, fiche usage, fiche solution, et fiche budget, note de cadrage, cadrage des démarches, dossiers projet, comités de suivi, plan d’actions, documentation, CR, … relatif à son activité Les éléments de suivi des avancements, du planning, capacité à faire, plan d'action, budgets, difficultés, risques, … Les coaching, coordination, planification, optimisation, priorisation, animation, gouvernance Les conseils, propositions, pilotage Livrables associés EB d'ingestion (plusieurs sources/applications/tables) SFD (Spécification fonctionnelle détaillée) EB module d'ingestion industriel EB outil de supervision EB contrat de service EB environnement pour exploitation *Support/Présentation pour pilotage
Offre d'emploi
Consultant Data Gouvernance Collibra
Nous un recherchons un Data Manager - Consultant Data Gouvernance étant spécialisé en Gouvernance de données. Maîtrisant la Data Management et la Data Visualisation. Dans le cadre de la gestion et de la mise en gouvernance des données d'une Plateforme Data. Accompagnement des Uses Cases Data pour la définition de leur architecture data au sein de la plateforme dans le respect du paradigme du Data Mesh ; Identification, modélisation et documentation des Data-as-a-products exposés par chaque domaine de données ; Animation et contribution aux ateliers avec les correspondants RGPD (relais DPO) ainsi que les MOA pour l’identification et la classification des données sensibles et des données à caractère personnel ; Catalogage et taggage des données de couche Bronze dans le gestionnaire des métadonnées ; Accompagnement pour la prise en main de l’outil COLLATE (Open Metadata) par les ingénieurs de données afin d’effectuer le taggage des métadonnées de leurs domaines data respectifs conformément aux règles data management ; Participation aux cadrages des fonctionnalités techniques relatives au Data Management : gestion des schémas de données, gestion des contrats d’interface, minimisation des données, framework d’exposition des données … Conception et développement d’une newsletter Data Management sous forme d’un tableau de bord Power BI pour suivre l’évolution des principaux KPIs du patrimoine de données de la plateforme. Environnement Technique : Data Engineering : Databricks Data Storage & DB : AWS S3 Data Visualisation : Microsoft Power BI Data Management : OPEN METADATA, COLLIBRA, Data Galaxy / Data Catalog
Offre d'emploi
Ingénieur Cybersécurité (H/F)
Nous recherchons un Ingénieur Cybersécurité expérimenté, spécialisé dans la sécurité des environnements cloud, des applications et des réseaux. Vous serez responsable de l’évaluation, la mise en œuvre et l’amélioration continue de la sécurité sur l’ensemble de notre infrastructure, avec un focus particulier sur le cloud de Microsoft, la conteneurisation, l’orchestration et la protection des applications critiques. Missions principales : Gestion de la sécurité dans le cloud : · Implémenter et surveiller les mesures de sécurité sur Azure et Microsoft 365 . · Développer des stratégies de sécurité cloud pour assurer la protection des données et la conformité aux normes de sécurité. · Configurer et gérer des solutions de surveillance et de détection des menaces cloud. · Sécurité des applications : · Réaliser des évaluations de sécurité des applications, en particulier des applications hébergées dans des environnements cloud. · Participer à la sécurisation du cycle de développement logiciel (DevSecOps). · Implémenter des contrôles de sécurité, tels que le chiffrement, l’authentification et la gestion des identités. · Cybersécurité des réseaux : · Assurer la sécurité des réseaux et des infrastructures associées, incluant les pare-feu, les VPN et la gestion des flux réseau. · Déployer et configurer des outils de surveillance des réseaux et de gestion des incidents de sécurité. · Conteneurisation et orchestration : · Maîtriser et sécuriser des environnements de conteneurisation (Docker, Kubernetes). · Gérer la sécurité des clusters d’orchestration, avec une attention particulière aux vulnérabilités dans les configurations des conteneurs et leur orchestration. · Conformité et reporting : · Participer activement aux audits de sécurité et aux mises à jour des politiques internes. · Contribuer au reporting de sécurité auprès de la direction et des parties prenantes en fournissant des analyses régulières des incidents et des mesures préventives. Compétences techniques requises : Cloud Microsoft : Excellente maîtrise des environnements Azure et Microsoft 365 (sécurité, gouvernance, automatisation). Cybersécurité applicative : Sécurisation des applications cloud et DevSecOps. Réseaux : Connaissance approfondie des protocoles réseau, des pare-feu, et des outils de gestion de la sécurité réseau. Conteneurisation & orchestration : Expertise dans les technologies Docker et Kubernetes et dans leur sécurisation. Outils de sécurité : SIEM, gestion des vulnérabilités, systèmes de détection des intrusions, outils de monitoring. Compétences additionnelles souhaitées : Connaissances des normes de sécurité (ISO 27001, NIST, GDPR). Certifications appréciées : CISSP, CISM, Microsoft Certified: Azure Security Engineer, Kubernetes Security Specialist.
Offre d'emploi
Architecte Salesforce H/F
Contexte : Nous sommes à la recherche d'un/une Solution Architecte Salesforce ayant une expertise avérée dans la remise en Standard des solutions Salesforce pour un client final dans le secteur de la banque . Missions : Le prestataire retenu sera chargé : de travailler en étroite collaboration avec nos équipes internes pour remettre en Standard nos solutions Salesforce existantes, en identifiant les personnalisations inutiles et en les remplaçant par des solutions standard . d' analyser les besoins métier et à concevoir des solutions adaptées
Mission freelance
Consultant SecOps (H/F)
Notre client recherche un freelance avec une forte connaissance GCP pour travailler sur le backlog Secops des équipes devops. Dans le cadre de sa recherche, notre client souhaite une prestation d’expertise cloud GCP (LandingZone notamment) pour réaliser les activités suivantes : - Travail en agilité (Scrum, Kanban) - Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO - Relation de proximité et en binôme avec un membre de l'équipe - Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plate-forme Cloud - Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6) Livrables : Module Terraform Document de formation/accompagnement pour les équipiers Documentations techniques formalisée dans les outils internes (Jira / confluence)
Offre d'emploi
Product Owner/Proxy PO Azure
Nous sommes à la recherche d’un Product Owner pouvant travailler dans nos bureaux situés à Issy-les-Moulineaux, et dont le rôle serait de gérer le développement et la maintenance en conditions opérationnelles et de sécurité d’une plateforme de GRC et de reporting interne. Ce Product Owner aura pour mission d’assurer la coordination entre l’équipe de développement de l’application et le manager de la gouvernance de la sécurité des SI au niveau Groupe. Il/elle aura par ailleurs, la responsabilité de prioriser et de collecter dans ce cadre, les besoins fonctionnels de la gouvernance de la sécurité des SI, et de les formaliser en backlog pour application par les développeurs. De plus, il est attendu de ce Product Owner qu’il contribue à la revue, définition et formalisation des processus de développement selon une méthodologie Agile.
Mission freelance
Développeur Node (React ou Angular)
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, mongo, postgre, kafka, bucket S3
Offre d'emploi
DevOps et Azure (Node/ JavaScript est un plus)
🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La prestation consiste à contribuer à/au(x) : Contribution à couvrir les aspects de design d'architecture d'un socle DevOps pour l'ensemble de la banque de détail France, et l'implémentation de ce socle au sein d'Azure. L'expertise des technolologies Azure dans son ensemble, Terraform, Ansible, Kubernetes, Vault, Linux sont nécessaires pour mener à bien cette mission critique pour la banque de détail France. Livrables attendus Les livrables attendus sont : Dossiers d'architectures Scripting et outillage d'administration, Modules Terraform & Packer Scripts divers / Automatisation (Ansible et autres)
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Mission freelance
SecOps - Expertise cloud GCP (NANTES - Présence Hebdo obligatoire)
🔴 Merci de confirmer votre présence à Nantes 🔴 La mission ne peut pas se faire en full Remote (3 jours min sur site / semaine) ✅ Nous apprécions un court message indiquant la raison de votre candidature Intégrer une équipe plateforme (LandingZone) sur GCP avec un fonctionnement agile (PO, Agile Master, Leadtech) qui a en charge le Build / Run / MCO / Astreinte. Nous recherchons un consultant avec une expertise cloud GCP (Landing Zone notamment)pour réaliser les activités suivantes : - Travail en agilité (Scrum, Kanban) - Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO - Relation de proximité et en binôme avec un membre de l'équipe - Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plate-forme Cloud - Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.