Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert Pentest - N3
Contexte Objectif global : Réaliser des tests de sécurité applicatifs (pentest, vuln,etc.) MISSIONS : Réalisation de tests offensifs, principalement sur des applications Rédaction des rapports suite aux tests Participation et animation des restitutions auprès des métiers Réalisation de tests de vulnérabilité en mode RUN via les scanners déployés Maintien en condition opérationnelle de l'outillage Participer aux projets d'amélioration du service (outillage, méthodologie) Attitude positive, participative et constructive Connaissance du monde défensif (monde "Blue") sera apprécié Définition du profil : Réalisation des tests d'intrusion applicatif et infrastructure dans l'objectif d'identifier les failles potentielles Contrainte forte du projet : Connaissance nécessaire des outils de sécurité offensive (Burp, suite Kali, ...) Les livrables sont : Compte rendu et restitution des tests de sécurité Organisation de réunion de restitution Suivi du planning annuel des tests de sécurité
Mission freelance
POT8055-Un Business Analyst Banque sur Val de Fontenay
Almatek recherche pour l'un de ses clients Un Business Analyst Banque sur Val de Fontenay. Contexte client : La personne cherchée intégrera une petite équipe (5 personnes) dédiée à la construction de reportings à partir des données de l’entrepôt de données CMW. Ces reportings sont demandés par la direction des Risques, ou celle de la Conformité, ou par les régulateurs (ACPR, BCE), etc. Ils sont ponctuels / one-shot en général ; le travail habituel consiste donc à savoir écrire rapidement une requête SQL correspondant au besoin du demandeur. Profil recherché : B.A Banque > 6 ans d’expérience dans la fonction Compétences attendues : Qualités indispensables : • Business Analyst de bon niveau • Bonnes connaissances du milieu bancaire • Bonnes connaissances en informatique décisionnelle • Bonnes connaissances SQL • Autonomie et rigueur
Mission freelance
Tech Lead AWS - IAM (F/H)
La mission se déroulera au sein du département Digital Platform travaillant en mode Agile. Vos missions : Vous serez amené à prendre le relais du Tech Lead actuel, à horizon Avril-Juin 2025 et porter la responsabilité technique de la plateforme Vous intègrerez dans vos propositions et conceptions les enjeux de mise à l’échelle des services plateforme et considérerez comme fondamentaux la nécessité de construction de la plateforme en infra-as-code, les exigences d’autonomie des clients de la plateforme et les exigences des autres parties prenantes de la Compagnie (Architecture et Cyber). Vous participerez aux activités de RUN liées à la plateforme Vous développerez des modules Terraform et pipeline CICD pour déployer/configurer/gouverner l'infrastructure (aucun déploiement ne sera fait manuellement via la console AWS) Vous serez à l’écoute des utilisateurs du produit et rechercherez leur feedback, documenterez pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme.
Mission freelance
Tech Lead AWS (F/H)
Vos missions : Vous serez amené à réaliser le design des features de la plateforme permettant aux métiers de développer et exploiter des Data Products/Data Sets. Vous intègrerez dans vos propositions et conceptions les enjeux de mise à l’échelle des services plateforme et considérerez comme fondamentaux la nécessité de construction de la plateforme en infra-as-code, les exigences d’autonomie des clients de la plateforme et les exigences des autres parties prenantes de la Compagnie (Architecture et Cyber). Vous serez à l’écoute de vos utilisateurs et rechercherez les feedbacks Vous serez amené à rédiger de manière précise les user stories du backlog en vue de leur refinement par l’équipe de Platform Engineer. Vous serez amené à épauler les autres membres de l’équipe dans la gestion du RUN et du Build.
Offre d'emploi
SecOps / IaaS Senior – GCP/AWS/Azure
Nous recherchons un expert en SecOps/IaaS pour intégrer notre équipe plateforme IaaS . Si vous avez une expérience significative sur GCP, AWS ou Azure et une maîtrise des outils d'automatisation comme Terraform, Ansible et Python , nous serions ravis de vous rencontrer ! Vous rejoindrez une équipe dynamique qui adopte une méthodologie agile (Kanban) et applique le principe "You run it, you build it" . Vous serez responsable du Build, du Run, du MCO , ainsi que des astreintes pour assurer le maintien en conditions opérationnelles. Responsabilités : Créer des scripts Python , des modules Terraform , et des playbooks Ansible pour l'automatisation. Gérer des VMs sous Linux (RHEL) et Windows Server . Participer à la gestion complète du cycle de vie des infrastructures en tant que membre clé de l'équipe. Assurer une communication active et partager les connaissances avec les autres membres de l'équipe. Compétences techniques requises : Cloud Public : GCP (idéalement), AWS ou Azure. Technologies : GCE, GCS, CloudFunction (ou équivalents AWS/Azure). Outils d'automatisation : Maîtrise de Terraform , Ansible , Python (obligatoire). CI/CD et Gestion du code : GitHub , Jenkins . Administration Système : Windows Server , RHEL (Linux).
Offre d'emploi
Business Analyst Market Risk IT
Au sein d'une équipe en charge du risque et du PnL, le candidat participera activement au développement d'un réferentiel de données officielles (valos, sensis, var…) à la fois innovant, ergonomique et intuitif. Ce référentiel a une double vocation : - organiser la transition vers le nouveau SI - faciliter l'analyse et automatiser le reporting officiel La mission sera focalisée sur l'analyse et la spécification fonctionnelle des besoins métiers sur le moteur de calcul et d'aggrégation de la valorisation et des indicateurs de risques. Le Business Analyst fera d'une part l'interface entre les utilisateurs et les équipes de développement en veillant à ce que les fonctionnalités requises sont bien implémentées dans le progiciel (principalement sur la Var et les Stress Tests, les Greeks, le PNL, PNL explain). Il sera d'autre part chargé du suivi des développements internes autour de l'aggrégateur. La Mission à réaliser se déclinera notamment à travers: - La montée en compétence sur les applications existantes - L'analyse fonctionnelle des besoins métiers - Le lotissement, la planification et le suivi des développements - La participation à la gouvernance en partenariat avec le métier - La rédaction de cahiers de tests en collaboration avec les developpeurs - La Documentation et le manuel d'utilisation - L'Assistance et le support des utilisateurs Proposition et réalisation d'analyses et spécifications fonctionnelles Pilotage de planning de suivi de certains projets Conception et réalisation de tests et recettes
Offre d'emploi
ADMINISTRATION INFORMATICA / DATASTAGE
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La prestation consiste à contribuer à/au(x) : - L'assistance technique des environnements PROD et NON PROD (support aux entités fonctionnelles). - Suivi des environnements de production, d'UAT, d'Homologation et de développement pour les différentes applications INFORMATICA/ DATASTAGE(Installation, configuration, patch, administration, backup ...) - La maintenance et l’évolution des architectures techniques et des systèmes de supervision - Tests, validations, suivi de la mise en production de nouvelle application Livrables attendus Les livrables attendus sont : - Installations et configuration des infrastructures ETL - Documentation des procédures opérationnelles - Documentation du suivi des incidents, des changes et des opérations sur l'infrastructure via l'outil d'ITSM - Document sur l’élaboration des architectures - Reporting d'activité hebdomadaire
Offre d'emploi
Ingénieur Virtualisation VMWare et Nutanix
Dans le cadre de l’un de ses projets de transformation du SI, notre client cherche un ingénieur virtualisation pour réaliser les installations/configurations logicielles de clusters Nutanix et également pour travailler à la mise au point/rédaction et l'exécution des procédures techniques de migration avec l'appui de l'éditeur (Nutanix) qui sera embarqué sur un pilote. Tâches à réaliser : Installer et réaliser les configurations logicielles de clusters Nutanix AHV pour réaliser des POC · Configurer le prisme central · Optimiser les performances · Mettre en place les politiques de sécurité et la sauvegarde · Effectuer les tests de robustesse · Migrer des VMs · Elaborer les procédures de migration · Rédiger les procédures de migration · Exécuter les procédures techniques de migration
Offre d'emploi
Data Architect Kafka
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de data engineering, point de référence aussi bien pour l’équipe de réalisation des projets (build) que pour les équipe de production (RUN). Les missions sont: - Maintien en condition opérationnelle des services opérés autour du streaming (Kafka, Kafka Connect, Flink) - Amélioration continue des services opérés - Implémentation des solutions définies avec le PO (services actuels ou dans le cloud IBM) - Maintien d'une veille technologique permanente - Mode Agile - Astreintes sur les services existants Environnement/ technologies: - Analyse et développement de « produits transverses posés sur étagère pour nos Métiers » - Java jusqu’à l’intégration avec les chaines CI/CD. Des développements JAVA peuvent être réalisés dans le contexte de besoins spécifiques. - Langages de programmation suivant : Java, Python (dans un contexte Big Data) - Plateformes de configuration et gestions des installations : (Ansible, …) - écosystème object storage et kubernetes : (API S3, Helm,…) - écosystème Hadoop (HDFS, Hive, ,…), ElasticSearch - écosystème transport de données : Kafka Connect, Kafka - Framework spring : Spring-Boot, Spring-Security… - Concepts NoSQL et maîtrise d’au moins une solution parmi celles-ci : MongoDB, PostGres. - Concepts de streaming : Flink - Openshift
Offre d'emploi
Expert Front-end engineer (REACT/typescript)
Rejoignez une startup innovante, fondée en 2023 par des experts en technologie ayant fait leurs armes chez Google et Naval. L'entreprise a déjà sécurisé ses premiers tours de financement (Pre-Seed et Seed) et s’apprête à accélérer son expansion. En tant qu’Ingénieur Front-End expert ( React ) Fondateur, vous serez au cœur de la conception et du développement d’une solution de pointe basée sur l'intelligence artificielle, destinée à améliorer les capacités de défense de la France et de ses alliés. Vous travaillerez sur des projets complexes à fort enjeu stratégique, nécessitant de la réactivité et un sens aigu de l’innovation. Vos missions incluent pour le poste Front End engineer (React/typescript) : Développer et maintenir des applications front-end performantes en utilisant React et TypeScript. Collaborer étroitement avec les équipes produit et backend ( Python , Rust ) pour garantir une intégration fluide des technologies. Participer aux décisions stratégiques concernant le développement produit et son évolution future. Assurer une livraison rapide des fonctionnalités tout en garantissant la qualité et la sécurité des systèmes.
Mission freelance
Data Engineer Lille (profil local et expérimenté)
L'équipe DCF (Data Component and Framework) est une équipe transverse dont l'objectif est de construire un socle technique et des outils permettant à chaque Business Unit local ou international de mettre en place en autonomie ses Uses cases Data. Environnement technique : • Stockage : Google Cloud Storage • Base de données : BigQuery, Datastore, Firestore, MongoDB • Monitoring : Stackdriver • Ordonnanceur : Airflow puis Google Cloud Composer • Compute: Cloud Function, Compute engine • API: App Engine, Cloud run, FastAPI • Déploiement : Terraform, Pulumi • Versioning : Git • Langage: Python, Shell • CICD : Cloud build, Github Action
Mission freelance
SRE DevOps
Bonjour, je suis à la recherche d'un SRE devOps, dont vous trouverez la fiche de poste ci-dessous: En tant qu’Ingénieur DevOps, vous serez responsable de la gestion et de l’automatisation des déploiements d’infrastructure et de configuration. Vous travaillerez en étroite collaboration avec les équipes de développement pour assurer une intégration continue et une livraison continue (CI/CD) efficace, tout en maintenant une infrastructure stable et sécurisée. Automatisation et Déploiement : Maîtriser les outils d’automatisation de déploiement d’infrastructure et de configuration (IaC, CaC) tels que Kubernetes, Terraform, Ansible, Jenkins, et Git. Utiliser les outils de CI/CD en mode GitOps (FluxCD ou ArgoCD) pour gérer les pipelines de déploiement. Observabilité et Sécurité : Mettre en place et gérer des outils d’observabilité comme Prometheus et Grafana. Gérer les identités et les accès (IAM) avec des outils comme Keycloak. Cloud et Infrastructure : Avoir des connaissances sur les principaux fournisseurs de cloud (Openstack, GCP, AWS). Gérer et maintenir l’infrastructure en production.
Offre d'emploi
Data Engineer
La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
Developpeur backend Web
Au sein d'une société à taille humaine dans le secteur des médias, vous interviendrez sur l'ensemble de leurs médias (3). Vos missions seront les suivantes: Développer du code propre, efficace et réutilisable sur des projets web Faire des tests unitaires/d'intégration pour garantir la qualité du code, les améliorer et en ajouter si besoin Contribuer à la mutualisation du code entre les médias sur la partie front et back Assurer la maintenance et la mise à jours des 3 médias Migrer le front end de Nuxjs à HTMX ( partie frontend actuellement externalisée), cela représentera moins de 30% du poste. Etre en lien direct avec les équipes produit pour concevoir et implémenter de nouvelles fonctionnalités. Avoir une vue d'ensemble sur toute la chaîne, rédiger les specs...
Offre d'emploi
Data Engineer (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
Expert Data (H/F) - 94+95+Remote
L'enjeu de ce chantier consiste en un dé-silotage des données d'application pour construire une vision business 360 unifiée (une couche de données qualifiées, consolidées, homogénéisées et complètes pour exploitation) à travers une gestion de la qualité et de la cohérence des données Prestation Les expressions de besoin, fiche usage, fiche solution, et fiche budget, note de cadrage, cadrage des démarches, dossiers projet, comités de suivi, plan d’actions, documentation, CR, … relatif à son activité Les éléments de suivi des avancements, du planning, capacité à faire, plan d'action, budgets, difficultés, risques, … Les coaching, coordination, planification, optimisation, priorisation, animation, gouvernance Les conseils, propositions, pilotage Livrables associés EB d'ingestion (plusieurs sources/applications/tables) SFD (Spécification fonctionnelle détaillée) EB module d'ingestion industriel EB outil de supervision EB contrat de service EB environnement pour exploitation *Support/Présentation pour pilotage
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.