Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
API Support Expert - FinTech - Paris (H/F)

Contexte du poste : Fintech en pleine croissance spécialisée dans les services de paiements « Bank as a service », nous travaillons sur de nombreux projets pour nos clients, eux-mêmes des fintech. Ces projets sont focalisés sur le développement de nouvelles technologies en soutien sur le déploiement des services de nos clients. Missions : - Prendre en charge les demandes et questions techniques remontées par nos clients et analyser les problématiques remontées - Etre un relais privilégié avec différents départements et assurer une bonne communication client - S’assurer de la bonne utilisation de l’API par nos clients et les accompagner techniquement - S’assurer de la bonne utilisation de l’API par nos clients et lever des alertes si nécessaire - Assurer un reporting de qualité - Identifier et communiquer les exigences techniques et commerciales permettant d'améliorer l'offre Avantages : - Mission 6 mois - 2 jours TT / Semaine
Ingénieur Devops AWS

Nous recherchons un Ingénieur Devops AWS Objectif global : Accompagner le client dans l'administration AWS - Anglais impératif Les livrables sont: Gestion des locataires cloud Configuration du service d'IA Contrat de niveau de service Compétences techniques: AWS - Confirmé - Important Kubernetes - Confirmé - Important Terraform - Confirmé - Important Postgres - Confirmé - Important Connaissances linguistiques: Anglais Professionnel Impératif français Professionnel Impératif Description détaillée: Les cinq principales exigences qui déterminent l'excellence opérationnelle de la solution sont les suivantes : ● Disponibilité du service ● Latence et performances ● SLA à 99,5 % et latence < 5 s ● Amélioration continue ● Documentation
Architecte Technique AWS
nous recherchons un Architecte Technique AWS expérimenté pour intervenir sur la conception et la mise en œuvre d’infrastructures Cloud (AWS public et privé) dans le cadre d’un projet stratégique. 🛠️ Missions principales Concevoir et mettre en œuvre des solutions d'infrastructure sur AWS (public/privé) Participer à la migration vers Terraform pour l’automatisation des déploiements Documenter les architectures techniques (DAT, Dossier de Conception, RFI/RFP) Collaborer étroitement avec les équipes de développement Assurer un support technique aux équipes internes
Expert Sécurité & Réseau - Gestion des Accès et Supervision Cloud Hybride - Logiciel - Paris (H/F)

🏞️ Contexte du poste Notre entreprise, un acteur reconnu dans le secteur de la gestion et des services numériques, se distingue par son engagement envers l'innovation technologique et la sécurité des données. Basée en région parisienne, notre structure se compose d'une équipe dynamique dédiée à la gestion des infrastructures IT critiques. Face à une croissance constante de notre portefeuille client et à des enjeux sécuritaires de plus en plus complexes, nous recherchons un Expert Sécurité & Réseau. Vous rejoindrez notre DSI, composé de développeurs, architectes techniques, et experts en support, pour renforcer la sécurité de nos environnements Cloud hybrides. Votre rôle sera essentiel pour assurer la résilience et le haut niveau de sécurité de nos infrastructures. ⚒️ Missions Missions principales Gérer les identités et les accès via Azure EntraID, incorporant des pratiques de sécurité avancées telles que le MFA, le Zero Trust et les accès conditionnels. Administrer et superviser les firewalls (Fortigate, Palo Alto, AWS NFW/WAF), y compris l'installation, la configuration, la surveillance des performances, et l'application des correctifs. Collaborer étroitement avec le RSSI pour la mise en œuvre de la politique de sécurité et la gestion des incidents. Missions annexes Fournir un support utilisateur sur O365, y compris l'administration via Intune et la gestion des alertes Microsoft Defender. Participer à la supervision des infrastructures : détection d’anomalies, évaluation des risques potentiels, et mise en place de mesures préventives. Contribuer à la documentation technique, cartographier les infrastructures et maintenir à jour les référentiels. => Stack technique À maîtriser Azure EntraID, Fortigate, Palo Alto, AWS VPC/NFW/WAF Intune, O365, Microsoft Defender PowerShell pour le scripting Environnement technique global Cloud : Azure, AWS, OVH Firewalls & supervision : Zabbix, OpenTelemetry, Grafana Messaging : RabbitMQ, Azure Service Bus IaC & automation : Terraform, Ansible Outils : Jira, DevOps, Git, Kubernetes (EKS)
Ingénieur SysOps AWS H/F

SysOps AWS linux Localisation : 92 TT : 2 jours - Vous allez accompagner les équipes de développement du pole sur le move to cloud - Vous allez mettre en place les éléments de monitoring - Vous ferez des préconisations sur la partie Finops Expérience ci-dessous requise (obligatoire): > Expérience confirmée d’ingénieur SysOps AWS > 3 ans > Expérience confirmée en IAC Terraform > Expérience forte de Build et de Run des services serverless AWS > Certifications AWS appréciées > Expérience confirmé on-premise > Environnement Linux / Redhat > Une expérience sur $Univers est un plus
FREELANCE - Administrateur Système et Réseaux (H/F)

Notre client basé à Limonest (69) est à la recherche d’un Administrateur Système et Réseaux (H/F) freelance dans le cadre du développement de ses activités. MISSIONS · Gestion, configuration et maintenance des réseaux LAN/WAN, VPN, firewalls et autres équipements réseau · Gestion du domaine Windows (environnement cloud, AWS, Azure, Entra, mise en place d'Intune...) · Mise en oeuvre des solutions de haute disponibilité et de reprise après sinistre · Administration des systèmes d'exploitation, des serveurs physiques et virtuels · Mise en oeuvre des politiques de sécurité, des audits réguliers et des tests de vulnérabilité · Développement et maintien d'outils de gestion et de surveillance · Support technique de niveau 3 pour les incidents complexes, résolution des problématiques et déploiement des applications · Formation et assistance aux utilisateurs sur les systèmes et procédures · Automatisation de tâches dans Bash, PowerShell · Mise à jour de la documentation technique, des procédures et veille technologique
Admin Production (HDP CDP KUBERNETES)

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters
Process Manager Data - Banque

Contexte et Objectifs de la Prestation Dans un cadre Agile à l'échelle (SAFe) et dans un environnement anglophone, la prestation vise à apporter une contribution active à plusieurs volets stratégiques liés à la mise en place et à la gestion des offres internes Lakehouse. Missions et Responsabilités 1. Mise en place des offres internes Lakehouse L'accompagnement portera sur la structuration et l'optimisation des offres internes Lakehouse, avec un accent particulier sur les aspects suivants : Définition et formalisation des procédures de production : élaboration de recommandations visant à standardiser et améliorer les processus opérationnels. Élaboration d’une grille de mise en œuvre de la solution : définition d’un cadre méthodologique permettant un déploiement efficace et harmonisé des solutions Lakehouse. 2. Suivi et gestion des partenaires Un suivi rigoureux des partenaires impliqués sera assuré à travers plusieurs actions clés : Préparation et animation des comités de suivi mensuels : coordination des échanges avec les partenaires pour assurer une gouvernance efficace. Production des reportings : mise en place de tableaux de bord et d’indicateurs de suivi pour piloter l’activité et mesurer la performance des partenaires. 3. Assistance au Project Management Dans le cadre de la gestion de projets, la prestation inclut un accompagnement sur les phases suivantes : Études et cadrage : analyse des besoins, définition des objectifs et alignement des parties prenantes sur les périmètres des projets. Suivi de l’exécution : mise en place d’un pilotage opérationnel et suivi des livrables pour garantir le respect des délais et des engagements pris. Environnement de Travail Méthodologie : SAFe (Scaled Agile Framework) Langue de travail : anglais Collaboration : équipes internationales.
Analytics Engineer / Data Engineer GCP | Télétravail Hybride

Nous recherchons un Data Engineer pour rejoindre une équipe technique travaillant sur un produit data clé permettant la mise à disposition des données pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientée DBT, Airflow, BigQuery et Terraform . Missions Concevoir, développer et maintenir les pipelines de données Développer des modèles de données optimisés pour l’analyse et le reporting Assurer la qualité et la fiabilité des indicateurs et métriques utilisés par les équipes métier Auditer, cartographier et optimiser les données existantes pour une meilleure performance et gouvernance Collaborer avec les équipes techniques et fonctionnelles pour améliorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique
Data engineer
📢 Offre d’Emploi – Data Engineer (Freelance) 🔎 Nous recherchons un Data Engineer expérimenté pour une mission passionnante au sein d’une équipe technique innovante dans un environnement Google Cloud Platform (GCP) . 🎯 Missions principales : ✔️ Développement et optimisation de pipelines de données (ETL/ELT) ✔️ Modélisation et industrialisation des données ✔️ Mise en place et évolution des indicateurs de performance ✔️ Optimisation des coûts et des performances sur BigQuery ✔️ Collaboration avec les équipes Data et Ops pour améliorer la plateforme 🛠 Stack technique : 🔹 Cloud : Google Cloud Platform (GCP) 🔹 Orchestration : Airflow 🔹 Modélisation : DBT (gestion de tables incrémentales) 🔹 CI/CD & Infra : GitLab CI/CD, Terraform, Terragrunt, Docker 🔹 Langages : SQL, Python 💡 Profil recherché : ✅ +5 ans d’expérience en Data Engineering ✅ Maîtrise des environnements GCP, BigQuery, Airflow et DBT ✅ Solides compétences en SQL et Python ✅ Expérience avec l’ industrialisation de pipelines et l’optimisation des performances ✅ Bonne connaissance des méthodes Agile (Scrum, Kanban) ✅ Esprit d’analyse, capacité à vulgariser et à collaborer avec les équipes métier 📍 Localisation : Paris (Présence sur site 50%) 📅 Démarrage : mi-avril
Architecte Data (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data (H/F) à Lille, France. Les missions attendues par le Architecte Data (H/F) : Le Data Architecte aura pour missions principales : 1. Travailler en collaboration transverse avec l’architecture d’entreprise, l’architecture technique et les experts métiers et les parties prenantes selon sujet. 2. Évaluer les besoins et usages en matière de données au sein des différents métiers de l’entreprise, afin d’identifier les opportunités d’amélioration et les lacunes existantes pour projeter sur une nouvelle architecture de données. 3. Recueillir les attentes utilisateurs et définir les briques techniques nécessaires pour répondre à ces besoins, en collaboration avec les équipes Data, IT et métiers. 4. Cartographier les données de l’entreprise et mettre en œuvre la construction d’une plateforme de données centralisée et performante. 5. Contribuer à la mise en place du dictionnaire des données d’entreprise. 6. Définir le cycle de vie des données et la nomenclature de donnée pour garantir une gestion cohérente et homogène. 7. Préconiser des solutions techniques adaptées pour la collecte, le stockage et la gestion des données, en tenant compte des contraintes de sécurité, performance et conformité (RGPD). 8. Analyser l’impact des solutions retenues selon les besoins métier et proposer des mesures correctives ou évolutives pour maximiser leur efficacité. 9. Faciliter l’usage des données dans l’entreprise via des outils génériques et homogènes pour tous les projets, tout en veillant à leur adoption par les utilisateurs finaux. 10. Industrialiser l’ensemble des activités pour optimiser les cycles de vie des données et en particulier le time to market. 11. Documenter les architectures de manière fonctionnelle et assurer la diffusion de la culture « data » dans l’entreprise, notamment via des formations et des sensibilisations aux bonnes pratiques.
Développeur Data/Data Engineer
ATTENTION, PRESENCE 2 JOURS PAR SEMAINES OBLIGATOIRE SUR SITE A GOSSELIE. TOUTE PERSONNE AYANT CANDIDATE ET N'ETANT PAS DISPONIBLE SERA BLACKLISTEE PAR NOTRE SOCIETE . Modalités de la mission Dans le cadre de ses activités, le client est à la recherche de deux développeurs Data. Il s’agit d’une mission à temps plein dont la durée est estimée à 9 mois (renouvelable) et qui débutera idéalement le 15/04/2025. Une partie de la mission peut, en concertation avec le responsable, se faire en télétravail mais une présence sur le site de Gosselies de minimum 2 jours par semaine est obligatoire. Des jours supplémentaires de présence sur site peuvent éventuellement être demandés au consultant, en fonction des besoins du service (de manière ponctuelle). Le site de Gosselies n’étant pas facilement accessible en transports en commun, la possession d’un permis de conduire et d’un véhicule sera préférable pour les déplacements.
Data Engineer H/F

Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Data Engineer H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg ou Metz Secteur public Vos missions seront : Participer à l'audit fonctionnel et à la compréhension des besoins métiers Rédiger les spécifications et le cahier des charges Réaliser les MCP et MPD Mettre en place de contrôles de données et réalisation de tableaux de bords Participer aux réunions d'avancement Suivre et évaluer la bonne mise en place via des tests d'impacts Gérer la bonne mise à disposition de la documentation
Data engineering senior

Contexte : Adossée à la plateforme data, la prestation se déroulera au sein de l’équipe Pilotage. L’équipe actuellement constituée d’un Product Owner et d’un Data ingénieur a la charge de la mise à disposition des données utiles à l’ensemble des dashboards via son produit “Data4All”, basé sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituée de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le déploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Architecte Cloud AWS

📍 Lieu de prestation : Lestrem (Nord de la France) 📅 Durée : 6 mois 🚀 Démarrage : ASAP Context : Nous recherchons un Architecte Cloud AWS avec 5 ans d'expérience minimum sur les sujets Architecture cloud (avec un focus AWS). Ce profil doit montrer un réel leadership sur les sujets Cloud. Cet architecte rejoindra un environnement organisationnel complexe (projet carve-in/intégration de société, définition de stratégie move to cloud, design landing zone, définition d'architecture standard pour le groupe..).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- REX expert comptable Numbril y a 2 heures
- Question impôtil y a 3 heures
- SASU à l'IR ou EURL à l'ISil y a 3 heures
- Période creuse… besoin de conseils et de souffle collectifil y a 4 heures
- DeepL pour les freelances IT : un bon choix ?il y a 4 heures
- Questionnement Client final /Apporteur d'affaires / Salarié portéil y a 4 heures