Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Chef de projet Azure DevOps - 92 - Anglais obligatoire

🚀 Mission Freelance : Chef de Projet Azure DevOps 🚀 🔎 Contexte Nous recherchons un Chef de Projet Azure DevOps pour piloter la gouvernance, l’automatisation et l’optimisation des solutions digitales au sein d’un environnement technologique exigeant. Vous interviendrez sur la gestion des infrastructures, le développement de systèmes de monitoring et l’amélioration des workflows DevOps. 🎯 Vos missions ✔️ Définir et maintenir une stratégie unifiée pour la gouvernance et l’automatisation des outils. ✔️ Piloter les implémentations et opérations techniques sur des plateformes Cloud ( Azure, GCP ). ✔️ Améliorer la fiabilité, la qualité et les délais de mise en production des solutions digitales. ✔️ Développer et maintenir des systèmes d’automatisation avancés . ✔️ Assurer le support et l’optimisation de plusieurs applications logicielles distribuées. ✔️ Collaborer avec les équipes Engineering & Ops pour renforcer la sécurité et la performance. ✔️ Accompagner les équipes dans l’intégration des plateformes de test automatisées . ✔️ Encadrer et mentorer les équipes internes et externes pour développer leurs compétences techniques. 🔧 Compétences requises ✔️ Expertise en développement .NET (C#, SQL, Python) & outils Microsoft. ✔️ Maîtrise des plateformes Cloud : Azure, GCP . ✔️ Expérience avec APIGEE, middlewares et systèmes SAP . ✔️ Compétences DevOps : Jenkins, Groovy Pipelines, Kubernetes, Nexus, SonarQube, Octopus. ✔️ Outils et processus de test : Tosca, Microsoft Visual Studio, JMeter. ✔️ Expérience avec les infrastructures CDN et SQL Server .
Data engineer confirmé
Nous sommes à la recherche d'un data engineer confirmé pour notre client final à Lille. Les missions principales sont: Développer et maintenir les flux de données provenant de divers produits digitaux (Stambia/BigQuery). Implémenter les modifications dans les dataviz (PowerBI) Gérer la dette technique afin d'assurer la fiabilité de nos outils. Optimiser les performances des processus de traitement des données. Assurer la supervision et l'intégration des données de différentes natures provenant de multiples sources, tout en vérifiant la qualité des données entrant dans le Data Lake (en validant les données, en éliminant les doublons, etc.). Collaborer avec les équipes métiers et techniques.
Architecte Solutions - API .Net on Azure PaaS - 92 - English mandatory

📢 𝗠𝗶𝘀𝘀𝗶𝗼𝗻 𝗙𝗿𝗲𝗲𝗹𝗮𝗻𝗰𝗲 – 𝗔𝗿𝗰𝗵𝗶𝘁𝗲𝗰𝘁𝗲 𝗦𝗼𝗹𝘂𝘁𝗶𝗼𝗻𝘀 𝗔𝗣𝗜 / 𝗖𝗹𝗼𝘂𝗱 𝗔𝘇𝘂𝗿𝗲 - 𝟵𝟮 📢 📍 92, avec du présentiel hebdomadaire 📅 Contrat d'un an, renouvelable. 🚀 Démarrage ASAP 🔹 𝗠𝗶𝘀𝘀𝗶𝗼𝗻 ✅ Conception et développement d’APIs ✅ Définition des contrats d’interface ✅ Déploiement et monitoring de la solution technique ✅ Documentation technique et transfert de connaissances ✅ Contribution à l’architecture cloud à grande échelle ✅ Support à la stratégie API et Data 🔹 𝗩𝗼𝘁𝗿𝗲 𝗣𝗿𝗼𝗳𝗶𝗹 Vous justifiez d’une solide expérience en architecture d’entreprise, intégration d’APIs et solutions cloud à grande échelle. ✔Expertise en développement et intégration d’APIs (REST, SOAP) ✔ Maîtrise de .NET, Azure PaaS, SQL, Azure DevOps ✔ Connaissances en sécurité des APIs, CI/CD, monitoring et alerting Atouts complémentaires (Nice-to-have) : ✔ Expérience avec Apigee, GCP, Azure AD, Terraform, Python, PowerShell ✔ Intérêt pour la transformation IT et les stratégies d’intégration à l’échelle
Expert Python / Langchain / IA / Devops

🔍 Contexte & Mission : Nous recherchons un Expert Python avec une solide expérience en IA, DevOps et Langchain pour accompagner le LAB IA d’un grand groupe. Vous interviendrez sur le développement, l’intégration et l’amélioration des solutions d’IA en production, notamment le socle XGPT (assistants IA) . 🎯 Vos principales responsabilités : Maintenir, améliorer et intégrer les solutions IA du Lab, avec un focus sur XGPT . Assurer la fiabilité et la scalabilité des applications en production. Implémenter des évolutions tout en garantissant une interopérabilité fluide avec les applicatifs internes. Participer à une veille technologique proactive pour intégrer les meilleurs modèles LLM . Résoudre des problèmes techniques complexes et optimiser les performances du code. Offrir une flexibilité grâce à la capacité à forker du code et développer de nouveaux fronts.
Business analyst
Nous sommes à la recherche d'un business analyst confirmé pour notre client final basé à Lille. Les missions principales seront : Participer à l’étude et à la rédaction des processus d’intégration de nouvelles données ou d’applications. Accompagner les développeurs pour assurer une bonne compréhension des enjeux. Tester les développements réalisés. Assister les équipes business dans la compréhension du comportement de l’outil. Analyser les problèmes identifiés. Les données sont accessibles via Google BigQuery, et des compétences en requêtage SQL sont donc indispensables.
Chef de projet sécurité GCP
Notre client, un grand acteur du secteur bancaire, recherche un consultant expérimenté pour intégrer son équipe dédiée à la gestion des projets de sécurité au sein de son département Cloud. Dans le cadre de son développement, notre client renforce son expertise sur la plateforme Google Cloud (GCP) et cherche à renforcer ses équipes afin de garantir la sécurité des projets liés à cette technologie. Le consultant aura pour mission de : Accompagner l’équipe interne dans la mise en œuvre et la sécurisation des projets cloud sur GCP. Analyser et auditer les architectures existantes afin d’identifier et d’évaluer les risques liés à la sécurité des données et des systèmes. Participer à la définition et à la mise en œuvre des meilleures pratiques en matière de sécurité sur GCP. Accompagner les équipes techniques et les responsables de projets dans la mise en place de solutions de sécurité adaptées aux exigences du secteur bancaire. Assurer la conformité des projets avec les réglementations et les normes de sécurité en vigueur (ex. RGPD, ISO 27001, etc.). Collaborer avec les équipes internes pour élaborer des stratégies de gestion des identités et des accès (IAM) sur GCP. Mettre en place des mécanismes de surveillance et de reporting pour détecter et prévenir les incidents de sécurité.
Développeur Python/Spark/GCP (F/H) – Domaine bancaire – Toulouse

🚀 Contexte du poste Dans le cadre d’une migration vers Google Cloud Platform (GCP) et de plusieurs projets d’expansion, nous recherchons un développeur Python/Spark/GCP (F/H) pour intervenir sur un projet dans le domaine bancaire. Au sein d’une équipe Data et en collaboration avec les Data Scientists, votre rôle sera de concevoir, industrialiser et optimiser les pipelines de données tout en intégrant et déployant les modèles de Machine Learning développés par l’équipe. 🎯 Vos missions Concevoir et développer des pipelines de données optimisés sur Google Cloud Platform (GCP) Industrialiser et déployer des modèles de Machine Learning via Spark et d’autres services GCP (BigQuery, Dataproc, Vertex AI) Optimiser la gestion des alertes LCB-FT et contribuer à l’amélioration des modèles de scoring Assurer la migration des données et traitements de PHG vers GCP Travailler sur des architectures scalables et performantes pour l’extension du moteur de scoring Automatiser et superviser les traitements pour garantir un fort niveau de fiabilité et de performance 🛠 Stack technique Google Cloud Platform (GCP) : BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub Spark (PySpark / Scala) pour le traitement distribué Python (pandas, scikit-learn, airflow) CI/CD & Infra : Terraform, Kubernetes, GitLab CI/CD Bases de données : SQL, NoSQL
Tech Lead GCP

Rôle: Tech Lead GCP Missions Principales En tant que Tech Lead GCP , vous serez le référent technique et assurerez l’architecture, la mise en œuvre et l’optimisation des solutions cloud sur Google Cloud Platform . Vous travaillerez en étroite collaboration avec les équipes de développement, DevOps et infrastructure pour garantir la scalabilité et la performance des services cloud. 1. Architecture et Développement Concevoir des architectures cloud évolutives et sécurisées sur Google Cloud Platform Définir et mettre en place les meilleures pratiques d’ Infrastructure as Code (IaC) avec Terraform ou Deployment Manager Optimiser les performances et la résilience des applications et services sur GCP Mettre en place des solutions de CI/CD pour l’automatisation des déploiements 2. Encadrement et Leadership Technique Accompagner et coacher les équipes de développement sur les bonnes pratiques GCP Réaliser des revues de code et des audits techniques Assurer la montée en compétences des équipes sur les outils et services GCP Être le référent technique et garantir la cohérence technologique des projets 3. Sécurité et Optimisation des Coûts Implémenter les meilleures pratiques de sécurité cloud (IAM, gestion des secrets, compliance) Surveiller et optimiser les coûts d’infrastructure sur GCP Mettre en place des solutions de monitoring et d’alerte avec Google Cloud Operations Suite (ex-Stackdriver) 4. Veille Technologique et Innovation Assurer une veille active sur les nouvelles technologies et services GCP Proposer des innovations et améliorations pour optimiser les performances des applications Tester et expérimenter des solutions basées sur AI/ML, Kubernetes (GKE), Serverless (Cloud Functions, Cloud Run) Compétences Requises Compétences Techniques Maîtrise de Google Cloud Platform : Compute Engine, Cloud Storage, BigQuery, Cloud SQL, Pub/Sub, Kubernetes (GKE), etc. Infrastructure as Code (IaC) : Terraform, Deployment Manager Conteneurisation et orchestration : Kubernetes, Docker CI/CD : GitHub Actions, GitLab CI/CD, Jenkins Sécurité Cloud : IAM, KMS, gestion des secrets Monitoring & Logging : Cloud Monitoring, Prometheus, Grafana Langages : Python, Go, Java, Bash, YAML Bonne connaissance des architectures microservices et serverless Compétences Transverses Excellente capacité de communication et leadership Capacité à vulgariser des concepts techniques complexes Force de proposition et esprit d’innovation Capacité à travailler en équipe et à animer des workshops techniques
Ingénieur DevSecOps GCP
Concevoir et mettre en place les solutions DevSecOps. Définir, administrer et assurer le support des solutions conteneurs et orchestrateurs. Automatiser les déploiements d'Infrastructure as Code. Déployer et optimiser des architectures conformes aux SLA/SLO. Mettre en place des outils de suivi et de supervision. Étudier et implémenter de nouveaux services GCP. Collaborer avec les équipes MOE et architectes socles pour optimiser les solutions. Former les utilisateurs aux outils et bonnes pratiques DevSecOps.
Architecte sécurité GCP
En tant qu'Architecte GCP Réseaux & Sécurité, vous serez en charge de la conception, de l’optimisation et de la sécurisation des architectures cloud de notre client bancaire. Vous travaillerez étroitement avec les équipes de développement et d’exploitation pour garantir que les solutions mises en place sont scalables, sécurisées et performantes. Votre rôle inclura également la gestion de projets d’infrastructure cloud, en intégrant des services PaaS et des solutions de sécurité adaptées aux besoins spécifiques du secteur bancaire. Missions principales : Concevoir des architectures réseaux complexes sur GCP pour répondre aux besoins spécifiques du client. Mettre en place des solutions sécurisées sur GCP en intégrant les meilleures pratiques de sécurité, notamment en matière de confidentialité des données et de conformité aux régulations bancaires. Assurer la gestion et l’optimisation des services managés cloud et des PaaS (par exemple, Google Kubernetes Engine, Cloud Pub/Sub, BigQuery, etc.). Collaborer avec les équipes de développement pour intégrer des applications dans l’environnement cloud, en veillant à la sécurité et à la performance des services déployés. Effectuer une veille technologique pour rester à jour sur les nouveautés GCP et les tendances en matière de réseaux et de sécurité dans le cloud. Assurer la documentation technique des architectures mises en place et des processus opérationnels associés.
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Ingénieur DevOps Expert (GCP obligatoire/pas de full TT) H/F

Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un Ingénieur DevOps Expert H/F pour rejoindre un groupe international le plus rapidement possible. Ouverts au CDI et aux indépendants. 🎯 Ce que l'on attend de toi … ✨ Garantir la fiabilité et la performance des applications et technologies du SIRH, aussi bien en environnement Cloud qu’On-premise (support niveau 3) ✨ Automatiser et optimiser les processus grâce à la création de pipelines CI/CD et d’outils de supervision centralisée. ✨ Coordonner les activités de maintenance et assurer la qualité des livrables produits par la DSI et ses partenaires. ✨ Sécuriser et administrer les infrastructures Cloud et On-premise en mettant en place des solutions robustes et conformes aux standards. ✨ Collaborer avec les équipes techniques et fonctionnelles , en assurant le lien avec les éditeurs et les prestataires, tout en vulgarisant les concepts techniques auprès des non-informaticiens. ✨ Piloter les migrations vers le Cloud (principalement GCP) et améliorer les architectures existantes avec Kubernetes, Terraform et Docker. ✨ Être un moteur d’innovation , force de proposition pour l’amélioration continue du SIRH et des processus d’exploitation. Présentiel : 1 jour par semaine Contexte : Au sein de la Direction SIRH, être garant dans un contexte Cloud et On-premise des applications et technologies déployées au sein du périmètre, piloter les prestataires et gérer des projets. Les petits + 🔥 pour les candidats recrutés en CDI : 👉 Bénéficier d’une formation sur mesure adaptée à ton profil 👉 Un système de prime de cooptation qui n’existe nulle part ailleurs 👉 Une entreprise jeune et ambitieuse où il fait réellement bon vivre 👉 9 à 12 RTT par an 👉 Primes vacances 👉 Mutuelle prise en charge à 100% 👉 Frais mobilité de 4 euros par jour travaillé Le suivi de nos consultants en CDI sur 3 niveaux : 1. Chargé RH : tu auras à minima des points trimestriels pour comprendre si tout se passe bien sur ta mission par rapport à l’équipe, à ton manager, à la charge de travail, etc. 2. Business Manager : tu auras le feedback du client au sujet de ton travail et tu pourras faire remonter le tien aussi. Vous déciderez ensemble la fréquence des points. 3. Team Leader Line : tu seras accompagné par un expert technique de ton domaine qui comprendra tes difficultés, tes motivations et qui pourra partager ses expériences et t’accompagner dans tes souhaits d’évolution. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Architecte Cloud Google Cloud

Architecte Cloud Google Cloud Architecte Cloud Google Cloud, avec de bonnes softs skills pour acculturer son équipe, pour une longue mission en région Parisienne. Ayant travaillé sur de grand projet d'architecture Cloud Google cloud Bonne présentation , bonne capacité d'adaptation Maitrisant parfaitement Google Cloud et le cloud en général Accompagnement d'une équipe sur ces technologies Cloud et Google Cloud. Architecte Cloud Google Cloud, avec de bonnes softs skills pour acculturer son équipe, pour une longue mission en région Parisienne. 650 e par jour.
Architecte Cloud IA (H/F)

Dans le cadre du renforcement de la cellule IA, nous recherchons un Architecte Cloud IA expérimenté qui aura pour missions: - La co-construction de l’environnement d’analyse des logs de production (détection de patterns d’erreur, machine learning éventuellement en débordement sur le Cloud, appariment avec les programmes et proposition automatique de correction) - Suivi des ateliers IA avec l'info géreur et les entités du groupe (GT, définition des patterns) - Veille opérationnelle sur les LLM (ou nouvelles versions de LLM) : adaptation des nouveaux LLM sur une application test afin de benchmarker les LLM en regard du cas d’usage - Suivi de l’industrialisation des expérimentations (RAG LLM, api LLM) Industrialisation (passage à l’échelle) des outils réalisés sur la base de l’architecture de production infogérée et réalisation des chaînes CICD sur les Landing Zones AWS et GCP - Mise en place des liaisons applicatives avec les Landing Zone de la filiale de production informatique de groupe - Animation de l’acculturation et assistance opérationnelle aux tribus relatives à l’écosystème Github Copilot - Réalisation de la métrique de productivité : définition des KPI/OKR, préparation des benchmarks/tests A-B et mini-hackathons
Data Engineer GCP

Informations Générales Intitulé du poste : Data Engineer GCP Localisation : [Ville, Pays] (possibilité de télétravail selon politique de l’entreprise) Type de contrat : CDI / Freelance / Autre Rémunération : Selon profil et expérience Département : Data / IT Rattachement hiérarchique : Lead Data Engineer / Data Architect Missions Principales En tant que Data Engineer GCP , vous serez responsable de la conception, de la mise en place et de l’optimisation des pipelines de données sur Google Cloud Platform . Vous travaillerez en collaboration avec les équipes Data Science, BI et DevOps pour garantir la fiabilité et la scalabilité des infrastructures de données. 1. Conception et Développement de Pipelines de Données Concevoir, développer et maintenir des pipelines ETL/ELT robustes et performants sur GCP Utiliser BigQuery, Dataflow (Apache Beam), Dataproc (Apache Spark), Cloud Composer (Apache Airflow) pour l’ingestion, la transformation et le stockage des données Assurer l'optimisation des performances et la scalabilité des traitements de données Automatiser les flux de données en intégrant les meilleures pratiques DevOps et CI/CD 2. Gestion et Optimisation des Bases de Données Déployer et gérer des bases de données relationnelles et NoSQL sur GCP : BigQuery, Cloud SQL, Firestore, Spanner Assurer la qualité, la gouvernance et la sécurité des données (GDPR, RGPD, DLP) Implémenter des stratégies de partitionnement, d’indexation et d’optimisation des coûts sur BigQuery 3. Sécurité, Monitoring et Fiabilité Mettre en place des bonnes pratiques de sécurité (IAM, chiffrement des données, gestion des accès) Assurer le monitoring des pipelines et des infrastructures de données avec Cloud Monitoring, Stackdriver et Prometheus Gérer les incidents et optimiser les performances des traitements et des requêtes SQL 4. Collaboration et Documentation Travailler en étroite collaboration avec les Data Scientists, Data Analysts et équipes métiers Documenter les pipelines, les architectures et les bonnes pratiques Sensibiliser et accompagner les équipes sur l’utilisation des données et des outils GCP Compétences Requises Compétences Techniques Maîtrise de Google Cloud Platform : BigQuery, Dataflow (Apache Beam), Dataproc (Apache Spark), Cloud Composer (Apache Airflow), Pub/Sub ETL / ELT : Conception et optimisation de pipelines de données Langages de programmation : Python, SQL, Scala, Java Bases de données : BigQuery, Cloud SQL, Firestore, Spanner Infrastructure as Code (IaC) : Terraform, Deployment Manager CI/CD et DevOps : GitHub Actions, GitLab CI/CD, Jenkins Sécurité et Gouvernance des données : IAM, GDPR, DLP Monitoring et Logging : Cloud Monitoring, Stackdriver, Prometheus Compétences Transverses Bonne capacité d’analyse et de résolution de problèmes Capacité à vulgariser des concepts techniques complexes Esprit collaboratif et bonne communication Force de proposition et autonomie
Data Analyst Power BI

Bonjour, Nous recherchons pour notre client grand compte un Data Analyst Power BI répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/PWBI/4735 en objet du message Vos responsabilités Création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications. (Prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Maintien du bon fonctionnement des dashboards existant sur Power BI Accompagnement et le coaching des équipes internes sur l’intégration de la data dans leur processus de décision et de priorisation (AT Internet, eStat, marqueur interne). Mesure et analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l’équipe études
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Achat Immo SASU sciil y a 2 heures
- Demande de conseil - situation complexeil y a 2 heures
- baisse demande de prestas et freelance ?il y a 6 heures
- Tjm et inflation (1)il y a 7 heures
- Premiers jours de prestation non facturésil y a 8 heures
- Outils pour l'intégration de la tech dans le secteur bancaireil y a 10 heures