Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert Windows
Dans ce cadre, la prestation consiste à contribuer à / au(x) : - L’étude et la mise en œuvre des projets d’évolution du poste de Travail - Projet d’évolution de la sécurité (AD, Serveurs & postes de travail…)Windows - L’expertise et l’exploitation sur l’ecosysteme Microsoft (AD / SCCM / WSUS / DHCP / DNS / Print Server / Serveurs de fichiers / DFS / Remote Desktop Services / Serveurs applicatifs) - L'assistance technique aux nouveaux projets - La mise en place des process d’exploitation - Support technique niveau 3 et contribution à la gestion des incidents techniques complexes - La rédaction de document d’architecture - La gestion du Patch management, traitement des vulnérabilités du périmètre...) - Traitement des demandes JIRA - La gestion des incidents d'exploitation en rapport avec ces technologies, et rédaction des comptes rendus / post mortem - Projets d'évolution et des architectures de l'infra Windows (Automatisation, Intégration Vmware, Création nouvelle infra F5,...), contribuer aux exercices de résilience du SI - Intégration dans les processus Environnement anglophone Environnement Agile
Mission freelance
EXPERT SPLUNK – Freelance - (H/F)
1) CONTEXTE DE L’ENTREPRISE : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk. Les activités de la société cliente sont articulées sur 3 lignes de produits et une équipe de coordination technique : Produits Middleware et SGBD Produits d’Échanges Produits d’Exploitation L’équipe « Produits d’Exploitation » opère sur les technologies suivantes : Archivage à Valeur Probatoire (PEA) Puits de Logs (SPLUNK) Outillage de Ticketing et CMDB (BMC) Supervision (NNM, SiteScope BPM, SPLUNK – ITSI et Zabbix) Ordonnancement (CA Workload Automation) Les principaux travaux de l’équipe « Produits d’exploitation » consistent en : Faire évoluer les architectures de chaque outil pour répondre au mieux aux besoins de leurs clients (fonctionnalités, performances) et aux contraintes de fin de support. Conseiller, informer et former leurs clients sur le fonctionnement des produits. Rédiger et mettre à jour la documentation. Définir les organisations et les processus liés à l’exploitation des outils Support technique de niveau 3 Traitement des problèmes 2) CONTEXTE DE LA MISSION : L’objectif étant le maintien en Condition Opérationnel et Evolution de l’infrastructure de la solution Splunk Collecte et indexation de nouvelles sources de données Valorisation des données par la création de rapports et de tableaux de bord et l’assistance aux analyses Développement de Scripts en SPL, Python, shell, powershell Mise à jour et déploiement de l’infrastructure Splunk (Shell, ANSIBLE, powershell) La prestation attendue se déroule directement avec les experts techniques du périmètre Splunk, les métiers et devra rendre compte aux responsables du projet SPLUNK. Ces travaux sont réalisés dans le respect de la méthodologie en vigueur basée sur les principes AGILES ainsi que les outils de l’Usine Logiciel (Git ; JIRA ; …). Le titulaire doit donc disposer d’une expertise sur les produits Splunk et de son contexte d’utilisation. 3) EXEMPLE DE PRESTATIONS ATTENDUES ET LIVRABLES ASSOCIÉS : Prestations attendues : Collecte de nouvelles sources de données Étude de faisabilité Développement et/ou configuration des connecteurs Réalisation des tests techniques Valorisation des données collectées Assistance aux analyses de données et sensibilisation à la bonne utilisation de Splunk Livrables associés : Périodicité ou échéance Rédaction de l’étude de faisabilité Création de scripts Parsing des données selon les besoins Cahier de recette des tests techniques Réalisation du planning de mise en production Mise à jour des documents d’exploitation et d’administration Création des configurations associées sur les différents environnements Conseils sur la réalisation et l’optimisation des INDEX Mise a jour de la documentation technique Amélioration et optimisation des collectes Amélioration de la ségrégation des collecte
Mission freelance
Architecte d'entreprise et solution Assurance Finance et Risques
Nous recherchons un Architecte d'entreprise et solution pour intervenir de la phase d'étude d'opportunité jusqu'à la mise en production des différents projets de notre client Assureur. Vos missions : Produire deux livrables par projets (diagnostique d'architecture et dossier d'architecture fonctionnelle) vérifier la conformité d'implémentation des impacts documenter toutes les connaissances dans l'outil référentiel d'architecture (lean IX) et dans le dictionnaire de données de notre client. Prérequis : Bac+5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte d'entreprise et solution pour des grands compte de l'assurance. (Assurance de personnes, épargne, et ou assurance de biens) Connaissance du domaine finance/risque et des spécificités assurantielles telles que Solvency II Expérience en processus RH et intégration de progiciels RH (idéalement Workday) Maitrise de la modélisation de processus (norme BPMN V2), et approche Data au sein du SI Stack techniques : On Premise, Cloud (AWS)), Mainframe, digital développé en interne, solutions SaaS ou progicielles. Anglais courant obligatoire
Mission freelance
DevOps Cloud Network (AWS ou GCP, Terraform et Python)
L'équipe Core Network du client a pour mission de combiner le network avec les pratiques DevOps dans le but de rationaliser les opérations, améliorer l'automatisation, développer la collaboration et délivrer des services réseaux toujours plus fiables et scalables. Au sein de cette équipe, vous aurez pour mission de contribuer à la livraison de fonctionnalités techniques sur les composants réseaux. Voici quelques exemples de tâches portées par ce poste : - Contribuer techniquement aux engagements de l’équipe dans la livraison de fonctionnalités. (Activités de Build pilotées au travers des rituels Scrum) - Participer régulièrement aux activités en maintien en condition opérationnelle de nos composants réseaux - Automatiser par le développement nos solutions d'infrastructure réseau. - Participer au Run sur les modules, scripts, automates developpés par l'équipe - Participer aux différents projets d'innovations et d'améliorations du réseau dans l';équipe. - Proposer et mettre en œuvre des améliorations et des solutions innovantes (Build & Run) Mission localisé à Paris, Lille ou Lyon. Domaine de responsabilité / Composants techniques sur lequel vous interviendrez : AWS & GCP Cloud VPC Management - VPC, Endpoint, NCC, TransitGateway, SharedVPC, PSC, PrivateLink Cloud segmentation - VPC Inspection, Security groups, PrivateLink, VPCEndpoints Cloud Egress Filtering - Fortinet, Squid Cloud Transit - Routeurs Cisco, AWS DirectConnect, GCP partners Interconnect, Cloud routers) IP Management - IPAM Netbox, Infoblox, RFC1918 Backbone réseau - Bandwith On-Demand, BGP, OSPF, Juniper External partners connectivity - VPN IPSEC, SSL, ZTNA Private DNS - Route53, CloudDNS, Infoblox Processus : 1 entretien Go - No Go
Mission freelance
Analyste SOC N3
Analyser et répondre aux incidents de sécurité complexes identifiés par les outils de monitoring. Réaliser des investigations approfondies sur les incidents critiques et produire des rapports détaillés. Développer et maintenir des playbooks d’automatisation Superviser et optimiser les configurations des plateformes de monitoring Effectuer des revues régulières des logs pour identifier des anomalies ou des menaces potentielles. Collaborer avec les équipes internes et externes pour renforcer les stratégies de sécurité. Proposer des recommandations d’amélioration continue pour les systèmes et les processus de sécurité. Participer activement à la définition et à la mise en œuvre des politiques de sécurité cloud (AWS).
Offre d'emploi
Data Engineer
Dans le cadre de son plan stratégique, une entreprise internationale poursuit son développement en exploitant la donnée et les APIs pour apporter davantage de valeur à ses clients et partenaires, notamment sur le marché du crédit à la consommation. Pour relever ces défis, l'équipe IT renforce ses compétences en mobilisant des experts capables d’intervenir sur des domaines variés : Datawarehouse, Datalab, Sécurité Financière, Automobile, Risques, etc. L’objectif est de structurer et faire évoluer les solutions techniques tout en accompagnant les entités locales dans leurs projets. MISSIONS PRINCIPALES : Participation à l’industrialisation du socle technologique Data & API : - Mise en œuvre et évolution des capacités techniques ; - Création de composants génériques pour faciliter le développement ; - Amélioration et migration vers de nouveaux socles (Snowflake, AWS) ; - Support aux équipes locales (IT) en phase de cadrage et de build. Expertise technique : - Analyse des besoins métiers et proposition de solutions adaptées ; - Veille technologique et alignement des solutions avec les normes techniques ; - Documentation des assets pour garantir leur maintenance et réutilisation. Développement et support : - Développement de composants facilitant les flux de données (Talend, Java, Python…) ; - Gestion du support technique niveau 3 ; - Suivi des migrations et optimisation des processus. Monitoring et amélioration des flux Datawarehouse : - Mise en place d’un système de monitoring centralisé ; - Suivi des performances des outils et des bases de données (Vertica, Oracle, Snowflake). ACTIVITÉS ET LIVRABLES : - Référent technique pour plusieurs applicatifs ; - Support technique pour les outils DevOps (GitLab, Jenkins, Kubernetes, etc.) ; - Coordination avec les sous-traitants et validation des livrables ; - Reporting et suivi des projets auprès des équipes et des responsables.
Offre d'emploi
DevOps (h/f)
Nous recherchons un Ingénieur DevOps passionné(e) par l’automatisation et les technologies cloud pour rejoindre notre équipe dynamique. Vous travaillerez sur des projets innovants, optimiserez les pipelines CI/CD, et contribuerez à la stabilité et à la scalabilité de nos environnements. Développer, déployer et maintenir des pipelines CI/CD pour assurer un déploiement continu. Collaborer avec les équipes de développement pour intégrer les outils DevOps dans le cycle de vie des applications. Gérer l’infrastructure cloud (AWS, Azure, GCP) et en assurer l’optimisation. Implémenter des outils de monitoring et de logs pour garantir la stabilité des services. Automatiser les processus pour réduire les interventions manuelles. Participer à l’élaboration des bonnes pratiques de sécurité et de conformité.
Offre d'emploi
Data Analyst (H/F)
🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.
Offre d'emploi
Data Engineer (H/F)
NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. En tant que Data Engineer (Senior) au sein de l'équipe Data, vos principales missions consisteront à : - Contribuer à l'enrichissement de la plateforme de données (ETL). - Améliorer la robustesse des pipelines de production pour les applications de - - Machine Learning (inférence en temps réel, etc.). - Intégré(e) dans une équipe de spécialistes en données (data engineers, machine - learning engineers, data scientists, data analysts), vous jouerez un rôle clé pour garantir la position dominante de la solution sur son marché. STACK ET OUTILS Technologies : Apache Spark, Kafka, AWS, Databricks, Python, Airflow, Mlflow, TensorFlow, Delta Lake, Superset, Kubernetes, Redshift, SQL, Terraform, Ansible. LES MISSIONS - Concevoir et implémenter une architecture performante, robuste, scalable et avec des coûts maîtrisés pour les applications Spark ainsi que pour les pipelines de production de Machine Learning (évaluation des feature stores, refactoring de DAG Airflow). - Accompagner les Data Scientists lors de la mise en production (relecture de code, pair programming) et établir les meilleures pratiques. - Optimiser et améliorer la CI/CD de l'équipe en collaboration avec l'équipe SRE. - Assurer la montée en compétences des membres de l’équipe sur les sujets de MLOps et Data Engineering. - Explorer les meilleures façons d'intégrer les données Google Analytics dans la plateforme de données. - Partager vos connaissances et présenter les travaux devant toutes les équipes techniques.
Mission freelance
Data Engineer Spark/Scala F/H
Nous recherchons un(e) Data Engineer spécialisé(e) en Spark et Scala pour rejoindre notre équipe Data. Vous contribuerez à la conception, au développement, et à l’optimisation des pipelines de données à grande échelle, ainsi qu’à l’implémentation des meilleures pratiques de gestion et de traitement des données. Concevoir, développer et maintenir des pipelines de données scalables et robustes en utilisant Spark et Scala. Intégrer et transformer des données provenant de différentes sources (bases de données, fichiers, APIs, etc.). Assurer la qualité, la performance et la sécurité des flux de données. Participer à l’optimisation des performances des traitements Big Data. Collaborer avec les équipes Data Science, BI et Développement pour répondre aux besoins des projets. Implémenter les meilleures pratiques en matière de gestion des données et d’architecture. Surveiller et résoudre les incidents liés aux flux de données en production. Compétences techniques : Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée). Solides compétences en conception et optimisation de flux ETL. Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL. Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP). Connaissance des écosystèmes Hadoop et des frameworks Big Data.
Mission freelance
Ingénieur SysOps
Nous recherchons un ingénieur SysOps AWS pour rejoindre les équipes au sein de la DSI d'un Client. En tant qu'Ingénieur DevOps, vous êtes responsable de la gestion et du support de l'environnement utilisé pour fabriquer et tester de manière automatique le plus souvent possible. Vous serez chargé de mettre en place, administrer et supporter l'ensemble des systèmes informatiques permettant d'améliorer la fluidité des opérations. Tâches : Déploiement régulier des applications, la répétition contribuant à fiabiliser le processus. Décalage des tests "au plus tôt" dans le cycle de développement. Pratique des tests dans un environnement similaire à celui de production. Intégration continue incluant des "tests continus". Amélioration continue des processus. Surveillance étroite de l'exploitation et de la qualité de production via des métriques factuelles.
Mission freelance
un consultant SAP Quantum
Je recherche pour mon client un consultant SAP Quantum : Les principales responsabilités seront : Travailler au sein de l'équipe de support et de maintenance pour résoudre des tickets d'évolution ou d'incidents, soutenir les utilisateurs finaux, et suivre tous les tickets liés à Quantum via Service One. Effectuer certaines activités en tant que membre du projet pour suivre les livrables principaux du projet (mise à jour de Quantum/migration vers le cloud (AWS)), en assurant la livraison du projet dans les délais, les tests, etc. Être le principal point de contact pour le support avec les utilisateurs clés comme DT T&ITC. Connaissances fonctionnelles des processus Quantum : Contrats, paiements, intégration des relevés bancaires dans Quantum, réconciliation des comptes, gestion de trésorerie, reporting, analyses, taux, statistiques, etc. Trésorerie globale – processus FX, gestion des risques, etc. Support centré sur la clôture mensuelle (D4), personnalisation, gestion des données de base et reporting pendant l'installation/des requêtes. Connaissance des interfaces Quantum (Reuters, Bloomberg, 360T, Finastra, pour l'importation des taux et des contrats). Connaissance de l'intégration des taux de change (FIXING) dans Quantum et SAP SFTP, FileZilla, ainsi que des langages de scripts, Citrix AG, planification des tâches, Crystal Reports, connaissances en Analytics, configuration des tâches et suivi des traitements. Connaissance des formats de fichiers de paiement MT101, etc. Coordination des mises à jour nécessaires de FIS et exécution des tests de routine associés (SSO, certificats, etc.). Travailler dans SAP sur les interfaces Quantum – analyse des écritures comptables. Préparer et effectuer des tests individuels en IT pour valider les changements effectués par FIS (évolutions).
Mission freelance
Analyse incidents MOE
Dans le cadre du renforcement des équipes de notre client, nous recherchons un Analyse incidents MOE en mesure de concevoir et qualifier de nouvelles fonctionnalités demandées par la Direction Commerciale sur l’outil CRM et sur les applications périphériques. Missions : Conception fonctionnelle et homologation d’applications commerciales Etude et analyse détaillée sur applications informatiques Tests de validation et conformité logicielle Communication avec les architectes SI, les développeurs… Analyse d’incidents Spécifications Fonctionnelles Détaillées Plan de tests et jeux de données Trace d’exécution des tests Suivi des anomalies constatées (reporting) PV livraison en recette
Mission freelance
DATA SCIENTIST SENIOR - IA GENERATIVE
Le Data Scientist Senior sera en charge du développement de modèles IA avancés, en se concentrant sur le traitement du langage naturel (NLP) pour l'analyse, la compréhension et la génération de textes. Il interviendra également sur le traitement d’images, en créant des modèles capables d’interpréter et d’exploiter des données visuelles complexes. De plus, il concevra et déploiera des solutions d'IA générative, incluant les modèles de langage massifs (MLM), les systèmes de récupération augmentée par génération (RAGs), ainsi que les chatbots documentaires.
Mission freelance
EXPERT SPLUNK OBSERVABILITY – Freelance - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk observability. MISSIONS TYPES : 1) Audit et cadrage : Évaluer l'existant en termes de supervision et observabilité. Proposer des améliorations pour la collecte et l'analyse des données de logs, métriques et traces. 2) Implémentation et configuration : Mettre en place les solutions Splunk Observability (SignalFx, Infrastructure Monitoring, APM). Intégrer les sources de données des systèmes cloud, conteneurs (Docker/Kubernetes), et infrastructures traditionnelles. 3) Création de dashboards et alertes : Développer des tableaux de bord personnalisés pour les équipes opérationnelles et les décideurs. Configurer des alertes proactives basées sur des seuils dynamiques et des tendances. 4) Formation et transfert de compétences : Accompagner les équipes internes dans l'utilisation optimale de Splunk Observabilité. Définir les bonnes pratiques en termes de monitoring et d'analyse. 5) Amélioration continue : Participer à la résolution des incidents critiques en exploitant les données d'observabilité. Mettre en place des solutions automatisées pour améliorer la disponibilité des systèmes.
Offre d'emploi
EXPERT SPLUNK OBSERVABILITY – CDI - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk observability. MISSIONS TYPES : 1) Audit et cadrage : Évaluer l'existant en termes de supervision et observabilité. Proposer des améliorations pour la collecte et l'analyse des données de logs, métriques et traces. 2) Implémentation et configuration : Mettre en place les solutions Splunk Observability (SignalFx, Infrastructure Monitoring, APM). Intégrer les sources de données des systèmes cloud, conteneurs (Docker/Kubernetes), et infrastructures traditionnelles. 3) Création de dashboards et alertes : Développer des tableaux de bord personnalisés pour les équipes opérationnelles et les décideurs. Configurer des alertes proactives basées sur des seuils dynamiques et des tendances. 4) Formation et transfert de compétences : Accompagner les équipes internes dans l'utilisation optimale de Splunk Observabilité. Définir les bonnes pratiques en termes de monitoring et d'analyse. 5) Amélioration continue : Participer à la résolution des incidents critiques en exploitant les données d'observabilité. Mettre en place des solutions automatisées pour améliorer la disponibilité des systèmes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.