Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Architecte CRM
Dans le cadre d’une transformation stratégique des systèmes de gestion client (CRM), nous recherchons un Architecte CRM expérimenté. L’objectif principal est de stabiliser et moderniser une plateforme CRM utilisée à l’international, actuellement monolithique, pour la transformer en une solution modulaire, évolutive et flexible. L’architecte sera responsable de : Concevoir l’architecture cible et définir les trajectoires pour atteindre les objectifs stratégiques. Guider la modularisation du CRM afin d’assurer son évolutivité pour intégrer de nouveaux marchés et filiales. Définir les flux d’intégration et les interactions entre les composants du système. Documenter et communiquer les choix architecturaux pour garantir une compréhension et une adoption fluide par les équipes. Surmonter les défis d’implémentation liés à la transformation et gérer la dette technique.

Offre d'emploi
Analyste CyberSécurité Cloud
1/ Contexte : Cyber Defense au sein du Groupe est en train de sourcer le Security Operations Center (SOC) pour étendre la Global SOC Platform à la surveillance de la sécurité du Cloud public pour les logs et alertes AWS, Azure et Google. Le projet est en phase de développement où une mise en application des ressources est nécessaire pour développer et construire les cas d'utilisation de la sécurité du Cloud public, les Playbooks de réponse et effectuer un plan de test de bout en bout, y compris les critères d'acceptation de l'utilisateur et le déploiement en production. Objectifs : - Soutenir le projet d'extension de la plateforme de sécurité globale existante Azure Sentinel pour surveiller les logs et les alertes du Cloud public. - Développer et concevoir les règles de détection et le Playbook de réponse en alignement avec les cas d'utilisation de sécurité sélectionnés. 2/ Tâches principales du service : En étroite collaboration avec l'équipe du programme, l'équipe de cyberdéfense existante et les partenaires externes, les principales tâches du service de sécurité du Cloud public consisteront à mener et à soutenir les tâches suivantes en suivant l'usine de cas d'utilisation interne de l’entreprise mise en évidence ci-dessous. - Évaluer les cas d'utilisation du Cloud existants - Documenter les spécifications des cas d'utilisation - Construire les règles de détection requises lorsque c'est nécessaire - Développer les Playbooks de réponse nécessaire pour réagir aux incidents détectés - Construire et exécuter le plan de test de bout en bout et l'acceptation par l'utilisateur - Affiner et réajuster les règles de détection et les livres de jeu si nécessaire - Assurer une acceptation par l'utilisateur et un déploiement en production sans heurts 3/ Service Principaux livrables : -Construire des règles de détection en accord avec les cas d'utilisation sélectionnés pour GCP et OpenShift, RedHat -Construire le Playbook de réponse approprié et le ticket Silva pour gérer les incidents de sécurité -Construire et exécuter un plan de test détaillé pour les règles de détection développées et le Playbook de réponse. -Coordonner et gérer le transfert technique et les critères d'acceptation des utilisateurs pour passer à la production/au fonctionnement normal.
Offre d'emploi
Développeur - Ansible
Nous recherchons un Développeur d'outils d'automatisation pour rejoindre notre équipe technique. En tant que membre clé de notre équipe, vous serez responsable de la conception, du développement et de la mise en place de solutions d'automatisation à travers des outils comme Ansible. Vous interviendrez sur l'ensemble du cycle de vie des projets d'automatisation, depuis l'analyse des besoins jusqu'à la mise en production. Missions : Concevoir et développer des solutions d'automatisation pour améliorer l'efficacité des processus internes. Rédiger, tester et maintenir des playbooks Ansible pour l'automatisation des tâches courantes. Participer à l'intégration des outils d'automatisation dans l'infrastructure existante. Identifier et résoudre les problèmes d'automatisation tout en assurant la stabilité du système. Travailler en collaboration avec les équipes DevOps et Infrastructure pour intégrer des solutions d'automatisation dans les pipelines de CI/CD. Analyser les besoins des utilisateurs et définir les spécifications techniques des outils à développer. Assurer le suivi et l'évolution des solutions d'automatisation en fonction des retours utilisateurs. Garantir la documentation technique des outils et des processus d'automatisation. Participer à l'amélioration continue des processus d'automatisation et de l'architecture d'infrastructure.

Offre d'emploi
Expert Dynatrace Observability
Contexte: Dans le cadre de la transformation numérique et de l'amélioration continue des services IT, une banque de renom recherche un Expert Dynatrace pour renforcer la supervision de la performance de ses applications critiques. Vous jouerez un rôle clé dans l’optimisation des performances, la mise en place d’une observabilité avancée et l’automatisation des processus de monitoring, garantissant ainsi une expérience client irréprochable. Responsabilités : - Concevoir, mettre en œuvre et maintenir des solutions de surveillance basées sur Dynatrace pour garantir des performances optimales des applications et des infrastructures; - Personnaliser et développer des tableaux de bord Grafana pour une visualisation efficace des métriques et des données collectées par les systèmes de surveillance; - Gérer et maintenir les environnements ELK pour l'analyse des journaux; - Garantir la disponibilité et la performance continue des systèmes; - Participer à l'automatisation des processus de surveillance et d'administration pour assurer l'efficacité opérationnelle; - Fournir un support technique aux équipes internes et résoudre les problèmes liés à l'observabilité.

Mission freelance
DevOps JAVA
Intégration d'une équipe Agile Scrum en charge de la conception, du développement et de la maintenance d'une plateforme de big data. Cette plateforme s'appuie sur des technologies de pointe et des services managés Azure, en suivant une architecture de type Data Mesh. Son objectif principal est de fournir aux équipes et utilisateurs des fonctionnalités essentielles pour faciliter et industrialiser les projets de data science, notamment : Des données anonymisées prêtes à l'emploi. Des capacités de requêtes. Des environnements de data science. La gestion de modèles. Des boucles de rétroaction vers les systèmes opérationnels. Cette plateforme héberge également toutes les charges de travail analytiques, en mode batch ou streaming, en prenant en charge de nouveaux cas d'usage ou en permettant la migration des applications des centres de données privés vers Azure.

Mission freelance
Data Engineer AWS
TEKsystems recherche pour l'un des clients grands comptes un Data Engineer AWS: Contexte du Projet: Équipe actuelle : 1 Architecte, 4 Data Engineers Objectif : Migration et POC sur AWS Tâches Principales Communication : À l'aise à l'oral et à l'écrit Rédaction des comptes rendus Gestion des Données : Faire tourner la DATA sur un environnement AWS Modifier et configurer les environnements existants (Hadoop) Collecte et extraction de données Migration et Déploiement : Migration des données vers AWS Passage sur Kubernetes Nexus (fin 2023) Déploiement du premier POC avec Terraform Échantillonnage des données (actuellement sur HDFS) Support et Collaboration : Accompagner l'architecte dans la mise en place et le cadrage du projet Identifier les services nécessaires, paramétrer et déployer Communication avec les métiers et les architectes Compétences Requises Excellentes compétences en communication (oral et écrit) Expérience avec AWS, Hadoop, Kubernetes, Nexus, Terraform Capacité à rédiger des comptes rendus clairs et concis Compétences en collecte et extraction de données

Mission freelance
DevOps Infrastructure Data – AWS & Azure
nous recherchons un Ingénieur DevOps spécialisé en infrastructure autour de la data , avec une expertise sur AWS et Azure . Vous interviendrez sur des projets Build et Run , en charge du déploiement et de l’optimisation des infrastructures cloud. Missions Déploiement et gestion des infrastructures cloud sur AWS (S3, Lambda, ECS) et Azure (Data Lake Gen2, Azure App Service). Mise en place et maintenance d’Infrastructure as Code Développement et optimisation des pipelines CI/CD Intégration d’outils Data (Databricks, Data Catalog…). Suivi des performances et amélioration continue des infrastructures. Stack technique ✅ AWS & Azure, Terraform, GitHub Actions, Databricks, ...

Mission freelance
Ingénieur DevOps
Dans un environnement dynamique, vous évoluerez au sein d’une équipe de 14 personnes (DevOps / Tech Lead / Qualité / Développeurs/ Ingénieur IA / Alternants), vous jouerez une rôle clé dans l’amélioration continue des processus de développement et d’exploitation des infrastructures : Automatisation des déploiements : Développer des pipelines CI/CD pour automatiser le déploiement des applications sur les environnements de production. Gestion des environnements cloud : Superviser et optimiser les infrastructures cloud (AWS, Azure, Google Cloud). Supervision et monitoring : Mettre en place des outils de monitoring pour garantir la disponibilité, la performance et la sécurité des systèmes. Infrastructure as Code (IaC) : Mettre en place et maintenir des infrastructures via des outils comme Terraform, Ansible, Puppet, ou Chef. Gestion des incidents : Identifier, diagnostiquer et résoudre les incidents liés aux environnements de production. Pourquoi rejoindre cette mission ? - Environnement de travail stimulant avec des projets variés et innovants. - Possibilité de télétravail partiel après 3 mois. - Formations régulières sur les dernières technologies et tendances DevOps.
Offre d'emploi
Ingénieur.e cloud DevOps AWS expérimenté.e - LYON
Nous recherchons un.e ingénieur Cloud DevOps AWS expérimenté.e avec minimum 5 ans d'expérience pour rejoindre les équipes de notre client à Lyon. En tant qu'expert.e DevOps, vous serez responsable de la conception, de la mise en œuvre et de l’optimisation des infrastructures Cloud sur AWS, en collaboration avec les équipes de développement et d'exploitation pour garantir la disponibilité et la performance des applications. Missions principales : Concevoir, mettre en place et maintenir des infrastructures Cloud performantes et scalables sur AWS. Automatiser les processus de déploiement, de gestion et de surveillance des applications en suivant les meilleures pratiques DevOps. Participer à la gestion des environnements de production et de pré-production, en assurant la haute disponibilité, la sécurité et la performance des systèmes. Collaborer étroitement avec les équipes de développement pour intégrer des pipelines CI/CD robustes et performants. Surveiller les ressources Cloud et optimiser leur utilisation pour améliorer les performances tout en contrôlant les coûts. Déployer et gérer des services de conteneurisation (Docker, Kubernetes). Automatiser la gestion des configurations avec des outils tels que Terraform, Ansible ou CloudFormation. Fournir des analyses et des recommandations pour améliorer continuellement les processus DevOps.

Mission freelance
Développeur Python (Kubernetes - Databricks - Terraform - Cloud)
Missions Développer et optimiser les flux de données et pipelines sur Databricks . Implémenter et gérer des solutions basées sur Kubernetes , en particulier autour de Colibra . Participer à la migration des outils SaaS en s’assurant de leur intégration dans l’écosystème du client. Automatiser les déploiements et la gestion de l’infrastructure avec Terraform . Travailler en collaboration avec les équipes Cloud et Data pour garantir la scalabilité et la performance du Data Lake sur Azure et AWS . Assurer la sécurité et la gouvernance des données dans l’environnement Cloud. Compétences Techniques Requises Python ( maîtrise exigée ) Cloud : AWS & Azure (expérience confirmée) Kubernetes (expérience avancée) Databricks (maîtrise exigée) Terraform (maîtrise exigée)

Mission freelance
Architecte cybersécurité Cloud (AWS ou GCP)
Contexte : Le Security Champion accompagne les équipes projets SI dans la sécurisation des solutions et le suivi des mesures de sécurité tout au long du cycle de vie des projets, du BUILD au RUN. Missions Principales : Accompagnement des équipes projets SI : Guider les équipes dans la sécurisation des solutions et produits. Conseiller sur les bonnes pratiques de sécurité dès les premières phases du projet. Analyse des risques et conception de l'architecture : Participer à l’analyse des risques et proposer des mesures de mitigation. Intégrer les exigences de sécurité dans la conception des solutions. Suivi du backlog de sécurisation : Maintenir à jour le backlog Cyber et s’assurer de l’application des mesures de sécurité. Accompagnement dans l’outillage de sécurité : Support dans l’utilisation des outils de sécurité (SAST, CA, etc.) pour détecter et résoudre les vulnérabilités. Gestion des mesures techniques : Analyser et suivre l'impact des mesures de sécurité mises en place. Intervention sur le RUN : Assurer la sécurité des applications en production et répondre aux incidents de sécurité, notamment sur le Cloud (AWS ou GCP). Sensibilisation à la cybersécurité : Promouvoir une culture de sécurité et encourager l’adoption des bonnes pratiques. Intégration au sein des équipes projets : Collaborer avec les Product Owners, DevOps, RSSI et les équipes audit pour garantir la sécurité des projets. Collaboration et coordination : Assurer la communication avec les autres équipes pour maintenir un haut niveau de sécurité, en particulier pour les projets déployés sur AWS ou GCP

Mission freelance
Expert Cyber Sécurité (H/F)
WheelOfWork recherche pour son client, un Expert Cyber Sécurité pour une mission basée dans les Hauts-de-France. Les principales missions seront : - Travailler sur l’optimisation et l’amélioration de la supervision de la cyber-sécurité de nos infrastructures, identités et process avec notre SOC externe (géré par Orange Cyber Defense) - Travailler sur les vulnérabilités de nos infrastructures, endpoints et identités, faire l’analyse de risque et proposer et suites les plans d’actions permettant de réduire ces risques. Dans ce cadre, la mise en place d’outils (opensource, scripts...), de process et de routines est attendue. - Travailler sur la sécurité de notre plateformes Cloud (Azure et AWS) : analyser et améliorer la posture Sécurité de celles ci - Travailler sur l’amélioration continue de notre note cybersécurité (DMARC/DKIM/SPF, External visibility, ORADAD, PingCastle/PurpleNight...) - Travailler sur la réponse à incident (crise), détailler et documenter les étapes essentielles aux différents cas d’attaques (Phishing, Data Leak, D-Dos...) afin que les équipes Cyber soient prêtes à réagir - Travailler sur la mise en conformité NIS2 : analyser le GAP, estimer les couts humains et financiers nécessaires au plan d’action, implémenter les actions « quick win » - Travailler sur la mise en place de nouveaux KPI & KRI afin d’alimenter de nouveaux dashboards - Travailler sur l’automatisation des process existants, implémenter de nouveaux process et leur automatisation - Travailler sur les projets d’intégrations (M&A) et soutenir les équipes impliquées sur ces projets - Former les collaborateurs internes sur les nouvelles technologies

Mission freelance
Data Engineer
Principales responsabilités : Prendre en charge les aspects techniques de la gestion des données et de l'optimisation du pipeline de données. Collaborer directement avec les équipes commerciales pour comprendre leurs besoins et fournir des solutions efficaces. Utiliser Dataiku pour concevoir et améliorer les flux de données. Créer et déployer des rapports analytiques avancés à l'aide de Power BI. Structurer et optimiser les flux de données au sein de Dataiku tout en livrant des visualisations pertinentes via Power BI.

Mission freelance
Expert Data & IA sénior
Nous sommes à la recherche d'un expert Data & IA sénior (10 ans d'XP minimum) maitrisant des écosystèmes, des solutions et des patterns Data & IA. Ayant à minima 1 expérience réussi en Lean Portfolio Management et une réelle expertise technique de gestion et priorisation de portefeuille de projets Data (Usage & capabilities / 5 ans au minimum) Maitrise des techniques de conduite du changement dans un contexte Data & IA (5 ans minimum) Maitrise des outils de gestion du projet et des outils collaboratifs : Jira, Confluence, Excel, PowerBI, Miro Expérience minimum d’au moins 2 réalisations et conduites de programme d’envergure et de déploiement de méthode, à l’échelle d’un grand groupe Expérience dans la conception et le déploiement d’au moins un plan de conduite de changement à l’échelle d’un grand groupe Expérience confirmée dans la gestion transversale de dossiers stratégiques Rapport de l’état des pratiques internes Data, Dossier de synthèse des propositions de recommandations court/moyen terme, enrichies par un benchmark externe dans les environnements Data Structure du portefeuille des projets Data enrichi des données nécessaires au suivi ‘haut niveau » et règles de mise à jour et de maintien en qualité Diagnostic des pratiques internes Data, Benchmark externe dans les environnements Data & IA (3 à 4 organisations, dont au moins 1 faisant référence) Dossier de recommandations court/moyen terme et conditions de mise en œuvre Bilan d’un test sur un périmètre à déterminer Métadonnées du portefeuille permettant le suivi haut niveau et description des modalités opérationnelles de suivi Plan culture Data décliné par entité : roadmap des formations à concevoir et à déployer, vision consolidée du déploiement, Référentiels des KPI de suivi de la transformation Un rapport de fin de mission contenant, entre autres : la démarche générale, les livrables réalisés, les points soulevés et non traités
Offre d'emploi
Ingénieur Data expérimenté
Bonjour, Nous recherchons des talents passionnés pour renforcer notre équipe Data. En tant qu’Ingénieur(e) Data, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions robustes pour traiter et analyser de grands volumes de données. Vos missions principales : Développer, optimiser et automatiser des pipelines ETL/ELT. Concevoir des architectures Big Data performantes et évolutives. Implémenter des solutions de stockage, de traitement et de modélisation des données. Assurer la qualité, la sécurité et la gouvernance des données. Collaborer étroitement avec les Data Scientists, les Analystes et les équipes DevOps.

Offre d'emploi
Data Analyst Senior (F/H)
DSI Group recherche actuellement un Data Analyst Senior, pour l'un de ses clients basé à Paris. Vous serez en charge du développement d’outils permettant de mesurer et d’optimiser l’empreinte carbone IT. Vos missions : Développer des outils et scripts pour analyser les données d'infrastructure informatique (issues de CMDB et autres outils) ; Concevoir et maintenir des procédures stockées SQL Server, ainsi que des outils de restitution (Angular, Power BI, etc.) ; Assurer le support technique et fonctionnel des solutions mises en place ; Rédiger des dossiers de spécifications et des cahiers de recette afin de garantir la qualité et la pérennité des outils développés ; Participer à l’optimisation et l’industrialisation des procédés analytiques pour une meilleure exploitation des données ; Contribuer à l’automatisation des recommandations de réduction d’empreinte carbone IT ; Travailler en collaboration avec le management pour fournir des analyses pertinentes et aider à la prise de décision.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.