Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Consultant Data Gouvernance - Chefferie de Projet
Au sein de notre Data Fabric, Nous recherchons un Consultant Data Gouvernance orienté Chefferie de projet. Un profil Smart ayant un vernis technique et une réelle expertise en Gouvernance de données (3 ans d'XP minimum). Environnement : Data Catalog / Data Galaxy / Collibra / Le poste est en rythme Hybride. Des déplacements en Allemagne sont à prévoir (prise en charge par l'entreprise) Contexte : Gestion et mise en gouvernance des données d'une plateforme Data Définition,mise en œuvre et gestion du Cadre de Gouvernance des données Gestion & Chefferie de projet des sujets de Gouvernance Accompagnement des Uses Cases Data pour la définition d'architecture (Data Mesh) Identification, modélisation et documentation des Data-as-a-products Animation et contribution des données Catalogage et taggage des donnée Accompagnement pour la prise en main des différents outils de Data Gouvernance par l'ensemble des équipes Participation aux cadrages des fonctionnalités techniques relatives au Data Gouvernance & Management Conception de solutions de Gouvernance Formalisation d’une méthodologie de catalogage des données Construction d’un modèle de métadonnées (métamodèle) sur-mesure Définition des indicateurs de suivi de l’implémentation du Cadre de Gouvernance des données Développement d’un tableau de bord de pilotage Elaboration d’un plan de communication sur le Cadre de Gouvernance des données et proposition de supports de communication adaptés pour chacune des cibles retenues (métiers, IT et Data).
Mission freelance
Ingénieur Détection Sécurité (UCD)
Ingénieur Détection Sécurité Paris (17) – Sur Site 2 Jours par Semaine Contrat Initial : Jusqu'au 31/12/24 TJM : 450-750€ Détails du client Notre client est l'un des plus grands groupes d'assurance d'Europe qui recherche un ingénieur en détection de sécurité pour rejoindre son programme de cyberdéfense. L'objectif du programme est de moderniser la façon dont ils traitent les cybermenaces et de contribuer à la conception et à la mise en œuvre de solutions SOC pour améliorer la détection et la réponse en matière de sécurité. Glocomms travaille avec ce client depuis 3 ans et a placé plus de 30 consultants dans ses projets. Détails du poste En tant qu'ingénieur de détection au sein du SOC, vous serez responsable du développement et du maintien des capacités de détection qui protègent notre organisation contre un large éventail de cybermenaces. Vous travaillerez en étroite collaboration avec le directeur principal de l'ingénierie de détection et collaborerez avec d'autres équipes SOC, y compris la détection des incidents, les renseignements sur les menaces, la recherche des menaces et la réponse aux incidents, pour garantir que nos stratégies de détection sont robustes et efficaces. Votre objectif principal sera de concevoir, de mettre en œuvre et d'affiner les cas d'utilisation de détection et les règles d'analyse sur diverses plateformes de sécurité (Azure Data eXplorer, Sentinel, Cyber Reason...). Responsabilités principales Concevoir et mettre en œuvre une logique de détection pour identifier les cybermenaces dans les environnements réseau, terminaux et cloud, garantissant ainsi une couverture complète des vecteurs d'attaque potentiels. Utiliser des techniques d'analyse de journaux, de reconnaissance de formes et de détection d'anomalies pour identifier et répondre efficacement aux incidents de sécurité. Développer des règles de détection personnalisées et des scripts d'automatisation à l'aide de langages de script (par exemple, Python, PowerShell) et de langages de requête d'analyse tels que KQL pour améliorer les capacités de détection du SOC. Appliquer de solides compétences d'analyse et de résolution de problèmes pour évaluer de manière critique et optimiser les mécanismes de détection, en minimisant les faux positifs et en améliorant la précision de la détection. Communiquer et collaborer efficacement avec les équipes mondiales pour assurer le déploiement et l'optimisation réussis des mécanismes de détection dans divers environnements. Démontrer de la motivation personnelle et la capacité de travailler de manière indépendante ou en équipe dans un environnement dynamique et en évolution rapide. S'engager à apprendre continuellement et à se tenir au courant des dernières tendances et développements en matière de cybersécurité afin d'améliorer continuellement les capacités de détection et de réponse. Maîtrise de l'anglais et solides compétences en communication verbale et écrite pour transmettre efficacement des concepts et des conclusions techniques complexes
Mission freelance
Expert Kafka (Streams, Connect, ...) - Lausanne (Relocalisation obligatoire) / Nationalité UE
Assurer la gestion et l'évolution de notre plateforme Kafka en fonction des besoins des applications Contribuer à la résolution des incidents et des problèmes liés à Kafka ; Travailler en étroite collaboration avec les équipes de développement, infrastructure et architecture ; Apporter une expertise technique sur l’architecture et veiller au respect des bonnes pratiques au sein des équipes ; Former et soutenir les équipes internes ; Environnement on-premise et cloud azure ;
Mission freelance
Tech Lead Confirmé – Azure Factory (Nantes ou Paris)
Description de la mission : Dans le cadre d'un projet stratégique au sein d'une organisation en pleine transformation numérique, nous recherchons un Tech Lead Confirmé pour prendre en charge la direction technique de notre Azure Factory . Vous serez responsable de l'architecture, de la mise en œuvre et de l'optimisation des processus de développement dans un environnement cloud. Votre mission consistera à : Piloter les équipes techniques dans la conception et la réalisation des solutions basées sur Azure Data Factory . Garantir la qualité des livrables et respecter les délais tout en supervisant les bonnes pratiques de développement. Collaborer étroitement avec les différentes parties prenantes, incluant les équipes métiers, pour comprendre leurs besoins et transformer ces derniers en solutions techniques performantes. Être le référent technique sur l'ensemble des sujets liés à l'intégration et l'exploitation des données dans le cloud Azure. Accompagner l'équipe dans le développement des compétences autour des technologies Azure, avec une forte emphase sur Azure Data Factory . Contribuer à l'amélioration continue des processus de développement, de déploiement et de monitoring des applications.
Offre d'emploi
Data Engineer Sénior
Missions: · Développement Scala/Spark · Maîtrise de l’environnement technique (AWS Databricks, AWS S3) · Expériences sur la Qualité logicielle (revue de code ; conformité aux critères de qualité SONAR, tests automatisés) · La connaissance de Power BI (Azure) est un plus -Les compétences fonctionnelles attendues sont les suivantes : · Méthode Agile · Expérience sur des projets de technologies similaires · Connaissance du domaine Data · Expérience de travail sur des projets en équipe, (notamment savoir solliciter son écosystème au bon moment)
Offre d'emploi
Ingénieur SysOps AWS
Contexte de la mission : La prestation d’expertise Cloud Public intègrera la DevTeam AWS de la Squad Cloud Public du client et prendra en charge des features Build dans le backlog qui pourront être soit orientées métier soit orientées infra et participera aussi aux actions liées au Run. Tâches à réaliser : · Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’application métier · Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements AWS · Assurer la généricité de ces pipelines · Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions · Garantir la sécurité ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement · Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections · Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud · Ouvrir et suivre des incidents chez l’infogérant Cloud Public en cohérence avec les processus ITIL du client
Mission freelance
Lead DevOps, Lille
Missions principales : Collaborer étroitement avec les équipes de développement logiciel afin de comprendre leurs besoins en infrastructure et les accompagner dans l'intégration sur nos systèmes. Concevoir, implémenter et maintenir des pipelines CI/CD performants pour automatiser le déploiement, les tests, et la livraison des applications. Automatiser les processus d'infrastructure et de déploiement pour assurer la scalabilité et la haute disponibilité de nos solutions. Gérer et surveiller les infrastructures cloud ainsi que les environnements de production afin de garantir des performances optimales et une disponibilité continue. Identifier et résoudre rapidement les problématiques liées à l'infrastructure et aux déploiements pour réduire les interruptions et accroître la fiabilité des services. Collaborer étroitement avec les équipes de sécurité pour assurer la conformité et protéger nos systèmes. Participer aux opérations en vue de l'industrialisation et de l'optimisation des infrastructures.
Mission freelance
Ingénieur Réseau
Rattachement hiérarchique : Responsable Réseaux et Télécoms Principales responsabilités 1. Activité de BUILD : environ 30% de l’activité a. Évolution de l’infrastructure ou mise à disposition de nouveau service en fonction des besoins métiers. b. Montée de version logicielle, patch management c. Remplacement de matériel dans le cadre de la gestion de l’obsolescence d. Mise en conformité des règles firewall e. Raccordement de nouveaux partenaires 2. Activité de RUN : environ 50 % de l’activité a. Administration des équipements de sécurité firewall (FortiGate) b. Administration des équipements réseau des sites PVCP (HPE Aruba ) c. Administration des équipements réseau du siège (Juniper) d. Administration Remote Access (Netskope) e. Administration réseaux Cloud (Azure, GCP) f. Administration Load Balancer (FortiADC, F5) et DNS DHCP (Infoblox) 3. Activité de SUPPORT : environ 20% de l’activité a. Support N2 sur les différents composants d’infrastructure sous sa responsabilité b. Support N3 dans la résolution d’incident sur les applications ou les services d’infrastructure réseaux c. Ouverture et suivi des cases auprès des services supports éditeurs Environnement technique riche : LAN, MAN, Sécurité (FW, WAF,) VPN, Cloud, automatisation, HP, Fortinet, GIT, F5, SDWAN, etc.
Offre d'emploi
Ingénieur réseau Cloud AWS
CLOUD AWS - Confirmé - Impératif Ansible, Terraform, PowerShell, shell… - Confirmé - Important Réseaux et Télécom (Backbox, PRTG - Confirmé - Impératif sécurité (Checkpoint et Juniper) - Confirmé - Impératif Connaissances linguistiques : Français Courant (Impératif) ANGLAIS Notions (Secondaire) Description détaillée Rôle : Ingénieur Réseau Cloud - Construire une landing zone sur AWS en s’inspirant de ce qui a été fait sur Azure - Concevoir, déployer et maintenir en conditions opérationnelles les infrastructures réseaux ; - Assurer le support niveau 3 et la veille technologique, être le garant de la disponibilité des infrastructures Réseaux ; - Automatiser et optimiser les processus en synergie avec les équipes de production ; Compétences : Solide expérience sur AWS (Azure serait un plus) Bon niveau techniques dans les domaines suivants : Administration des équipements de sécurité, Industrialisation (Terraform et Ansible serait un plus) et Administration des outils Réseaux et Télécom Localisation : Lyon ou Paris Durée : de décembre jusqu’à fin juin minimum
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Mission freelance
Chef.fe de projet Cloud Azure - Groupe hospitalier - Paris (H/F)
Nous sommes à recherche d'un.e chef.fe de projet Azure. Le rôle la chef.fe de projet Azure est d’organiser et de réaliser, en collaboration avec les différentes parties prenantes (équipes métiers, équipes IT établissements, éditeurs de solution, correspondants métiers) les migrations vers le Cloud Azure des applications éligibles (applications RH, finance, etc.) 🔦 Missions Traiter des sujets métiers, RH, achat sujets financiers, maitrise d’ouvrage Cadrer et planifier les migrations applicatives vers le Cloud Azure Organiser et rendre compte des indicateurs clés d’avancement : Qualité, coûts et délais. Piloter le budget des projets Cloud : construction des budgets, suivi des engagements financiers, atterrissage budgétaire Maîtriser les risques et développer des plans de réponses adaptés aux objectifs de chaque projet Faciliter la mise en production des livraisons de chaque projet et le transfert des connaissances indispensables aux équipes de production Assurer une communication fluide avec l’ensemble des parties prenantes Etre force de proposition dans le cadre d’un processus d’amélioration continue au sein de la DSI
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Mission freelance
Manager de Transition Domaine Active Directory - Azure AD
Manager de Transition Domain Management MCO de la partie Active Directory • Management des ressources nécessaires ou participation à la résolution des incidents et demandes liés à la gestion des de Niveau 3 liés aux droits d'accès. • Participation à la MCO des outils d'administration des solutions d'Active Directory et Azure AD. Management • Reporting et suivi des activités Domain Management (Connaissance d'outils comme PowerBI est un plus). • Manage une équipe de 8 personnes. • Participe et représente son équipe aux réunions de Service Digital Opérations • Anime les réunions de communication / coordination avec les IT régionaux présents dans le monde entier. Gestion des projets : • Coordonne la gestion des projets de l'équipe : o Participe activement au projet de mise en place d'un outil de CIAM et IAM o Planification en lien avec les chefs de projet o Gestion de la ressource de l'équipe des investissements nécessaires
Mission freelance
Longue Mission - Développeur Node Angular
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, angular, mongo, postgre, kafka, bucket S3,
Mission freelance
Senior Data Scientist/ Scientifique de données senior
Collecter, traiter et analyser de grands ensembles de données pour extraire des informations exploitables Concevoir, créer, mettre en œuvre, tester et maintenir des solutions basées sur les données conformément aux exigences commerciales et aux normes du secteur Surveiller les performances des données et modifier l'infrastructure selon les besoins pour améliorer les pipelines et les modèles existants Travailler au sein d'une équipe collaborative et interfonctionnelle, partager des informations, valoriser des idées diverses et collaborer efficacement avec des collègues du monde entier Améliorer continuellement les modèles et les algorithmes en fonction des commentaires et des nouvelles données Se tenir au courant des dernières techniques, outils et meilleures pratiques en matière de science des données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.