Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Offre d'emploi
Data Engineer DWH GCP
DÉBUT DE MISSION : ASAP DURÉE : 12 mois LIEU : Noisy-Le-Grand – Travail hybride CATÉGORIE TECHNIQUE : Systèmes (Infras, Cloud, DevOps, ...), Réseaux, Sécurité Nous recherchons pour l’un de nos clients grands comptes un Data Engineer DWH GCP expérimenté, pour contribuer à un projet de transformation IT ambitieux. Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet stratégique de migration du Data Warehouse France On-Premise (Oracle – PL/SQL) vers la Google Cloud Platform (Big Query). Ce projet inclut : L’utilisation de Dataform , Cloud Functions , et Cloud Run . La migration des données et processus existants, incluant un ETL développé en interne et certains programmes en Natural (éditeur SAG) . Vos missions principales : Participer à la migration du Data Warehouse vers Big Query sur GCP. Développer et optimiser des scripts en PL/SQL et Python pour les processus de transformation des données. Collaborer sur la conception et l’intégration des pipelines de données via les outils GCP. Analyser et réaliser des tests unitaires, d’intégration et de non-régression . Documenter les processus et assurer un transfert de compétences aux équipes. Participer activement aux rituels Agiles et utiliser Jira pour la gestion des tickets. Analyser les résultats des tests via des outils internes et ajuster les développements en conséquence. Créer et utiliser des scripts Linux KSH pour les opérations nécessaires. Profil recherché : Expérience : Minimum 8 ans dans un rôle similaire. Compétences techniques : Langages : PL/SQL (Confirmé), Python (Confirmé). Bases de données : Oracle et Big Query (Confirmé). Connaissance des outils GCP, y compris Dataform , Cloud Functions , Cloud Run . Familiarité avec des outils de Data Visualisation tels que Looker , SAP BO , ou Spotfire . Expérience en tests logiciels et outils de ticketing comme Jira . Bonne connaissance des environnements Linux et scripting KSH . Qualités personnelles : Capacité à travailler en équipe et dans un environnement Agile. Sens de l’analyse et autonomie dans l’exécution des tâches. Adaptabilité et capacité à gérer des environnements techniques complexes.

Offre d'emploi
Data Engineer Dev BI/Data
Nous recherchons un(e) développeur BI (Data Engineer) avec des expériences significatives sur des projets stratégiques liés à l’évolution, la modernisation et l’optimisation d’un système d’information. Le Data Engineer est un acteur clé dans la mise en œuvre et la coordination des différentes initiatives de gestion des données, en assurant le lien entre les équipes métiers et IT Le Data Engineer est chargé(e) d'analyser les processus de gestion des données existants, d'identifier les opportunités d'amélioration et de mettre en œuvre des solutions innovantes pour optimiser les opérations de données et répondre aux besoins spécifiques. Le Data Engineer sera intégré au pôle Management & Support dans l’équipe Data. L’équipe est constituée d’une Responsable Data, 3 data engineer. Dans ce cadre, le Data Engineer devra rendre compte à la Responsable Data.

Mission freelance
Software Engineer IA & Computer Vision | Casablanca 100% Remote
Dans le cadre de l'industrialisation de modèles d'intelligence artificielle basés sur des techniques de computer vision , vous serez intégré(e) au service Data Science pour contribuer à la mise en place et à l’optimisation des pipelines de données et des workflows IA. Vos responsabilités Collaborer avec l’équipe Data Science pour déployer et maintenir des modèles d’IA en production. Concevoir, développer et optimiser des pipelines de données avec Apache Airflow pour garantir une gestion efficace des workflows. Mettre en place des infrastructures cloud sur Google Cloud Platform (GCP) , en utilisant des outils comme Docker et Kubernetes pour une gestion scalable et robuste des environnements. Intégrer les meilleures pratiques DevOps/DataOps (CI/CD, monitoring, automatisation) dans les projets IA. Garantir l’intégration des modèles basés sur des bibliothèques de data science et computer vision dans des systèmes opérationnels. Participer à l’amélioration continue des process d’industrialisation des modèles IA. Environnement technique Outils et technologies : Docker, Kubernetes (expertise requise), Airflow, Git. Cloud : Google Cloud Platform (GCP). Domaines d'application : Intelligence artificielle, Computer Vision, Data Science. Langages et bibliothèques : Python (librairies data science comme TensorFlow, PyTorch, OpenCV, etc.).

Mission freelance
Devops GCP
Au sein des équipes opérationnelles, la mission de devops consiste à - assurer l'intégration continue des solutions développées - maintenir les plateformes - Suivre le monitoring de la plateforme - Implémenter des évolutions sur les scripts de fichiers sources de l'usine logicielle (script de packaging/paramétrage, job de build / livraison). - Implémenter les outillages et procédures de répétitions (ex: backup, automatisation, test de paramétrage). - Supporter des équipes de développements et de recette sur les activités de BUILD et de RUN. Le poste requiert des astreintes

Mission freelance
Ingénieur Réseaux Hybrides/ Devops (aws, gcp, cisco et palo alto)
Nous recherchons pour notre client, un grand média, un(e) ingénieur(e) DevOps, expert en réseaux hybrides (Cisco, PaltoAlto, AWS et GCP). Notre client recherche un candidat sénior avec de fortes compétences techniques sur ses environnements "réseaux hybrides" pour assurer le support niveau 3 et le MCO dans un contexte réseaux OnPrem et Cloud public (Cisco, PaloAlto, AWS, GCP, Azure...). Le candidat doit être en mesure de maitriser les solutions réseaux hybrides déployées chez le client et maitriser les outils DevOps (Proxmox, Gitlab...) qui sont déployées pour la production et l’exploitation des réseaux hybrides Détail de la prestation : o Maintenir en condition opérationnelle des réseaux hybrides (support niveau 3 pour le MCO). o Supporter l’exploitation (traitement des tickets escaladés). o Analyser et proposer des améliorations continues sur le MCO des réseaux hybrides (niveau 1, niveau 2 et niveau 3). o Assurer des interventions ou des astreintes ponctuelles en HNO. o Concevoir les changements réseaux hybrides rendues nécessaires pour le MCO. o Automatiser les déploiements via les outils France Télévisions. o Transférer la connaissance aux équipes Ingénierie et Support. o Livrables : ▪ Documents de MCO de l'architecture réseaux hybrides ▪ Documents d’automatisation (code source commenté) ▪ Documents d’Exploitation ▪ Cahier de recette des changements

Mission freelance
DevSecOps Engineer
· Gestion de la sécurité Kubernetes : Configurer et maintenir la sécurité des clusters Kubernetes (politiques réseau, secrets, surveillance des activités, etc.). · Développement et optimisation des pipelines CI/CD sécurisés pour automatiser les déploiements et les tests de sécurité. · Pilotage des systèmes de détection et de réponse aux incidents en utilisant des outils tels que Prometheus, Grafana, … · Implémentation des solutions sécurisées pour la gestion des secrets et des accès avec Vault · Conformité des environnements avec les standards de sécurité (ISO 27001, PCI-DSS, RGPD, etc.), en réalisant des audits réguliers et en documentant les processus. · Collaboration avec les équipes de développement et d’infrastructure pour intégrer la sécurité dans chaque étape du cycle de vie des applications. · Analyse et réaction aux incidents de sécurité en mettant en oeuvre des correctifs, et faire des recommandations pour renforcer la résilience. · Formation et sensibilisation des équipes internes aux bonnes pratiques en matière de sécurité, notamment autour de Kubernetes et des conteneurs.

Mission freelance
expert(e) AWS – Reconstruction rapide dans le Cloud/fa
expert(e) AWS – Reconstruction rapide dans le Cloud - Expérimenté avec un minimum de 4 ans d’expériences sur des projets similaires. Localisation Guyancourt (78)/ Télétravail Durée de la mission : 2 ans Projet : Rédiger des procédures et des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des équipes opérationnelles. La maitrise de l’anglais est donc essentielle . Principaux livrables : Continuer les actions d'automatisation et de fiabilisation ; Opérer les revues de code ; Tester et contribuer à la conception de la solution ; Paramétrer, développer et qualifier des solutions applicatives ; Établir l’analyse et les diagnostics pour donner suite aux incidents rencontrés et lancer les actions nécessaires pour que ces incidents ne se reproduisent plus ; Mettre en place, mener ou piloter le déploiement des applications développées ; Rédiger et/ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; Analyser les traitements pour réaliser les études détaillées ou les études d’impact ; Participer à la veille technologique de le l’équipe ; Réaliser des présentations techniques ; Assurer le support technique niveau 3 auprès des développeurs ; Assistance et support technique aux diverses équipes utilisant le Cloud public AWS Compétences requises : Expertise et expérience significative sur Terraform Définition de module Terraform Expertise sur le Cloud public AWS (GCP si possible) Maitrise des outils de déploiements automatisés Pipeline CICD (gitlab-ci, Ansible, AWX, Jenkins etc.), langage de développement Python Connaissance sur les technologies Kubernetes Une expérience de projet type "lift&shift" serait souhaitable. La mission pourrait nécessiter des astreintes et/ou opérations ponctuelles en HNO.

Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Offre d'emploi
Expert Sécurité Opérationnelle
Mission En tant qu'expert en sécurité des opérations en Datacenter, vous participerez à la rédaction et de la mise en place de processus liés à la sécurité des opérations dans nos environnements de Datacenter. Votre objectif principal sera de garantir la conformité aux normes et règles de sécurité du groupe. Il vous sera également demandé de développer des procédures efficaces pour protéger nos infrastructures et nos données sensibles ainsi que les contrôles associés. Rédaction des standards de sécurité : Analyser les normes de sécurité applicables (NIST, ISO…) et les meilleures pratiques en matière de sécurité des opérations en Datacenter. Intégrer et appliquer les procédures de sécurité du groupe BNP Paribas dans la rédaction des standards de sécurité des opérations en datacenter. Mettre à jour ou rédiger les processus et les procédures détaillés pour assurer la sécurité des opérations dans nos environnements de Datacenter tout en intégrant l’applicabilité au niveau international. Collaborer étroitement avec les équipes opérationnelles pour mettre en œuvre les processus de sécurité et s'assurer de leur conformité. Rédaction des contrôles opérationnels : Définir les contrôles de sécurité opérationnelle, de sûreté et de continuité sur la base des standards de sécurité. Tester, ajuster et valider les contrôles de sécurité opérationnelle avant industrialisation. Tester l'efficacité des contrôles et les faire évoluer si nécessaire pour garantir la bonne application des standards tout en intégrant les problématiques opérationnelles remontées par les équipes sur le terrain. En complément : Fournir une expertise technique en matière de sécurité des opérations en Datacenter et conseiller les équipes sur les meilleures pratiques. Participer à la sensibilisation à la sécurité et à la formation des employés sur les procédures de sécurité des opérations en Datacenter. Dans un second temps il pourra vous être demandé d’effectuer des évaluations régulières de la sécurité des opérations et des contrôles en Datacenter et proposer des améliorations. Compétences et qualifications requises Diplôme : Master en Sécurité (ou équivalent) ou CPP (Certified Protection Professional – ASIS). Expérience : Minimum 5 ans dans un rôle similaire, idéalement dans un environnement bancaire ou hautement sécurisé (infrastructures critiques). Solide expérience dans la sécurité des opérations en Datacenter. Excellentes compétences en analyse et en résolution de problèmes. Capacité à rédiger des processus et des procédures claires et concises. (En Anglais comme en Français) Bonnes compétences en communication pour travailler efficacement avec les équipes opérationnelles. Capacité à travailler de manière autonome et à gérer plusieurs tâches simultanément. Certifications : Certification en sécurité de l'information (par exemple : CompTIA Security+, CISSP, CISM) serait un plus.

Mission freelance
Ingénieur réseaux
Le poste à pouvoir se situe à Villeneuve d’Ascq, avec une présence sur site obligatoire à hauteur de 3j par semaine. PS : L'ensemble des compétences recherchées sont obligatoires. Dans ce cadre, le candidat sera amené à intervenir sur les différents périmètres de responsabilité de l’équipe à savoir : Reporting sur la qualité et les coûts pour les principales activités et projets Evolution et fonctionnement des composants et fonctions réseaux : -Escalade de l’exploitation sur les incidents / problèmes -Maintenance en condition opérationnelle Gestion des évolutions -Roadmap des composants ou des services -Gestion de l’obsolescence -Catalogues de services -Projets techniques / Sprints -Amélioration des compétences / évolutions technologiques Industrialisation / Automatisation Contenu non exhaustif de la mission : Rédaction de spécifications techniques détaillées et mise en place des composants réseaux. Accompagnement des utilisateurs techniques et non-techniques Proposition d’évolutions du SI à apporter dans une optique de fiabilité Traiter les incidents et les demandes réseaux et piloter les résolutions en toute autonomie Contribuer à l’élaboration / mise à jour -des architectures techniques et des roadmaps -des guidelines et du catalogue de services -du corpus documentaire -de l’outillage et de la mise en place du socle de base (assets, observabilité, capacityplanning, …) Assurer l’industrialisation des solutions (infra as code) Assurer une veille technologique adaptée des solutions Les Interlocuteurs Équipes IT du département Opérations (Réseau, IaaS/PaaS, DBA, PM, ...) Équipes Projet et les Chefs de Projet, BO/PO/TL Équipes Techniques en BU

Mission freelance
ADMINISTRATEUR SYSTEMES et RESEAUX (F/H)
• Assurer la responsabilité de l’administration des serveurs, du réseau, des comptes et de la messagerie O365 • Assurer la gestion des mises à jour système sur les serveurs • Assurer des actions de maintenance de niveau 3 à la demande du Responsable de la Production Informatique ou de l’équipe Maintenance • Gérer les droits (Active Directory, Windows, …), les stratégies de sécurité en conformité avec la politique de sécurité conduite par le Responsable de la Sécurité des Système d’Information (RSSI) • Gérer l’administration et le bon fonctionnement des EDR, firewall postes clients/serveurs, NDR, etc… • Etre en lien direct avec le SOC et le RSSI sur tous les items Cybersécurités • Gérer l’administration et le bon déroulement des sauvegardes Serveurs, applicatives et fichiers. • L’assistance aux projets informatiques pour l’intégration et la mise en production, l’adaptation des infrastructures aux besoins des projets et le suivi de l’exploitation. • La gestion des salles techniques informatiques, de leur maintien en condition opérationnelle, du suivi des contrats d’infogérance • Réaliser des études pour l’amélioration de la fiabilité, des coûts d’utilisation des systèmes informatiques • Assurer une veille technologique • Reporter au responsable de Production Informatique • Assurer des astreintes informatiques • Contexte :170 serveurs, 80 Windows et 90 Linux (dont 150 hébergés) répartis sur 3 sites, 1200 employés, 500 PC (Métropole & DOM-TOM), 500 iPad

Mission freelance
POT8206-Un consultant AirWatch et Lookout sur Orly
Almatek recherche pour l'un de ses clients, Un consultant AirWatch et Lookout sur Orly Livrable : Assurer la gestion, la maintenance et l'opérabilité des plateformes de gestion des appareils mobiles (MDM). Il participe à l'intégration de nouvelles fonctionnalités et réalise une veille technique. Ci-dessous la liste des taches à réaliser au quotidien : •Concevoir et maintenir les plateformes AirWatch et Lookout. •Administrer les outils de gestion de parc (MDM). •Assurer la gestion des montées de version des systèmes. •Rédiger des documents techniques et des procédures. •Participer aux projets d'intégration de nouvelles fonctionnalités. •Effectuer une veille technique sur les solutions innovantes. Compétences requises : •Expérience avec AirWatch et Lookout (MDM). •Rédaction de documents techniques et partage de connaissances. •Autonomie, rigueur, travail en équipe.
Offre d'emploi
Ingénieur SYSOPS H/F
Groupe SYD IM. SYD accompagne votre transformation continue et vous permet de prendre l’ampleur qui est la vôtre. Donnons du sens à vos initiatives digitales, embarquons chacun à vos côtés. Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur SYSOPS H/F Sysops / Ingenieur Systeme /Cloud Engineer Principales technologies: Windows linux cloud gcp terraform python ansible vmware Poste à pourvoir ASAP Nous sommes ouverts à tous types de contrats: Free lance/Portage salarial/CDI... Rejoignez-nous!!
Offre d'emploi
Data Engineer - AKS
Dans le cadre d'un projet majeur de transformation digitale pour notre client, nous recherchons un(e) Data Engineer Senior pour renforcer ses équipes pendant 12 mois. Ce projet s'inscrit au cœur de la révolution numérique du client, où la data et le digital sont placés au centre de la stratégie. Votre mission : Intégré(e) à l'équipe data de notre client, vous contribuerez à : Concevoir et développer des pipelines de données robustes pour des projets de machine learning Optimiser les architectures de traitement de données existantes Participer aux revues de code et au développement des bonnes pratiques Collaborer avec une équipe d'experts (data scientists, engineers, devops) Assurer l'intégration de nouvelles sources de données Garantir la qualité technique des solutions déployées

Mission freelance
Expert système d'exploitation réseau telecom
- Gestion des incidents, des problèmes et demandes de services (ITIL) - Pilotage des activités supports (amélioration de la qualité des demandes et de leur traitement) - Mise en place des workflows et arbres de décision pour gestion d’incident Pilotage opérationnel de la prestation avec SPIE / HUBONE (Escalade opérateurs et suivi des tickets) - Mise en place et animation des COFIABs si nécessaire - Cadrage technique et fonctionnel - Rédaction de cahier des charges - Planification des MEVs - Recettes, qualification et déploiement des MEVs - Mise à jour de la documentation. - Information et formation du supports Activités projets : - Contribution projet en tant qu’expert sur son domaine notamment - Conduite des petits projets de son périmètre. - Veille : - Suivi des évolutions produits Activités transverses: - Reporting & mise en place d’indicateurs de suivi du périmètre de téléphonie - Réalisation de la Roadmap technique de son périmètre - Gestion de la planification des activités du périmètre téléphonie. - Gestion de contrat fournisseur
Offre d'emploi
Intégrateur DevOps
Contexte de la mission : Au sein de notre département Product Factory , vous intégrerez une équipe dynamique fonctionnant en mode agile . Votre mission principale sera de participer au développement des produits mis à disposition de nos exploitants et clients, permettant la gestion de leurs applicatifs dans des environnements AWS , GCP , FE et Azure , en particulier sur des clusters Kubernetes . Missions principales : Dans le cadre de votre mission, vous serez responsable des tâches suivantes au sein de la feature team Infrastructure : Gestion du cycle de vie des composants d’infrastructure (tels que Vault , Bastion , Keycloak ) et de leur configuration associée. Prise de lead technique sur l’intégration de la stack d’infrastructure. Prise en compte des contraintes techniques , notamment la performance , l' endurance , la robustesse et l’ exploitabilité des solutions mises en œuvre.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.