Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant Cloud & Sécurité - image OS Windows et Linux Redhat sur Azure/AWS
Mise en œuvre d'un standard d'image OS Windows et Linux Redhat sur Azure et AWS Nous cherchons à mettre en œuvre un standard d'image OS Windows et Linux Redhat au sein des cloud providers Azure et AWS. L’objectif est d’appliquer les meilleures pratiques d’optimisation tout en intégrant les outils de maintenance des cloud providers, tels que SSM et les Agents Azure. Nous souhaitons également intégrer des outils de sécurité, notamment l’agent Crowdstrike et l’application du template CIS Level 1.
Mission freelance
Cloud Security Engineer
Cloud Security Engineer, freelance, 12 mois de contrat, 95% remote Opportunité attrayante pour un(e) Ingénieur(e) Cloud Sécurité chevronné(e) de rejoindre notre client, pure player international de la cyber sécurité, du cloud et de l’IA qui protège des millions de particuliers et de professionnels tous les jours ! Vous rejoindrez une équipe cloud et cyber hautement performante où vous pourrez proposer votre propre vision de la sécurité du cloud ! Principales missions : · Audit des infra cloud existantes, · Préconisations et recommandations, · définition et mise en place de la détection de menaces sur le cloud public et privé, · Amélioration continue de la détection du Soc sur le cloud public (Azure / AWS) et privé, · identification des logs nécessaires, · proposition de nouvelles alertes en fonction des risques et menaces, · production de procédures pour les nouvelles activités et amélioration des procédures existantes, · amélioration continue de la détection du Soc, · sélection de nouveaux logs, amélioration de l’analyse des logs existants, · études de scenarios en rapport avec la matrice des risques sur le cloud public et privé, · Veille technologique. Contexte technique : • Cloud public (AWS ET Azure) et privé • Sécurité du cloud
Offre d'emploi
Software Developer Backend
Finalité du poste Participer à la conception et au développement d’une plateforme de streaming, en apportant des solutions techniques performantes, stables et maintenables. Participer à la réalisation des roadmaps Clients, Produit et Tech. Ceci, dans des environnements Backend. Missions Principales Concevoir et développer des solutions répondant aux besoins fonctionnels et techniques des projets Clients, Produits et/ou Techniques. Assurer le déploiement & le monitoring des développements réalisés. Réaliser des estimations de charges. Partager la revue de code avec le reste de l'équipe. Assurer la maintenance des applicatifs & de la plateforme. Participer à la gestion d’éventuels incidents. Participer aux choix techniques significatifs, tout en étant force de proposition quant aux améliorations de performance des projets. Réaliser des solutions par l’écriture de code performant, monitoré et documenté. Collaborer avec les équipes Ops pour améliorer continuellement la plateforme. Assurer une veille technologique.
Offre d'emploi
Architecte cloud Azure h/f à Lille
Définir l’architecture, la structuration et l’organisation et la normalisation des plateformes cloud Azure. Assurer la gouvernance des plateformes cloud Azure, et à ce titre porter la stratégie de tagging, le modèle d’habilitation, les règles de sécurité avec l’aide de la Direction Cyber Sécurité. Construire et proposer une offre de sauvegarde sécurisée. Assurer la veille technologique. Suivre les évolutions de service Azure. Identifier les services pouvant présenter un intérêt pour nos services et nos clients. Evaluer les preview. Faire évoluer les Landing Zones en fonction des besoins projets. Assurer l’étude et l’intégration des nouveaux services dans nos plateformes cloud Azure. Assurer la relation fournisseur avec les équipes Microsoft. Prend part à la coordination avec les autres équipes travaillant sur le cloud. Participer à la conception et à la réalisation d’outillages, permettant d’automatiser la construction de la landing zone, et la fourniture de ses services annexes ou l’accès en self-service. Porter l‘expertise et participer à l’accompagnement des projets dans leur adoption du Cloud Azure, leurs choix d’architecture ainsi que sur les aspects FinOPS et Numérique Responsable. Contribuer à la rédaction et au maintien à jour des documentations des plateformes cloud. Assurer le support de niveau 4 sur les services cloud. Permettre la coordination avec les services support fournisseur.
Offre d'emploi
Ingénieur Cloud h/f
Analyser le système de stockage des données de l’organisation ; Recueillir les besoins de l’ensemble des utilisateurs en ce qui concerne les données (sécurité et accès) ; Établir le cahier des charges en fonction des différentes observations ; Repérer les appels d’offres intéressants , choisir et négocier avec les fournisseurs pour l’achat ou la location de solutions de stockage, ainsi que pour leur installation ; Gérer la relation client/fournisseur et faire la lien avec la Direction générale ; Effectuer les migrations de données nécessaires vers les solutions de stockage ; Valider tous les aspects techniques du stockage ; Accompagner toutes les parties prenantes dans l’appropriation des nouveaux systèmes (formations, documentation ad hoc…) ; Résoudre les éventuelles pannes ou dysfonctionnements ; S’assurer de la sécurisation des données .
Mission freelance
Mission Administrateur Big Data (Cloudera / Spark / Apache Iceberg )
Nous recherchons un administrateur Big Data senior avec une expertise sur Cloudera, Spark et Apache Iceberg pour intervenir sur une mission de longue durée. Le but de la mission est de participer sur un projet de création d'un Datalake opensource dans un contexte de création d'outils liés à de l'intelligence artificielle. La prestation s'effectuera au sein des équipes d'une vingtaine de personnes(data engineering, data architects). Anglais: Bon niveau requis car une partie des équipes est en Amérique et en Inde. Le datalake s'appuie sur l'offre Cloudera on premise. Dans ce contexte, la prestation consiste à intervenir sur un POC (Proof of concept) en étroite collaboration au sein de d'une équipe d'administrateurs du datalake house. Vous interviendrez sur la mise en oeuvre et la validation des infrastructures des plateformes de données. Dans ce cadre, le prestataire contribuera sur les sujets suivants: -Administration du POC avec Cloudera, NoSQL, Mifi, Apache Iceberg, Kafka... -Participation à des projets de pipelines pour l'ingestion et l'intégration des données à partir des divers sources tout en s'assurant de la qualité et la cohérence des données. -Processus ETL / ELT -Optimisation de la performance
Mission freelance
Mission Développeur Big Data (Cloudera / Spark / Apache Iceberg )
Nous recherchons un développeur Big Data senior avec une expertise sur Cloudera, Spark et Apache Iceberg pour intervenir sur une mission de longue durée. Le but de la mission est de participer sur un projet de création d'un Datalake opensource dans un contexte de création d'outils liés à de l'intelligence artificielle. La prestation s'effectuera au sein des équipes d'une vingtaine de personnes(data engineering, data architects). Anglais: Bon niveau requis car une partie des équipes est en Amérique et en Inde. Le datalake s'appuie sur l'offre Cloudera on premise. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l'administrateur du datalake house et à mettre en oeuvre et à valider l'infrastructure des plateformes de données. Dans ce cadre, le prestataire contribuera et aura la responsabilité des sujets suivants: -Conception et développements du POC avec Cloudera, NoSQL, Mifi, Apache Iceberg, Kafka... -Mise en œuvre des pipelines pour l'ingestion et l'intégration des données à partir des divers sources tout en s'assurant de la qualité et la cohérence des données. -Processus ETL / ELT -Développement et Optimisation des sources ETL et ELT pour soutenir les besoins en datawarehouse -Optimisation de la performance des flux de données et des requetes -Travail en étroite collaboration avec l'administrateur
Mission freelance
Architecte Cloud Data h/f à Lille
Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.
Offre d'emploi
Chef de Projet Move-to-Cloud F/H ▸Energie
1. Stratégie et Planification : Élaborer et mettre en œuvre des stratégies de migration Cloud adaptées aux besoins du client (Cloud-to-Cloud, On-Premise/Datacenter to Cloud). Établir des plannings détaillés de migration, incluant les jalons critiques et les dépendances. Identifier les risques liés à la migration et définir des plans de mitigation. 2. Gestion de la Migration : Superviser et coordonner toutes les étapes des projets de migration : analyse des environnements existants, préparation des environnements Cloud, exécution des migrations, tests de validation. S'assurer de la continuité de service pendant la migration et de la sauvegarde des données critiques (application de la règle 3-2-1 de sauvegarde). Collaborer avec les équipes techniques pour résoudre les problèmes éventuels pendant la migration. 3. Communication et Coordination : Assurer une communication opérationnelle fluide entre les équipes internes, les prestataires et les clients. Présenter l'état d'avancement des projets aux parties prenantes à travers des rapports réguliers. Conduire les réunions de projet et organiser les comités de pilotage. 4. Gestion de la Sauvegarde et Sécurité : Maîtriser les enjeux de sauvegarde et de restauration dans le Cloud, en conformité avec la règle 3-2-1 (3 copies des données, 2 types de supports différents, 1 copie hors site). Assurer la sécurité des données pendant et après la migration.
Offre d'emploi
Data Analyst (H/F)
Les missions d'un Amiltonien : En tant que Data Analyst (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - Technologie : ETL ODI / Sql et PL SQL (Oracle) / Python - Référentiels : JIRA / Service Now - CRM : Salesforce - VBA - Excel
Mission freelance
Expert(e) Cloud Niort
Au sein du département Infrastructure & cloud de la DDSI de notre client, nous recherchons un expert cloud pour travailler sur la mise en place et l'exploitation de nos Landing Zones : AWS GCP & S3NS Azure Vous travaillerez au sein d'une petite équipe soudée et dynamique, dans un contexte de forte accélération Cloud pour accompagner des besoins métiers sur la DATA, l'IA et le numérique en général. Une connaissance de l'écosystèmes DevOPS (Kubernetes, Linux...) et de l'infrastructure en général est un plus pour la mission Objectifs et livrables Expertise et traitement des incidents N3 dans le respect des SLA Participation aux choix d'architecture Acculturation et documentation Automatisation des déploiements (CI/CD; Terraform; Ansible)
Mission freelance
DevOps Senior AWS
Gérer les incidents, problèmes et changements, y compris les incidents critiques à fort impact. Concevoir, créer et gérer les systèmes de release, fusion et promotion de code, ainsi que les workflows CI/CD. Travailler sur des architectures de conteneurs (Docker, Kubernetes). Administrer et supporter les microservices et architectures distribuées. Gérer et administrer des bases de données SQL/NoSQL (MongoDB, MySQL, PostgreSQL, etc.). Maintenir des infrastructures Linux et installer des certificats SSL. Surveiller et supporter les APIs RESTful. Utiliser des outils de gestion de configuration et CI/CD (GIT, Jenkins, Chef, ELK) et des outils d’automatisation (Terraform, AWS CloudFormation). Implémenter des outils de monitoring (Grafana, Prometheus, DataDog). Exploiter les services AWS (EC2, S3, RDS, VPC).
Mission freelance
Expert Hadoop
-Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop -Vérification de la bonne application des normes et des standards -Force de de proposition, étude, analyse et mise en œuvre de solutions pour améliorer l’outillage utilisateurs, optimiser les performances et la résilience du Duster -Etude d’impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop, -Prise en compte de l’écosystème : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheurs/Grafana Expertise Hadoop de niveau 3 : -Configuration du Cluster Cloudera en fonction des besoins identifiés -Optimisation des traitements Support : -Accompagnement des équipes de développement -Assistance auprès des équipes : optimisation des traitements, Prise en main de l’outillage mis à disposition, chargement des données -Transmission de savoir-faire via la rédaction de documentations et transfert de connaissances Savoir être : -Coordination et pilotage des chantiers en collaboration avec les différents services DSI -Autonomie pour la prise en charge des sujets et travail en équipe -Capacité à s’adopter en fonction des différents interlocuteurs
Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F
Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Administrateur COLLIBRA
Résumé Administrateur technique de Collibra Contexte Assurer l'administration technique de Collibra Détails 1 Administrateur Technique Collibra : - Maintenance technique - Scripts maison pour copier les métadonnées de Mega vers Collibra - Mise en place d’API d’Ares et revue d’habilitation - Création des workflows RGDP - - ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes