Trouvez votre prochaine offre d’emploi ou de mission freelance Transmission Control Protocol (TCP) à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
IT Risque officer
🚀 Mission Freelance : Senior IT Security Officer 🚀 Je suis à la recherche d’un Senior IT Security Officer (anglais courant) pour une mission freelance avec un client en Île-de-France. Vous serez chargé d’identifier et de traiter les menaces émergentes en cybersécurité, ainsi que de réaliser des évaluations des risques au sein de projets, en assurant la conformité aux normes de sécurité. 📍 Lieu : Île-de-France 📅 Démarrage : ASAP ⌚ Durée : Mission longue 🔹 Missions principales : Identifier et traiter les menaces et risques de cybersécurité via le cadre de gestion des changements. Réaliser des évaluations des risques de cybersécurité pour tous les projets du client. Assurer le respect des bonnes pratiques et des cadres de sécurité de l'information (ISO/IEC 2700x, NIST, ANSSI). 🔹 Compétences requises : Expérience : 15 à 20 ans dans le domaine de l'IT et de la cybersécurité. Expertise technique : Solide maîtrise des technologies de sécurité (pare-feu, PAM, IAM, SIEM, gestion des vulnérabilités, analyse de code, Cloud, etc.). Cloud : Bonne connaissance des services Cloud (AWS, Azure, GCP, SecNumCloud) et des technologies associées (KMS, gestion des secrets). Gestion de projets : Compétences en gestion de projets IT et gestion des risques cyber dans le cadre de projets. Sécurité de l'information : Connaissance des frameworks (ISO/IEC 2700x, NIST, ANSSI) et des réglementations (NIS, DORA, SecNumCloud, Infrastructures Critiques, etc.). Compétences interpersonnelles : Résolution de problèmes, collaboration, écoute active, gestion des priorités et maîtrise de soi. Certifications : CISSP ou autres certifications en gestion de la sécurité seraient un plus. Langue : Anglais courant obligatoire !!!
Offre d'emploi
Data Engineer (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Offre d'emploi
Responsable de Plateforme Data
En partenariat avec un client financier établi de GloComms, nous recherchons un responsable senior de la plateforme de données pour aider à diriger le développement et la gestion de la plateforme de données existante. Role: Responsable de Plateforme Data Lieu: Paris Hybride Teletravail Debut: Novembre/Decembre Role: Superviser la création et l'entretien d'une infrastructure et d'une plateforme de données sûres, évolutives et performantes. Travailler avec les équipes de Data Science, Data Engineering et Quant pour s'assurer que les pipelines de données et les procédures s'intègrent de manière transparente. Superviser le développement de services et de parties communes utilisés par les équipes Data et Quant. Réduire le temps de mise en production en rationalisant les opérations de développement à l'aide de l'automatisation et de modèles réutilisables. Superviser un groupe multidisciplinaire d'ingénieurs en logiciels, en fiabilité des sites et en DevOps. Établir, mettre en pratique et garder un œil sur les KPI qui sont liés à la valeur de l'entreprise et à l'expérience de l'utilisateur.
Offre d'emploi
Ingénieur Cloud GCP H/F
Dans le cadre de notre croissance, nous recrutons un(e) Ingénieur Cloud GCP. Le poste est basé à Paris (possibilité de télétravail selon la mission). Votre rôle s'articule autour de différents axes : En tant qu'Ingénieur Cloud GCP, vous serez responsable de la migration et de l'optimisation des applications vers l'environnement cloud Google Cloud Platform (GCP). Vous rejoindrez une équipe dédiée au projet Move-to-cloud, en charge du build et de la migration des applications critiques pour les clients internes et externes. Vous jouerez un rôle clé dans l'automatisation des infrastructures, la conception des architectures et l'intégration des solutions cloud. Missions principales : - Infrastructure as Code (IAAC) : Développer et maintenir des modules Terraform pour automatiser le déploiement des infrastructures sur GCP via des pipelines de déploiement. - Migration Cloud : Gérer la migration des applications vers les services cloud, incluant des services tels que GCP App Engine, GCP Compute Engine, et d'autres services GCP pertinents. - Architecture Cloud : Participer à la conception des architectures cloud, en assurant une intégration fluide des applications et des bases de données dans les environnements GCP. - Provisioning : Déployer et configurer les infrastructures cloud, incluant les services réseau, les composants de sécurité et les services de bases de données sur GCP. - Automatisation et CI/CD : Intégrer des pipelines CI/CD pour assurer des déploiements continus et fiables, en utilisant des outils d'intégration comme Cloud Build ou GitHub Actions. - Kubernetes : Administrer des clusters Kubernetes sur GCP, en assurant une orchestration efficace des conteneurs et une gestion des applications déployées. - Collaboration Agile : Travailler en étroite collaboration avec les équipes de développement et les parties prenantes en suivant les méthodologies agiles pour assurer la réussite du projet.
Offre d'emploi
Profil OPS
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons un consultant OPS GCP Compétences techniques Orchestration de conteneurs - Expert - Impératif CI/CD & Automatisation - Confirmé - Impératif Architecture microservices - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Secondaire) Description détaillée En tant que DevOps vous participerez aux différents chantiers d’évolution de la plateforme et vous intégrerez l’équipe OPS GCP qui comprend 8 personnes Vos missions • Maintenir en condition opérationnelle les infrastructures en diagnostiquant les pannes et les dysfonctionnements • Configurer et dimensionner les plateformes en fonction des performances requises • Industrialiser les architectures cibles et configurer les équipements (CI / CD) • Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures • Effectuer le suivi des coûts des différents composants et applications (FinOps) Compétences De formation supérieure en informatique, vous avez déjà exercé une fonction de Tech Lead OPS sur Google GCP. Vous êtes un expert technique et vous maitrisez les modules suivants : • Orchestration de conteneurs : Kubernetes • De bonnes connaissances sur Linux et réseaux • Bases de données : Postgres – Redis – Couchbase - Kafka • Connaissance des principes de monitoring (ELK, Prometheus, Grafana, …) • Compétences en CI/CD (Gitlab CI, Jenkins, Nexus, ArgoCD …) • Maitrise en Automatisation et en gestion de configuration IAC ( Terraform / Ansible ) • Maitrise des architectures microservices et de leur gestion Capable de challenger les équipes et force de proposition, vous faites preuve d’un leadership naturel vous permettant d’entraîner l’équipe OPS vers la réalisation de vos objectifs. Une certification Kubernetes ( CKA ou CKAD ) et GCP ( Professionnal Cloud Architect ou Cloud DevOps Enginer ) serait un atout différenciant. Vos capacités de coopération et d’orientation service et clients sont déterminantes. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
ingénieur cloud azure et GCP - 550€ max
Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent. Vous avez un bon niveau d'anglais. Environnement: • OS: 90% Windows servers, 5% Linux servers, 5% PaaS • Cloud: 85% Azure, 10% GCP, 5% Aliyun
Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure
Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible
Mission freelance
Expert Ingenieur Cloud FinOps
Bonjour, je recherche un expert cloud Fin Ops pour venir accompagner mon client dans la stratégie de la réduction des couts cloud public AWS AZURE GCP, tout en maintenant les performances Il faudra participer au cadrage du besoin client et réaliser les ateliers Faire les soutenances et proposition commerciale Les taches afférentes : - Accompagner les architectes SI pour l'estimation des coûts des solutions envisagées, - Maintenir et optimiser le fonctionnement des outils de suivi des coûts Cloud (de la collecte des données FinOps jusqu'à la production des tableaux de bord financiers) - Audit d'optimisation de facture, analyse les données financières, identifier les opportunités d'économies - Implémentation d'optimisation - Formation - Déployer des outils de "reporting" - Développer des scripts de contrôle des couts, Automatiser - Animation de COPIL
Offre d'emploi
Data Architect GCP
Chez K-LAGAN , nous sommes à la recherche d'un-e Architect des solutions, data GCP, au sein de notre équipe des experts DATA, chez un de nos clients - secteur assurances, 📍 Niort (Nouvelle-Aquitaine, hybride). 🔥Rejoignez une aventure passionnante au sein du cabinet Pure Player Data & IA du Groupe🔥 Vous intégrerez une super équipe d'experts passionnés, et utiliserez les technologies de pointe. Vous aurez l'opportunité de travailler sur des projets innovants, de collaborer avec des partenaires de renom et d'apporter votre expertise à une entreprise en pleine croissance. 🧑💻 Compétences nécessaires : Connaissance et maître du cloud GCP Capacité à construire une feuille de route technique de mise en œuvre de plateforme Data (type Hub/lakehouse) Capacité à construire des plans de migration data cloud Connaissance des architectures hybrides/ multiCloud Bon background engineering. Connaissance CI/CD Avoir, au minimum, 3-5 ans d'expérience en tant qu'architecte BIG DATA (hors stage et/ou alternance).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Arce 7 mois après la création de l'entreprise ?
- Close de non concurrence freelance à portgae salarial
- situation compliquée fin de mission pression client comment gèrer ?
- 🎯 Recherche Expert pour Accompagnement sur SCCM et Intune 🚀
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Calcul frais télétravail en étant propriétaire