Trouvez votre prochaine offre d’emploi ou de mission freelance Transmission Control Protocol (TCP) à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
INGENIEUR RESEAU NAC & DDI Nationalité française
Ingénieur Réseau / NAC & DDI Objectif : Assurer la livraison réussie du projet en coordonnant efficacement les parties prenantes tout en main-tenant une approche agile et dynamique. Contexte : Cette solution s’inscrit dans un environnement comprenant plusieurs parties prenantes (Poste de Travail, PKI, An-nuaire Active Directory, Réseaux, Sécurité, RSSI, la DSI, …). Le prestataire devra intervenir principalement sur des projets liés à la mise en place et à l'optimisation des solu-tions de Network Access Control (NAC) sur Cisco ISE, ainsi que sur la gestion des services critiques tels que le DNS et le DHCP basé sur Infoblox. Objectifs : - Mettre en oeuvre et optimiser les solutions NAC pour sécuriser les accès au réseau. - Garantir la disponibilité et la performance des services DNS et DHCP. - Apporter une expertise système et réseau pour améliorer la gestion des postes de travail dans un environ-nement hybride (physique et virtuel). - Renforcer les capacités opérationnelles de l'équipe interne en apportant des compétences techniques avancées. Périmètre de la mission - NAC : o Déploiement et configuration de solutions NAC. o Gestion des politiques d'accès réseau. o Analyse et résolution des incidents liés au contrôle d'accès. - DNS/DHCP : o Administration, optimisation et sécurisation des services DNS et DHCP. - Systèmes et Postes de Travail : o Participation à la configuration des images systèmes. o Contribution à l'automatisation de la gestion des postes (GPO, outils comme SCCM ou Intune).

Offre d'emploi
Développeur Big Data GCP - ENTRE 3 ET 6 ANS
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Mission freelance
Ingénieur Devops Azure / GCP / On-Premise
Automatisation des déploiements : En collaboration avec les différentes équipes techniques, l’ingénieur participera à la conception et la gestion des automatismes du système d'information : intégration, déploiement en continu en utilisant des services des Cloud public tels qu’Azure et GCP ou des solutions logicielles et infrastructures OnPremise. Le déploiement se fera via les outils Gitlab CI, Broadcom Nolio, et s’appuiera sur des technologies tel qu’Ansible, Terraform et Docker. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques dans les pipelines CI/CD. Cela inclus l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, la gestion des artefacts, etc. Garantir l'intégrité permanente des automatismes au regard des évolutions des produits Résolution des problèmes : L’ingénieur devra être en mesure de diagnostiquer et résoudre des problèmes de nature multiples (CI, CD, configuration, infrastructure, etc..). Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Il/elle devra également fournir un support aux équipes d’exploitation dans le cadre du traitement d’alertes ou d’incidents. Gestion des outils ALM : L’ingénieur devra s’assurer de bon fonctionnement et de l’évolution des outils ALM (Gitlab, Sonar, TFS, JIRA, etc…). Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production et les autres membres de l’équipe afin de garantir que les solutions proposées conjuguent les meilleures pratiques Devops, les contraintes techniques et de sécurité ainsi que les besoins des projets. Il/elle participera à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus. Contribuera au déploiement des pratiques DevOps au sein de l’entreprise. Participera au cadrage des projets dans son domaine de compétences : analyse des besoins et contribution aux chiffrages de la partie technique

Mission freelance
Data Analytics Engineer
Dans le cadre d'un projet de transformation digitale, nous recherchons un Data Analytics Engineer pour rejoindre notre client à la fin du premier trimestre. Rôle : Ingénieur en analyse de données Durée : 6 mois (extensible) Lieu : Paris Travail hybride : 2 jours à distance par semaine Date de début : Mars/Avril Principales responsabilités : Recueillir les besoins opérationnels et analytiques de l'entreprise Collaborer étroitement avec les gestionnaires de données et les ingénieurs de données pour définir le modèle de données cible Définir les vues pour exposer les données à d'autres outils (viz, outils prod, etc) Développer la nouvelle offre de visualisation des données en développant de nouveaux tableaux de bord Optimiser et fournir un support sur les pipelines de données

Mission freelance
Développeur C (full remote)
Cherry Pick est à la recherche d'un Développeur C pour un de ses clients dans le secteur de l'automobile. Missions : Le client recherche une prestation de développement pour la maintenance corrective et évolutive des applications liées à la production industrielle et à la supply chain. Compétences requises : Développement FullStack Langages et technologies : C, Pro C, CMake Bash/Shell, Autosys Oracle, Tuxedo, CFT Visual Basic, Angular, NodeJS, Java GCP (Google Cloud Platform) GitLabee, JIRA/Confluence/Xray Linux Redhat Méthodologies et certifications : Agile (SCRUM) Certification SAFe (souhaitée) Maîtrise de l’anglais (un plus) Bonus : Connaissance du monde automobile et du séquencement des voitures dans les usines d’assemblage.

Mission freelance
Data Architect
Missions Pour l’un de nos clients du secteur du luxe, vous intervenez sur des missions à forte valeur ajoutée en tant que Architecte Data. En étroite collaboration avec vos interlocuteurs, vous accompagnez et conseillez notre client dans le cadre de la gestion du cycle de vie de ses infrastructures actuelles et participez au projet d’évolution et au maintien en condition opérationnelle. Vos tâches seront les suivantes : Conception de l’architecture et vérification de l’implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Responsable du suivi des principes établis au niveau du groupe (architecture, sécurité et confidentialité des données) dans les plateformes de données. Soutien à la stratégie NFR en lien avec le Data Tech Lead de chaque équipe Data Product. Support à la stratégie de données définie par l’équipe Data (fondations techniques : GCP, Google Big Query, DBT et Airflow/Composer). Conduire et prendre en charge la feuille de route technique des plateformes de données. Apporter une expertise sur les architectures et les plateformes de données pour aider les différents acteurs à suivre la stratégie de données. Piloter l’évaluation et l’optimisation des architectures de données. Documenter l’architecture (Confluence) et assurer le suivi des actions d’implémentation (Jira).

Mission freelance
Ingenieur SYSTEME WINDOWS & CLOUD AZURE & GCP
Poste : Ingénieur Système Windows CLOUD (GCP) Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent. Vous avez un bon niveau d'anglais. Télétravail : 2 jours par semaine

Offre d'emploi
Data Engineer GCP
Bonjour, Je vous envoie ce mail car dans le cadre d'une mission de longue durée pour notre client situé en à Paris, nous recherchons un Data Engineer GCP. Type de profils confirmé (> 5 ans d'expérience) Technologies GCP (expérience obligatoire sur ce cloud provider) Python (expérience obligatoire) Bonne maîtrise BigQuery (obligatoire) Bonne maîtrise Terraform Git (obligatoire) Dans le cas où vous êtes intéressé, pourriez-vous svp envoyer votre CV au format Word en indiquant votre disponibilité ainsi qu'une fourchette de vos prétentions salariales ou de votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Data Engineer
L'Ingénieur Data intégrera une équipe spécialisée en gestion et valorisation des données. Il/Elle sera responsable de l'acquisition et de la modélisation des données afin de fournir des résultats exploitables pour l'analytique et la data science. Le rôle impliquera la création de modèles de données consommables et de visualisations, tout en assurant la gestion complète du cycle de vie des données, de leur ingestion à leur traitement et préparation. Il/Elle travaillera en étroite collaboration avec les équipes data et métiers afin d’assurer la cohérence et la fiabilité des produits de données développés. Traduire les besoins métier en spécifications techniques, en collaboration avec les parties prenantes. Estimer, planifier, gérer et diriger les projets/tâches d'intégration des données. Coordonner les tâches et la charge de travail avec les autres ingénieurs data. Concevoir et développer des processus ETL/ELT et des flux de données pour fournir des résultats exploitables en analytique et data science. Créer des modèles de données et des visualisations intuitives et performantes. Collaborer avec les équipes de support pour assurer la cohérence et l’exactitude des données ainsi que la performance des flux livrés. Fournir un support de niveau 3 lorsque nécessaire. Définir et promouvoir les meilleures pratiques et principes de conception pour l'architecture Data Warehouse et Analytics.

Offre d'emploi
Architecte technique IT
Le poste est au sein de l'équipe architecture du groupe. Cette équipe est composée d'un architecte infrastructure, d'un architecte fonctionnel, d'un architecte usine de développement, d'un architecte Datascience. Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructure Suivi et amélioration des processus Bonne connaissance du système d'information global et de l'architecture SI Excellente connaissance des systèmes d'exploitation (notamment Windows, UNIX/LINUX), des réseaux et télécommunications, des bases de données, du stockage (NAS/SAN/DAS) Connaissance des technologies et outils de virtualisation Vmware. Maîtrise des environnements de conteneurisation tels que Kubernetes, Redhat OpenShift. Bonne connaissance des environnements Cloud (Azure, GCP), BigData Maîtrise des risques liés à la sécurité des infrastructures et à la dématérialisation Connaissance des normes dans le domaine de l'archivage et du chiffrement. Bonne connaissance du modèle C4 Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant. Polyvalence, goût pour la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique pour faire la part des choses entre la technique et le discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment).

Offre d'emploi
Architecte solution Smartmetering IoT & Cloud
Dans le contexte général des développements de solutions , mission à réaliser au profit de l'équipe Software, la mission porte sur la définition de l’architecture d’une plateforme logicielle IoT & Cloud pour adresser de nouveaux marchés. Le scope de la mission est de concevoir, sur la base d’un cahier des charges, l’architecture de la solution qui doit être : · Scalable et optimisée en coût de déploiement · Hautement disponible · Modulaire · Multimodes de déploiement : Cloud (Azure, AWS, GCP) et on-prem · Intégralement gérée en CI/CD · Multi-tenants · Sécurisée en termes de confidentialité, intégrité et disponibilité · Multi-énergie : la solution doit être suffisamment flexible pour intégrer les spécificités et les contraintes des compteurs d’eau, de gaz et d’électricité, et prendre en charge une variété de protocoles et profils de communication

Mission freelance
Consultant sécurité cloud GCP H/F
Activités : • Évaluer l’architecture de sécurité actuelle sur GCP, notamment pour les architectures de type data. • Étudier et qualifier les évolutions de services GCP (ex. Private Service Connect) et proposer des solutions pour toute problématique de sécurité identifiée. • Identifier les vulnérabilités et risques liés aux services GCP (Vertex AI, Workflow, Dataflow, Apigee, GKE, Composer, etc.) et fournir des recommandations de sécurité. • Mettre en place des contrôles de sécurité dans des outils de type Cloud Security Posture Management (CSPM). • Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations

Mission freelance
Data Architect GCP
Nous sommes actuellement à la recherche d’un Data Architect pour renforcer notre équipe composée de quatre Data Architects . Le projet principal concerne une migration vers GCP : Responsabilités de l’équipe Data Architecture : Concevoir et valider l'implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Superviser le respect des principes établis au niveau du groupe en matière d’architecture, de sécurité et de protection des données dans les plateformes de données. Soutenir la stratégie NFR en collaboration avec les Data Tech Leads de chaque équipe Data Product. Accompagner la mise en œuvre de la stratégie Data , en s’appuyant sur des bases techniques telles que GCP, Google BigQuery, DBT et Airflow/Composer . Piloter et posséder la feuille de route technique des plateformes de données. Apporter une expertise en architecture et plateformes de données pour aider les différentes parties prenantes à aligner leurs initiatives sur la stratégie Data. Évaluer et optimiser les architectures de données . Documenter l’architecture sur Confluence et suivre les actions d’implémentation sur Jira .

Offre d'emploi
Architecte technique - Delivery Manager / Digital Factory
Nous recherchons un Architecte technique/solutions - Delivery Manager (Bac +5 obligatoire) ayant une expérience significative dans un contexte Digital Factory . Vous avez une expérience significative de 5 à 10 ans en architecture technique, conception de solutions et management de projets techniques Une expérience préalable en tant que Delivery Manager ou Tech Lead est un plus Missions Principales : 1. Pilotage et Management des Projets Coordonner les livrables en assurant leur qualité, leur cohérence et leur respect des délais. Garantir la performance et la disponibilité des projets MCO et RUN. Animer et encadrer l’équipe pluridisciplinaire : développeurs, architectes, testeurs, et autres contributeurs techniques. Collaborer activement avec les 3 Product Owners pour le suivi des besoins et priorités par domaine. 2. Architecture Technique et Conception Définir les architectures techniques adaptées aux besoins des projets (microservices, architectures 3-tiers, serverless, etc.). Réaliser des audits techniques et proposer des optimisations. Assurer la cohérence technique entre les différents projets et composants. 3. Suivi de l’Exécution et du Delivery Assurer le suivi technique, la revue de code, et l’implémentation des bonnes pratiques. Mettre en place des indicateurs de qualité et de performance (KPI). Travailler en méthodes Agiles et utiliser des outils de CI/CD comme GitLab pour industrialiser le delivery. 4. Innovation et Expertise Technologique Apporter une expertise sur les technologies modernes : React, Java, Spring, NextJs,Angular, Flutter, AWS, GCP, Serverless, DevSecOps . Promouvoir des solutions cloud natives et l’adoption des meilleures pratiques DevSecOps. Accompagner les équipes dans la montée en compétences sur les technologies et frameworks utilisés. 5. Gestion des Risques et Amélioration Continue Identifier les risques techniques et proposer des actions correctives et préventives. Améliorer continuellement les processus de delivery et de qualité.

Mission freelance
Cloud GCP Python Data Scientist - IA & Medias (H/F) - 13+75 & Remote
Vous ferez partie de l'équipe IA pour la mise en place de prototype à destination principalement des médias : Conception de Prototypes et Pilotes : Élaborer et développer des prototypes et des projets pilotes pour démontrer la faisabilité et la valeur des solutions IA. Framing des Projets IA : Définir et structurer les projets d'intelligence artificielle en collaboration avec les parties prenantes, en identifiant les objectifs, les ressources nécessaires et les étapes clés. Conseil et Accompagnement : Fournir des conseils stratégiques et techniques aux clients pour les aider à intégrer les solutions IA dans leurs processus métier. Livrables : Prototypes IA sur les médias Documentation, code propre Framing de sujet, comprenant ROI attendus, solution technique, architecture, etc.

Mission freelance
Expert Réseaux Multi Cloud Senior - PARIS
Missions principales Vous serez en charge de la conception, l’optimisation et le déploiement d’architectures réseau dans des environnements multi Cloud (AWS, GCP, Azure, …), en assurant l’alignement avec les meilleures pratiques FinOps et DevOps. Vos principales responsabilités incluent : Définition d’architectures réseau pour des environnements multi Cloud. Optimisation des coûts Cloud dans une approche FinOps. Configuration et gestion des composants Cloud Provider, tels que DirectConnect, VIF, Proxy, Bucket S3, TGW, NLB/ALB, DNS hybride (Route53 / Infoblox), etc. Automatisation des tâches via des outils comme Ansible et Terraform. Intégration avec des environnements DevOps tels que GitLab et Proxmox. Gestion et administration des pare-feu Palo Alto.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.