Trouvez votre prochaine offre d’emploi ou de mission freelance Windows Deployment Services (WDS) à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Développeur JavascriptSvelte
CONTEXTE Nous recherchons un développeur expérimentée en technologie Svelte. MISSIONS: - La conception, au développement et au maintien des applications web front-end en utilisant Svelte, - L’Implémentation des solutions de rendu côté serveur (SSR) pour améliorer le SEO et la performance initiale de chargement, - S’assurer que les interfaces utilisateur respectent les normes d'accessibilité (WCAG), garantissant une expérience inclusive pour tous les utilisateurs, - l’optimisation des performances du site web (webperf) en termes de temps de chargement, de gestion des ressources et d’expérience utilisateur globale, - La collaboration avec les équipes UX/UI pour garantir une intégration fluide des maquettes tout en respectant les meilleures pratiques de performance et d'accessibilité, - La mise en place et le suivi des tests de performance et d’accessibilité, ainsi que l’optimisation continue du code - Veiller à la qualité du code en utilisant des outils de contrôle version (Git), des revues de code, et des tests automatisés.
Mission freelance
Data Engineer Snowflake Aws
Cherry Pick est à la recherche d'un Data Engineer SnowFlake Aws pour un client dans le secteur de la musique. Dans le cadre du développement d'un produit de restitution automatisée de données, nous sommes actuellement à la recherche d'un ingénieur data ayant déjà travaillé sur un projet de ce type. L'ensemble de la solution produit est techniquement conçue en lien avec le Tech Lead qui valide l'architecture logicielle à mettre en place sur le cloud AWS. L'équipe est composée : - 1 PO - 1 TL - 1 développeur fullstack java - 1 OPS Tâches : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données
Offre d'emploi
Data engineer AWS
Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais
Mission freelance
Ingénieur Move to Cloud
Vous serez en charge: Analyser les infrastructures existantes pour identifier les composants éligibles à la migration vers le cloud Proposer des stratégies de migration adaptées en fonction des besoins métiers et techniques Participer à la conception des architectures cibles sur des environnements cloud (AWS, Azure, GCP, etc.) Réaliser et coordonner les opérations de migration d'applications et de données vers le cloud Optimiser les performances, la sécurité et les coûts des infrastructures cloud Mettre en place les outils d'automatisation (CI/CD, IaC) pour faciliter les déploiements et les opérations Assurer la gestion des incidents et le support technique post-migration Documenter les procédures, processus et architectures mises en place
Offre d'emploi
Expert Cloud Infra réseaux
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client banque basé en Région parisienne un profil Expert sur les problématiques Cloud Infra et réseaux : Au sein de DSIO, le programme Grace (Group Acceleration Cloud Excellence) porte la stratégie Cloud et la transformation du modèle de delivery de la DSI. Ce programme s’appuie sur le pôle Cloud Technology Plaƞorm pour gérer la nouvelle landing zone AWS qui hébergera à terme la majorité des workloads cloud d’Hermès. Cette équipe a pour responsabilité de fournir des socles techniques solides qui seront consommés par les équipes Applicative Plaƞorm de la DSI. Cette équipe est composée de 5 personnes (Architectes et builders) qui ont défini l’architecture cible (Account factory, Identité, connectivité, sécurité …) qui a été validée par les différentes parties prenantes (entreprise architecture & sécurité). La LZ EMEA a été ouverte cet été et sera déclinée AMER/APAC en 2025. En complément du socle LZ, d’autres initiatives complémentaires sont en cours telles que l’automatisation de la documentation AWS, un backup centralisé et l’ouverture d’une LZ en chine (AWS China). Déployer et maintenir les différents socles de la landing zone, s'assurer de la cohérence et de l'homogénéité de l'IAS et de sa documentation, veiller à la conformité avec les standards d'architecte et de sécurité, écrire les scripts pour automatiser des opérations courantes, comprendre les besoins des clients et leur proposer des solutions 'en prenant en compte les enjeux sécurité, couts, facilité de déploiement, d'usage et de maintenance.. Minimum 7 ans d'expérience dans l'infrastructure, développement et/ou cloud, au moins une certification AWS associate (Architect serait un plus). aisance à diagnostiquer, facilité les problèmes.. Bonne connaissances des méthodes Devops et agile. Anglais courant Forte expertise dans le déploiement et la gestion des ressources et services Cloud, Excellente connaissance des socles réseau, sécurité et système, bonne compréhension de la gestion de l'identité, maitrise des outils d'automatisation.... Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
DevOps AWS (CDI)
Intervention sur les systèmes rédactionnels spécifique à la rédaction (bimedia web et print), participation aux évolutions de l’infrastructure au sein de la direction technique, Tu est rattaché au responsable informatique rédactionnelle. Mission : assurer le bon fonctionnement et la continuité de service des sites web et des applications métiers, d’intégrer les nouvelles solutions, d’améliorer les performances et le monitoring et également de participer à l’évolution du système d’information éditorial dans le respect des meilleures pratiques et des processus qualité. Tu travailles en collaboration étroite avec les équipes de développement, les équipes QA, et les équipes produit sur l’ensemble du périmètre éditorial. L’équipe: 4 personnes 3 DevOps + le lead infra Missions principales: - Maintenance corrective et évolutive et maintien en conditions opérationnelles du système rédactionnel et de l’architecture technique o Faire l’analyse technique des besoins clients (rédaction, équipe produit, marketing…). o Rechercher et analyser les solutions techniques, les outils, participer aux choix de technologies, de solutions et d’architectures. o Participer à la conception technique et à la modélisation. o Participer au découpage des scénarios utilisateurs en tâches, aux estimations de charge de travail, et à la planification globale dans un contexte agile. o Vérifier le respect des normes et des best practices (sécurité informatique, qualité…). Expérience de 3 ans minimum dans un environnement de production sur un applicatif critique pour le métier. Bonne expérience des plateformes web à fort trafic / volumétrie ainsi que sur les mécanismes de routage et CDN. Un point important l’essentiel des échanges avec nos supports se fait en anglais, tu parles couramment cette langue.
Mission freelance
Développeur K8S Terraform
Contexte : Nous recherchons un développeur senior avec de fortes compétences autour de l’administration système, des pratiques devops et surtout une très bonne connaissance de Terraform. MISSIONS La mission consistera à assurer la coordination entre les équipes de développement et les équipes ops. Elle pourra aiguiller les développeurs à mieux mettre en œuvre la configuration Cloud, la CI/CD, les bonnes pratiques de scalabilité et de sécurité pour travailler plus efficacement. Elle consistera également à expliciter, accompagner et documenter les évolutions techniques. PROFIL : Le titulaire devra disposer d’une expérience back (PHP et/ou JS) avec des expertises détaillées, et notamment sur Docker/Kubernetes/Terraform pour le cloud privé et public (Azure, AWS).
Offre d'emploi
Architect Data AWS
🎯Inventifs Wanted Nous recherchons un architecte Data AWS ayant une expertise en architecture de données, chiffrage de projets Big Data et méthodologies Agile. Avec 8 années d’expérience au minimum Travaillant sur plusieurs Projets Data; Participation à l’évaluation et à la livraison de composants AWS Conception et mise en œuvre d’architectures de solutions data sur AWS (ingestion, service et consommation de données). Développement d’architectures AWS pour stocker les données IoT et configurer Databricks. Implémentation de solutions utilisant AWS Direction de projets cloud axés sur les services AWS et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data Définition des solutions d’architecture Big Data dans le Cloud AWS Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud AWS en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel) Validation de l'architecture du Product Incrément, à des réunions de qualification Validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. Environnement Technique : Cloud Platform & Services : AWS , AWS Glue & Athena, EMR, Aurora, Amazon SageMaker, AWS Lake Formation, AWS Aurora, AWS Lambda Data & Analytics : AWS, SQL, Power BI, Automation & Scripting : PowerShell, CI/CD, AWS DataLake, LakeHouse, Data Vault, Data WareHouse, Data Mesh, Data Fabric ETL & DWH : Talend
Mission freelance
Ingénieur devops Kubernetes
Nous recherchons pour notre équipe, une prestation de développement senior avec de fortes compétences autour de l’administration système, des pratiques DevOps et surtout une très bonne connaissance de Terraform. Le prestataire devra disposer d’une expérience back (PHP et/ou JS) avec des expertises détaillées dans la réponse, et notamment sur Docker/Kubernetes/Terraform pour le cloud privé et public (Azure, AWS). La prestation consistera à assurer la coordination entre les équipes de développement et les équipes ops. Elle pourra aiguiller les développeurs à mieux mettre en œuvre la configuration Cloud, la CI/CD, les bonnes pratiques de scalabilité et de sécurité pour travailler plus efficacement. La prestation consistera également à expliciter, accompagner et documenter les évolutions techniques.
Mission freelance
Tech Lead RoR AWS (temps partiel 1 ou 2j semaine)
Cherry Pick est à la recherche d'un "Tech Lead RoR AWS (temps partiel)" pour un client Start Up. Nous cherchons à renforcer notre équipe de dev avec un lead Tech/Dev qui pourrait nous aider, à temps partiel, sur des sujets d'architecture et donner un coup de main pour piloter nos développements et accélérer notre roadmap. Mission: Pilotage du delivery tech Encadrement de l’équipe Support aux choix d’architecture : logicielle, data & IA 1 à 2j / semaine Stack Technique : front : React back : Ruby on Rails, Python, SQL, Docker hosting : Heroku, AWS Architecture - driving équipe de développement Tech lead / Architecte dashborading data module analytics
Offre d'emploi
Architecte Data & Solution
🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.
Offre d'emploi
Ingénieur OPS EKS AKS
Mise en place et maintien en conditions opérationnelles d'une plateforme de provisioning de ressources Kubernetes dans le cloud public, intégrée aux exigences de sécurité du Groupe. Automatisation et industrialisation des déploiements d'infrastructure dans des environnements Cloud publics (Azure et/ou AWS). Amélioration continue de la plateforme avec l’ajout de nouvelles fonctionnalités en collaboration avec les équipes Sécurité, Architecture, etc. Assistance aux équipes d’applications lors de l’onboarding et des déploiements. Mise en place des systèmes de monitoring et d’alerte. Résolution des incidents et mise en place d'actions préventives et correctives. Propositions d'améliorations sur les infrastructures existantes.
Offre d'emploi
Profils Ingénieur de production
Pour un de nos clients situé dans la région parisienne (Pantin) nous cherchons un ingénieur de production pour travailler sur les tâches suivantes : La Direction des Services d’Infrastructures et des Opérations (DSIO) est engagée dans une transformation profonde de son modèle opératoire visant,à répondre aux besoins de ses clients internes aux meilleurs standards du marché. Pour répondre à ces enjeux, DSIO définit sa mission et ses engagements autour de 4 piliers : Stabilité & Qualité : orchestrer et exploiter les services d'exploitation en termes de construction et d'exécution, et assurer la continuité des services et des plateformes avec une garantie de sécurité forte Service : construire et offrir un catalogue de services cohérent et robuste pour répondre aux attentes des clients de DSIO Orientation client : répondre efficacement aux besoins des clients, fournir et suivre la valeur fournie aux clients et aux utilisateurs finaux des services d'assistance via un catalogue de services clair Organisation des équipes : combiner une organisation agile et efficace qui soit lisible pour les clients et qui permette aux employés de DSIO d'être performants et de continuer à se développer. Faisant partie intégrante du département Service DSIO, l’équipe « Applicative Platform Supply Chain » a pour mission de répondre aux attentes de ses clients sur les aspects : § RUN § MCO § BUILD L’objet de cet appel d’offres est de se doter d’une prestation d’ingénieur de production Piloter les activités : § BUILD § Installation des composants dans les environnements en charge de la DSIO § Gestion des configurations logicielles § Gestion des ordonnancements, Flux § RUN / MCO : § Demandes et Incidents niveau 3 des applications Supply § Conseil et référant technique sur les évolutions applicatives § Participer aux mises en production, aux PRA et aux arrêts planifiés § Participer à la rédaction, valider les dossiers d’exploitation et gérer les procédures confiées à l’infogérant § Veiller au maintien en condition opérationnelle de la plateforme, de sa supervision, gérer les incidents, communiquer et reporter Participer à la rédaction des comptes rendus d’incidents (REX) § Connaissances d’au moins un ordonnanceur (Si possible OpCon) § Bon niveau d’anglais écrit et oral § Accompagnement d’une infogérance niveau 1 § Plus : o Outils DevOps Gitlab, Ansible, Terraform o Cloud AWS o Administration Infor M3 Cloud o Connaissance Extream Installation et mise en œuvre des outils Infor MEC, IFT, IDM… § Respect de la méthodologie du client et adaptabilité § Certification ITIL § Connaissance de la Supply § Compatibilité avec les valeurs du client : exemplarité, solidarité, confiance, excellence, enthousiasme, harmonie Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
DATA ENGINEER
QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données Implémenter les fonctionnalités en accord avec le PO et le Tech Lead Implémenter des algorithmes data complexes (principalement sur snowflake) Optimisation des ressources utilisées par ces algorithmes et passage à l'échelle Réaliser la maintenance en condition opérationnelle de ces algos Savoir écrire des requetes sql complexes et les optimiser Participer activement à la construction de l'architecture cible snowflake +++ lambda / Step Function AWS RDS PostgreSQL Python
Mission freelance
Data Engineer
PAS DE SOUS TRAITANCE // MERCI Nous recherchons un Data Engineer pour renforcer une équipe technique dans un projet lié à la mesure et à l’optimisation énergétique. Vous collaborerez avec les Data Scientists et les équipes techniques pour concevoir et maintenir des pipelines de données robustes et sécurisés, en utilisant les meilleures pratiques cloud. Vos missions incluront : • Conception et déploiement de pipelines de données serverless (e.g., step function, Lambda, S3, Redshift) pour la gestion de données énergétiques en batch et en streaming. • Structuration des données en zones fonctionnelles sur S3 et optimisation des formats (JSON, Parquet) pour améliorer les performances et réduire les coûts. • Automatisation de workflows CI/CD/CT avec GitHub Actions pour assurer des déploiements continus, sécurisés et sans interruption. • Implémentation d’un monitoring avancé pour détecter les anomalies et garantir une maintenance efficace. • Sécurisation des données sensibles en respectant les normes de sécurité cloud. • Optimisation des coûts et réduction de l’empreinte carbone en optimisant l’efficacité des ressources cloud. • Collaboration avec l’équipe Data Science pour faciliter l’accès aux données de qualité et intégrer les modèles dans les applications.
Offre d'emploi
Ingénieur DevOps
Au sein d'une grande banque française basée à paris, vous rejoindrez une équipe DevOps. En tant qu'ingénieur DevOps vous contribuerez à la configuration et à l'outillage des chaînes CI/CD et assiterez les entités de développement dans la gestion des différents environnements (développement, test, UAT, intégration, production). L'entité évolue sur des environnements on premise avec des requêtes de déploiement sur cloud AWS. Dans ce cadre la prestation consiste à contribuer à : La mise en place des chaines CI/CD on prem La mise en place et la maintenance des outils (Jenkins, Sonar...) Déploiment de VM dans le cloud on prem Mise en place du Monitoring automatique (elasticsearch , kibana,..) Mise en place des alerts sur l'infra et sur l'indisponibilité des services/composants Monitoring de production L'installation et à la configuration Kubernetes et Docker La création et à la maintenance des différents environnement techniques avec les entités de développement Support aux entités de développement dans leur utilisation de ces différents environnements L'intégration des chaines on prem et des chaines déployées sur AWS Environnement techniques (Excellent niveau requis) : Ansible Terraform Docker Git Environnement techniques (bon niveau requis) : Kubernetes / Helm CI Jenkins / GitHub Shell SQL ELK Environnement techniques (c'est un plus) : Traefik & Squid Java / Nodejs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.