Trouvez votre prochaine offre d’emploi ou de mission freelance Web service à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer AWS et Big Data
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer Senior AWS et Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/DATA/4612 dans l'objet de votre mail Contexte de la prestation : Notre client cherche à développer une plateforme technologique transverse pour accompagner ses métiers dans l’industrialisation de leurs cas d’usage Data et IA. Cette plateforme inclut des solutions avancées d’enrichissement des métadonnées par l’IA et le GenAI. Prestation : Conception, construction et gestion de l’infrastructure AWS de la plateforme. Développement de microservices AWS pour soutenir les cas d’usage métiers liés aux médias. Industrialisation des processus Data pour garantir qualité, fiabilité et accessibilité des données. Création et optimisation des pipelines de données orientées média. Collaboration avec les équipes Data Science pour comprendre leurs besoins et proposer des solutions adaptées. Maintenance et optimisation des systèmes de données existants.
Offre d'emploi
Data Engineer AWS
Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Mission freelance
AWS Plateform Engineer
Nous recherchons un AWS Plateform Engineer Mission : Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS Sera amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de TotalEnergies de developper et faire tourner leurs applications Cloud. “You build it you run it” : participera aux activités de RUN liées à la plateforme Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles "Infra as Code” : Développera des modules Terrraform et pipeline CICD pour deployer/configurer/gouverner l’infrastructure (aucun déploiment sera fait manuellement via la console AWS). “User centric” : sera à l’écoute des utilisateurs du produit et recherchera leur feedback, documentera pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Maitrise la rédaction / présentation orale en Anglais. Environnement : "as code" (Terraform, CDKTF, Python, Github, Github Actions, AWS(services)) Python Shell AWS Identity (IAM, Fédération) Operate an AWS organization with hundreds of AWS accounts Github Actions and Repository Confluence / Jira Postman / Bruno SRE (Backup, Monitoring, CloudWatch, Prometheus, Grafana, Chaos monkey, SLA, SLO, etc.) CDKTF Events Driven Solutions (EventBridge, Step Functions) Git aws-cli Cybersecurity (AWS Network Firewall, WAF, SecurityHub, Config, CloudTrail, SCP, RBAC, ACM) Terragrunt Terraform (+Provider aws) FaaS (Lambda), IaaS (SSM, EC2) Network (Routing, Peering, IPAM, Direct Connect, VPN, DNS) finops
Offre d'emploi
Devops AWS Senior
💡 Contexte /Objectifs Contexte de la mission Ces Plateformes Digitales s’appuient sur une chaine de CI/CD commune. Cette chaine de CI/CD appelée Walnut, constitue une plateforme technique déployée et maintenue par l’équipe éponyme. L’équipe Walnut s’occupe du déploiement, du maintien et de l’intégration de l’ensemble des outils composant la chaine de CI/CD d’Engie Digital. Elle porte également un rôle de conseil et de bonnes pratiques auprès des autres plateformes Digitales, mais aussi des BUs du groupe utilisant Walnut. Les outils majeurs maintenus par Walnut sont : Github Enterprise, Jfrog Artifactory, Jenkins Cloudbees CI, GitHub Actions, SonarQube, Squash-TM, Jira, Confluence. Ce patrimoine infrastructure et applicatif doit faire l’objet d’un suivi à plusieurs niveaux : • Technique (cycle de vie et obsolescence, MCO), • Facturation (FinOps), • Sécurité (SecOps), • Industrialisation (automatisation, supervision, scalabilité, Disaster Recovery Plan) • Run : Réponse aux demandes clients 💡 Les livrables attendus sont : • Scripts d’automatisation du déploiement de l’infrastructure • Programmes d’automatisation des différentes stacks • Documentation d’architecture et d’utilisation des livrables précédents De plus, l’ingénieur devra participer à la communauté de pratique DevOps : • Intervenir régulièrement aux réunions de la communauté DevOps • Présenter des REX et des démos • Intervenir aux Webinaires du Groupe (Cloud, Sécurité…)
Mission freelance
Développeur Python AWS
En tant que Développeur Back-End, vous serez responsable de la conception et du développement des services back-end, en particulier autour des API, de l'intégration avec des services AWS, et du scripting pour automatiser les tâches courantes. Vous travaillerez principalement avec Python , en utilisant les services d' Amazon Web Services (AWS) pour déployer et maintenir des applications scalables, performantes et sécurisées. Responsabilités : Développement de services API : Concevoir et développer des API RESTful robustes et sécurisées en utilisant Python et des frameworks tels que Flask ou Django . Intégration AWS : Développer et intégrer des services avec les solutions cloud d'Amazon Web Services (Lambda, S3, EC2, RDS, API Gateway) pour assurer une scalabilité et une haute disponibilité des applications. Scripting et automatisation : Créer des scripts d'automatisation pour des processus liés à l'infrastructure, au déploiement (CI/CD) ou à la maintenance de services (Bash, Python). Optimisation des performances : Identifier et résoudre les goulots d'étranglement dans les applications, en optimisant les temps de réponse et la gestion des ressources cloud. Sécurité et conformité : Implémenter des mesures de sécurité pour protéger les données sensibles, en gérant les permissions et les authentifications via AWS IAM et OAuth2/OpenID pour les API. Intégration continue et déploiement : Participer à la mise en place de pipelines de CI/CD en collaboration avec l'équipe DevOps pour automatiser les tests et déploiements (AWS CodePipeline, Jenkins, GitLab CI). Maintenance et support : Assurer la maintenance des services back-end et apporter un support aux équipes de développement pour résoudre des problèmes techniques ou optimiser les processus.
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Mission freelance
CLOUD analyst - Azure AWS Finops
PROPULSE IT recherche un cloud analyst pour une mission en région parisienne ou en Full remote. La mission a lieu dans une équipe technique mondiale qui opère de manière agile au sein d'une organisation produit dynamique. Plongez-vous dans un environnement collaboratif où l'innovation prospère, et vos contributions joueront un rôle direct dans l'élaboration du chemin de nos produits de pointe. En tant qu'acteur clé de notre configuration agile, vous aurez l'opportunité d'améliorer l'efficacité, de favoriser créativité et jouent un rôle central dans notre processus de développement de produits. Faites partie d'une équipe qui embrasse l'adaptabilité et valorise l'amélioration continue, garantissant que nous restons à la pointe des avancées technologiques mondiales. L'analyste Cloud travaillera au sein de l'équipe Cloud Office, incluse dans la gestion des services. Ce sera une démarche transversale rôle au sein de l'ensemble de l'équipe technique, collaboration avec des collègues et des membres d'autres équipes. L'analyste cloud fournira un support transversal pour maintenir l'infrastructure et les services cloud afin d'offrir la meilleure valeur à tous les salariés. Il/elle aide Cloud Officer à aligner les solutions cloud avec les objectifs et buts de l'entreprise et superviser les opérations cloud d'un point de vue technique pour fournir la meilleure valeur sur les services cloud. o Soutenir le Cloud Officer dans la vision du paysage cloud en fournissant des contributions et des analyses o Diriger l'extension de la pratique FINOPS au sein du client en travaillant en étroite collaboration avec des coéquipiers des différents produits et équipes en charge des opérations quotidiennes o Concevoir et mettre en œuvre une analyse appropriée sur l'utilisation, la qualité, les performances et la valeur générée des services Cloud. o Collaborer au programme de perfectionnement pour les services cloud en fournissant une formation et une sensibilisation aux services avancés o Collaborer à la conception et à la gestion des services Cloud et d'infrastructure et assurer leur sécurité, leur disponibilité, et fiabilité o Assurer la livraison et la mise en œuvre des solutions techniques convenues o Participer à la mise en œuvre des processus, normes, directives et contrôles d'assistance informatique o Surveiller et rendre compte du respect, de la performance et coordonner ou intervenir chaque fois que nécessaire VOS DOMAINES DE CONNAISSANCES ET D'EXPERTISE COMPÉTENCES FONCTIONNELLES VOTRE ÉQUIPE Ligne hiérarchique (directe/indirecte) : Cloud Officer sur une base régulière et permanente. Intervenants internes clés : Directeur de la gestion des services, Toute autre équipe produit consommant des services cloud, notamment (Cloud & Infra, Données technologiques mondiales) Acteurs externes clés : Fournisseurs de services Cloud (Microsoft, AWS,...
Mission freelance
Développeur Python AWS
En tant que Développeur Back-End, vous serez responsable de la conception et du développement des services back-end, en particulier autour des API, de l'intégration avec des services AWS, et du scripting pour automatiser les tâches courantes. Vous travaillerez principalement avec Python , en utilisant les services d' Amazon Web Services (AWS) pour déployer et maintenir des applications scalables, performantes et sécurisées. Responsabilités : Développement de services API : Concevoir et développer des API RESTful robustes et sécurisées en utilisant Python et des frameworks tels que Flask ou Django . Intégration AWS : Développer et intégrer des services avec les solutions cloud d'Amazon Web Services (Lambda, S3, EC2, RDS, API Gateway) pour assurer une scalabilité et une haute disponibilité des applications. Scripting et automatisation : Créer des scripts d'automatisation pour des processus liés à l'infrastructure, au déploiement (CI/CD) ou à la maintenance de services (Bash, Python). Optimisation des performances : Identifier et résoudre les goulots d'étranglement dans les applications, en optimisant les temps de réponse et la gestion des ressources cloud. Sécurité et conformité : Implémenter des mesures de sécurité pour protéger les données sensibles, en gérant les permissions et les authentifications via AWS IAM et OAuth2/OpenID pour les API. Intégration continue et déploiement : Participer à la mise en place de pipelines de CI/CD en collaboration avec l'équipe DevOps pour automatiser les tests et déploiements (AWS CodePipeline, Jenkins, GitLab CI). Maintenance et support : Assurer la maintenance des services back-end et apporter un support aux équipes de développement pour résoudre des problèmes techniques ou optimiser les processus.
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Offre d'emploi
CC / ARCHITECTE SOLUTION AWS MDM
Missions principales : Conception de l'architecture MDM sur AWS : Élaborer et mettre en place des solutions MDM robustes sur AWS. Définir l'architecture globale pour la gestion des données de référence en assurant la scalabilité et la sécurité. Gouvernance des données : Mettre en oeuvre les processus et les règles de gouvernance des données de référence. Garantir la qualité, l'intégrité et la disponibilité des données MDM. Intégration et Interopérabilité : Intégrer les solutions MDM avec les systèmes existants (ERP, CRM, applications métiers, etc.). Assurer la communication fluide des données entre les différents systèmes via des API et des pipelines de données. Support et optimisation : Assurer le support technique et les optimisations continues des solutions MDM sur AWS. Identifier les opportunités d'amélioration et proposer des solutions innovantes. Sécurité et conformité : Appliquer les bonnes pratiques de sécurité et assurer la conformité avec les standards en vigueur (RGPD, etc.).
Offre d'emploi
Finops AWS AZURE
💼 Poste : Finops AWS AZURE 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Après une première phase d’acculturation aux bonnes pratiques Finops des équipes *CR réalisée sur Q1 2024, il s’agit maintenant de réaliser en mode proactif l’analyse Finops du parc applicatif afin d’identifier les gains possibles, en particulier sur le cloud privé. Dans ce cadre la prestation consiste à contribuer à/au(x) : Mettre en pratique la démarche Finops au sein de l’équipe RCR et prouver la valeur apportée Documenter les étapes de cette première analyse afin d’être en mesure de la reproduire sur d’autres périmètres, auprès d’autres clients. Présenter les constats et recommandations issus de cette première analyse à notre client, au niveau managérial et opérationnel. Livrables attendus Les livrables attendus sont : Documentation de la démarche suivie à fin de reproduction sur d'autres périmètres applicatifs Compte-rendu de l'analyse Finops réalisée pour présentation des constats et assistance au client (aux niveaux managérial et opérationnel) 🤝 Expertises spécifiques : Amazon Web Services ( AWS ) Compétences en développement (Shell unix, Perl, PHP, Python, git, github) MS Azure
Offre d'emploi
Finops AWS AZURE
💼 Poste : Finops AWS AZURE 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Après une première phase d’acculturation aux bonnes pratiques Finops des équipes *CR réalisée sur Q1 2024, il s’agit maintenant de réaliser en mode proactif l’analyse Finops du parc applicatif afin d’identifier les gains possibles, en particulier sur le cloud privé. Dans ce cadre la prestation consiste à contribuer à/au(x) : Mettre en pratique la démarche Finops au sein de l’équipe RCR et prouver la valeur apportée Documenter les étapes de cette première analyse afin d’être en mesure de la reproduire sur d’autres périmètres, auprès d’autres clients. Présenter les constats et recommandations issus de cette première analyse à notre client, au niveau managérial et opérationnel.
Mission freelance
dev node.js / react AWS
stack technique: React / NodeJS / ShadCN / AWS / MySQL Nos outils: Slack, ClickUp, Notion, Chargebee, Pipedrive etc.. Vos Missions Vous serez le bras droit du lead developper sur notre logiciel CRM et vous intégrerez une équipe technique composée de 5 personnes (CTO, 2x full stack, 1 lead dev mobile, 1 product designer) Concevoir et développer de nouvelles features pour notre logiciel CRM Faire le lien avec les équipes support et résoudre les bugs remontés Développer et maintenir les APIs existantes Coder, tester et mettre en prod son travail pour être autonome rapidement Votre Profil De formation supérieure en informatique, vous disposez d’une expérience de 1 à 3 ans dans le développement Fullstack. De préférence, vous bénéficiez de la double compétence Node.js et React.js. Vous justifiez idéalement d’une première expérience en tant que developer au sein d’une petite équipe. Vous êtes déjà capable de faire des choix techniques. Vous êtes curieux, autonome, vous avez un regard critique et vous disposez d’une grande capacité à évoluer. Vous n’avez pas peur de mettre les mains dans le cambouis, vous êtes un doer ! Si vous aimez le sport, c’est également un grand plus :-)
Mission freelance
Développeur Node Angular AWS (Mission longue)
Vos tâches toucheront en un premier temps au développement. L’équipe est composée de 2 développeurs. Vous aurez pour mission : - Le développement de nouvelles fonctionnalités - Maintenir la CI/CD sur GitLabCI - Maintenance de la plateforme sur le cloud (OVH, Kubernetes) - Gestion des machines et serveurs - Maintenance opérationnelle (gestion des montées de versions, maintenance technique, etc..) Vous devrez également : - Rédiger la doc de conception technique - Développer des Users Stories - Corriger des anomalies - Rédiger des tests unitaires - Déployer ses développements - Maintenir la CI/CD - Maintenir la plateforme de production - Mettre à jour ses tickets dans JIRA
Mission freelance
Ingénieur Cloud Platform GCP & AWS
Dans le cadre d’un remplacement, notre client recherche un Platform Engineer au sein de l’équipe Cloud Development. Cette équipe est en charge: Du développement d’une API permettant d'orchestrer les interconnexions des nouveaux projets Du développement d’un provider Terraform permettant de consommer l’API De l’accompagnement des équipes sur leur utilisation Du développement d’outils liés : Fronts web, CMDB, … De la mise en place de l’écosystème associé: CI/CD, Monitoring, ... L’équipe est actuellement composée de 4 ingénieurs et d’1 manager. Vos missions : - Vous participez à la conception et au développement de l’orchestrateur - Vous aidez à l’application des bonnes pratiques de développement d’engineering (pratiques de tests, Architecture Decision Record, …) - Vous travaillez en collaboration avec les équipes de la CPE sur le développement des features de notre plateforme - Vous assistez les clients internes à l’utilisation des solutions gérées par l’équipe - Vous participez aux mentoring des collaborateurs (Peer Programming, Peer Review) - Vous assurez le Run et l’astreinte (une semaine toutes les 4 semaines) sur les composants de l’équipe - Vous êtes amené à vous déplacer sur Lille (vie du collectif, évènements d'équipe ou de BU) L'environnement technique : Cloud Service Providers : GCP & AWS Python (FastAPI) Go (Terraform Plugin Framework) Github, Github actions Datadog GCP Cloud Run & GCP Workflows Terraform Processus : 2 entretiens Go - No Go
Offre d'emploi
Expert réseau et sécurité cloud AWS F/H/X
Rejoignez notre équipe en tant qu'Expert.e Réseau et Sécurité sénior ! Nous recherchons un exert réseau et sécurité ayant travaillé dans un environnement cloud AWS. Avec une expérience solide dans la conception et la gestion des infrastructures réseau, vous serez au cœur de notre transformation digitale. Vous aurez l'opportunité de travailler sur des projets innovants, d'optimiser les performances et de garantir la sécurité de nos systèmes. Si vous êtes passionné.e par les technologies réseau et prêt à relever de nouveaux défis, ce poste est fait pour vous !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.