Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Architecte Technique AWS
nous recherchons un Architecte Technique AWS expérimenté pour intervenir sur la conception et la mise en œuvre d’infrastructures Cloud (AWS public et privé) dans le cadre d’un projet stratégique. 🛠️ Missions principales Concevoir et mettre en œuvre des solutions d'infrastructure sur AWS (public/privé) Participer à la migration vers Terraform pour l’automatisation des déploiements Documenter les architectures techniques (DAT, Dossier de Conception, RFI/RFP) Collaborer étroitement avec les équipes de développement Assurer un support technique aux équipes internes
Data SysOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
Ingénieur Devops AWS

Nous recherchons un Ingénieur Devops AWS Objectif global : Accompagner le client dans l'administration AWS - Anglais impératif Les livrables sont: Gestion des locataires cloud Configuration du service d'IA Contrat de niveau de service Compétences techniques: AWS - Confirmé - Important Kubernetes - Confirmé - Important Terraform - Confirmé - Important Postgres - Confirmé - Important Connaissances linguistiques: Anglais Professionnel Impératif français Professionnel Impératif Description détaillée: Les cinq principales exigences qui déterminent l'excellence opérationnelle de la solution sont les suivantes : ● Disponibilité du service ● Latence et performances ● SLA à 99,5 % et latence < 5 s ● Amélioration continue ● Documentation
Ingénieur SysOps AWS H/F

SysOps AWS linux Localisation : 92 TT : 2 jours - Vous allez accompagner les équipes de développement du pole sur le move to cloud - Vous allez mettre en place les éléments de monitoring - Vous ferez des préconisations sur la partie Finops Expérience ci-dessous requise (obligatoire): > Expérience confirmée d’ingénieur SysOps AWS > 3 ans > Expérience confirmée en IAC Terraform > Expérience forte de Build et de Run des services serverless AWS > Certifications AWS appréciées > Expérience confirmé on-premise > Environnement Linux / Redhat > Une expérience sur $Univers est un plus
DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
Devops AWS Senior (10 ans et plus)

💡 Contexte /Objectifs Contexte de la mission Ces Plateformes Digitales s’appuient sur une chaine de CI/CD commune. Cette chaine de CI/CD appelée Walnut, constitue une plateforme technique déployée et maintenue par l’équipe éponyme. L’équipe Walnut s’occupe du déploiement, du maintien et de l’intégration de l’ensemble des outils composant la chaine de CI/CD d’Engie Digital. Elle porte également un rôle de conseil et de bonnes pratiques auprès des autres plateformes Digitales, mais aussi des BUs du groupe utilisant Walnut. Les outils majeurs maintenus par Walnut sont : Github Enterprise, Jfrog Artifactory, Jenkins Cloudbees CI, GitHub Actions, SonarQube, Squash-TM, Jira, Confluence. Ce patrimoine infrastructure et applicatif doit faire l’objet d’un suivi à plusieurs niveaux : • Technique (cycle de vie et obsolescence, MCO), • Facturation (FinOps), • Sécurité (SecOps), • Industrialisation (automatisation, supervision, scalabilité, Disaster Recovery Plan) • Run : Réponse aux demandes clients 💡 Les livrables attendus sont : • Scripts d’automatisation du déploiement de l’infrastructure • Programmes d’automatisation des différentes stacks • Documentation d’architecture et d’utilisation des livrables précédents De plus, l’ingénieur devra participer à la communauté de pratique DevOps : • Intervenir régulièrement aux réunions de la communauté DevOps • Présenter des REX et des démos • Intervenir aux Webinaires du Groupe (Cloud, Sécurité…)
Data Scientist Sagemaker AWS

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Scientist Sagemaker AWS Tâches: - Formaliser la résolution du problème métier par une approche Data Science (algorithme ou analyses) structurée et priorisée - Identifier, explorer et qualifier le potentiel de nouvelles sources de données (internes et/ou externes) en lien avec les cas d’usage existants ou les objectifs de l’entreprise - Manipuler et exploiter de grands volumes de données hétérogènes pour en extraire de l’information à forte valeur ajoutée - Avoir une très bonne connaissance des différents types d’algorithmes existants (statistique et machine learning), ainsi que des framework existants. - Être autonome sur la mise en œuvre des modèles Data Science (ML & DL) performants et optimisés, et la mesure des performances théoriques et réelles - Écrire, en collaboration avec les Data Engineers, des pipelines de transformation (Big) Data efficaces, pérennes et monitorées, respectant les bonnes pratiques MLOps - Interpréter et expliquer le comportement des modèles ML en insights business activables - Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.) - Respecter et alimenter les bonnes pratiques de développement de l’équipe - Assurer une veille et un partage de connaissances (méthodologique, technologiques et des produits industrialisés) Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Développeur Cloud Python / AWS

Pour notre client expert du du domaine de l'énergie, nous recherchons un ingénieur cloud python AWS. vous rejoignez une équipe technique de 8 personnes dédiée à la conception, la mise en œuvre et la gestion de la chaîne complète de la donnée cloud. L’équipe travaille sur deux environnements cloud (AWS & Azure) avec pour objectif de maintenir, optimiser et faire évoluer l’écosystème data de l’entreprise : ingestion, stockage, catalogage, traitement et visualisation. En ce sens, vos missions : Développement des solutions et interconnexions grâce a Python (API etc...) Concevoir, développer et déployer des solutions cloud sur AWS Implémenter des traitements de données performants en Python Contribuer à la gestion et l’évolution des data lakes (AWS & Azure) Automatiser les déploiements via Terraform
DevOps Aws H/F

Nous recherchons un ingénieur DEVOPS AWS (H/F) pour renforcer les équipes de notre client et contribuer au développement continu de notre infrastructure cloud. Vous évoluerez dans un environnement stimulant où vous collaborerez avec nos équipes techniques pour garantir la disponibilité, la performance et la sécurité de nos systèmes. Dans le cadre de vos missions, vous serez amené(e) à : - Concevoir, déployer et maintenir des solutions cloud sur AWS en veillant à leur haute disponibilité et évolutivité. - Automatiser les processus d'intégration et de déploiement continus (CI/CD) afin d'améliorer l'efficacité opérationnelle. - Surveiller et optimiser les performances des applications ainsi que des infrastructures cloud. - Collaborer étroitement avec les développeurs pour assurer une bonne intégration des pratiques DEVOPS dans le cycle de vie du développement logiciel. - Mettre en place des outils de monitoring et d'alerting pour prévenir les incidents susceptibles d'affecter la qualité de service. - Participer à l'analyse, à la résolution des incidents techniques ainsi qu'à l'amélioration continue du système d'information. - Assurer une veille technologique active afin de proposer des solutions innovantes conformes aux meilleures pratiques du secteur.
Architecte AWS
Conception et automatisation de l’onboarding de comptes AWS. Conception de services et solutions AWS en Infra as Code (réutilisables et standardisés). Automatisation de tâches manuelles récurrentes par le biais de services cloud-natifs. Définition et mise en œuvre des pratiques "Automate-first" et "Self-Service". Documentation des architectures techniques, guides utilisateurs et runbooks. Participation active aux comités de revue sécurité et architecture. Mise en place d’un environnement robuste : supervision, logs, alerting, automatisation.
Sysops Aws Confirmé de 5 - d'Expérience H/F

Rejoindre notre équipe, c'est s'engager dans une aventure professionnelle stimulante au sein d'une entreprise en plein essor. Nous recherchons un(e) SysOps AWS confirmé(e), doté(e) de 5 à 7 ans d'expérience, pour intégrer l'équipe de notre client. Missions : Tu seras responsable de la gestion et de l'optimisation de notre infrastructure cloud AWS afin de garantir sa fiabilité, ses performances et sa sécurité. Tu travailleras en étroite collaboration avec les équipes de développement pour déployer et administrer des services applicatifs dans le cloud. - Assurer la maintenance et l'évolution des architectures cloud sur AWS tout en respectant les meilleures pratiques. - Automatiser les processus d'administration système à l'aide d'outils tels que CloudFormation, Terraform ou autres. - Monitorer les systèmes afin d'anticiper et résoudre proactivement les incidents. - Gérer les sauvegardes des données tout en assurant leur conformité aux normes en vigueur. - Mettre en oeuvre des solutions de sécurité pour protéger notre environnement cloud contre les menaces potentielles. - Collaborer avec l'équipe DEVOPS pour améliorer continuellement le cycle de vie du développement logiciel. - Participer à la résolution des problèmes techniques complexes affectant nos systèmes cloud.
DEVOPS AWS SENIOR F/H
Genious Systèmes recherche pour son client un(e) DevOps AWS F/H vous serez le point de référence technique pour : accompagner et assurer la migration de projets On-Premise vers la plateforme AWS. Vous collaborerez avec différentes équipes (architectes, sysadmin, développeurs, chefs de projet, experts sécurité, etc.) pour concevoir, mettre en place et maintenir des environnements Cloud performants, résilients. Responsabilités principales Conception & architecture : Participer à la définition de l’architecture et des solutions Cloud adaptées aux besoins des projets. Proposer des améliorations continues et des optimisations en termes de performance, de coûts et de sécurité. Mise en place des environnements : Déployer et configurer les ressources AWS (EC2, ECS, RDS, CloudFront, S3, ElastiCache, Direct Connect, etc.). Mettre en œuvre des pratiques d’Infrastructure as Code (IaC) via Terraform et Ansible. Mettre en place les outils et les pipelines de CI/CD avec GitLab CI. Migration de projets On-Premise vers AWS : Évaluer l’existant et proposer la meilleure approche de migration (Lift & Shift, ré- architecture, etc.). Assurer la sécurité et la conformité lors des phases de transition. Veiller à la mise en place de bonnes pratiques DevOps (tests automatisés, intégration continue, déploiement continu). Support & optimisation : Assurer un support de niveau avancé sur la partie Cloud AWS. Diagnostiquer et résoudre les incidents liés à l’infrastructure et à la plateforme. Optimiser la consommation des ressources Cloud pour réduire les coûts. Communication & collaboration : Travailler étroitement avec les équipes internes et les parties prenantes externes (fournisseurs, partenaires). Former et accompagner les équipes (développeurs, ops, etc.) aux bonnes pratiques du Cloud et du DevOps. Participer à la veille technologique et partager les connaissances à travers des workshops ou des documents internes.
Solution Architect AWS

Nous recherchons un Solution Architecte certifié Amazon , spécialisé dans le déploiement et l’optimisation de Amazon Connect . Le candidat idéal possède une expérience confirmée dans l’ intégration de la suite Amazon Connect (téléphonie, e-mail, chat) au sein d’un centre d’appels, idéalement dans le secteur bancaire. Il sera chargé de concevoir et mettre en œuvre des solutions robustes, garantissant une communication fluide et une expérience client optimisée grâce aux outils avancés d’ Amazon Web Services (AWS) .
Data Engineer Python / AWS

Missions : Développer des outils d’aide à la décision et de nouvelles architectures data. Collecter, ingérer, traiter et restituer les données (météo, fondamentales, etc.). Optimiser les coûts et les performances des solutions data. Gérer le cycle de développement, l’infrastructure et les mises en production (DevOps). Assurer la maintenance évolutive et le support technique. Accompagner les analystes et data scientists dans l’utilisation des outils. Animer des workshops et formations sur les technologies Big Data et AWS.
Ingénieur SecOps Cloud - AWS

Vous rejoignez l’équipe Infrastructure Cloud pour accompagner le build et run d’infrastructures AWS dans un environnement multi-cloud exigeant (AWS, Azure, GCP). Votre rôle : mettre en œuvre une infrastructure scalable, sécurisée et automatisée , en étroite collaboration avec les architectes, les équipes DevOps, projets et métiers. 🎯 Vos missions : Déploiement d’infrastructure Cloud en IaC avec Terraform Automatisation CI/CD (Gitlab CI) et support N3 Intégration des outils de sécurité (SSM, IAM, KMS, WAF, Inspector, Prisma Cloud…) Supervision, log management, résilience et réplication des données (S3, EFS, EBS…) Participation aux projets d’ industrialisation , finops , containerisation (Docker, ECS, EKS) Utilisation avancée des services AWS : Lambda, Fargate, Step Functions, API Gateway, Kinesis, SQS… Collaboration avec les équipes projets et métiers sur les besoins d’infrastructure Veille technologique et proposition d’innovations
INFRA - Ingénierie KAFKA Elasticsearch SENIOR

💡 Contexte /Objectifs : La mission consiste à assurer le support , l'automatisation et le maintient en conditions opérationnelles des plateformes se basant sur les technologies mentionnées ci-dessus (Elasticsearch étant la priorité forte). L’équipe étant intégrée dans des écosystèmes de solutions automatisées, une compréhension de principes DevOps et la capacité à compléter notre outillage maison dans une logique versionnée et déployée est impérative. Cette mission a clairement un orientation production et donc nous cherchons avant tout une expertise à l'aise avec la gestion de la production ( et donc par opposition , moins des développeurs). Quoiqu'il en soit, l'environnement est hétérogène et il sera demandé d'investir du temps pour automatiser la plupart des tâches L1/L2 et le passage sur des Clouds interne ou hybrides ( voir externes) Dans le cadre de l'équipe Analytics, nous créons et maintenons des architectures Big Data pour les besoins interne de l’entreprise. Pour renforcer notre équipe, nous recherchons un ingénieur Elasticsearch / Kafka /Splunk avec des connaissances avancées de ces produits (support de production et accompagnement sur des architectures de grande volumétrie). Les principales technologies supportées sont (par ordre d'importance) • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Splunk • Kafka
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Impossible de liquider mon EURL !il y a 3 heures
- Choix logiciel comptabilitéil y a 4 heures
- État du marché IT : quelles perspectives pour 2025 ?Quelle stratégie adopter en 2025 ? CDI, international ou IA ?il y a 8 heures
- Estimation immobilière gratuite dans les Ardennes : des conseils ?il y a 9 heures
- Calcul des cotisations sociales (EI à l'IS)il y a 13 heures
- Déclaration d'impots et boni de liquidation au PFUil y a 13 heures