Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur Sysops GCP H/F
Amago IT recherche pour l'un de ses clients grands comptes dans le cadre d'une mission de longue durée, basée à 92 un : Sysops GCP H/F Au sein de l'équipe plateforme sur GCP dans un fonctionnement agile (PO, Scrum master, Leader technique) Mission : - Implémentation du socle landing zone GCP et avec les évolutions à venir -Administration et support de la plateforme : gestion des incidents, surveillance et supervision, gestion des problèmes et des crises, gestion des changements, gestion des demandes dans ITSM, traitement des alertes de sécurité et de vulnérabilité. -Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions -Garantir la sécurité des ressources cloud en respectant les règles de sécurité et les bonnes pratiques -Contribuer à faire évoluer l’infrastructure en implémentant et en améliorant les règles de détections des menaces -Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’infrastructure du socle GCP -Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements GCP -Tracer tous les changements en cohérence avec les processus ITIL -Mettre en place des KPIs -Automatisation des processus -Développer et mettre en place un modèle de service à la demande -Identifier des points d’amélioration sur les outils internes -Mettre en place une architecture serverless qui permet aux métiers de suivre les habilitations de leur équipe -Réaliser et mettre en place une étude IAM sur le socle GCP -Analyser l'intégration de Dynatrace sur le socle GCP -Accompagner et POC pour l’alimentation des assets dans les tables CMDB
Mission freelance
Senior Data Engineer / DataOps h/f
Notre client, leader mondiale dans le secteur de l'industrie pharmaceutique, recherche un consultant en freelance dans le cadre d'une mission de longue durée. L' équipe IA, Digital & Data Factory fournit des solutions innovantes pour les soins aux patients, et établit une culture axée sur les données pour responsabiliser nos équipes et soutenir les décisions stratégiques. Dans ce contexte, le Data Engineer Senior / professionnel DataOps est responsable de la conception, de la mise en œuvre et de la maintenance d'une infrastructure et de pipelines de données robustes tout en assurant des pratiques DevOps optimales. Il/Elle applique son expertise en ingénierie à l'ensemble de la pile de données à des fins multiples, telles que : 1. Concevoir et maintenir des pipelines de données évolutifs, y compris le développement et l'optimisation des flux de travail ETL à l'aide d'Airflow pour le traitement et l'analyse automatisés des données 2. Mettre en œuvre des systèmes de contrôle de la qualité des données et de surveillance de diverses sources de données 3. Gestion de l'infrastructure en tant que code (IaC) à l'aide de Terraform et orchestration des pipelines CI/CD via CircleCI 4. Création et maintenance de lacs de données à l'aide des services AWS (S3, Glue...) pour soutenir les initiatives d'analyse et de ML 5. Assurer un déploiement sécurisé et conforme des solutions de données dans les environnements cloud 6. Collaborer avec des équipes transverses pour optimiser l'accessibilité des données et intégrer diverses sources de données à l'aide de bases de données SQL/NoSQL
Offre d'emploi
DevOps AWS (h/f)
Nous recherchons un Expert DevOps spécialisé en AWS pour rejoindre notre équipe et contribuer à l'optimisation, à l'automatisation et à la scalabilité de nos environnements cloud. En tant que DevOps AWS, vous jouerez un rôle central dans l'amélioration continue de nos pratiques de déploiement et la gestion d'infrastructure de nos applications. Automatisation des Déploiements : Concevoir, développer et maintenir des pipelines CI/CD (AWS CodePipeline, Jenkins, GitLab CI) pour des déploiements rapides et fiables. Gestion de l'Infrastructure : Configurer et gérer les ressources AWS (EC2, S3, RDS, Lambda, etc.) en utilisant des outils d’infrastructure-as-code comme Terraform ou AWS CloudFormation. Optimisation des Performances : Superviser et optimiser l'infrastructure pour assurer des niveaux élevés de performance, d’évolutivité et de disponibilité. Sécurité : Mettre en œuvre des pratiques de sécurité AWS (IAM, KMS, WAF) et collaborer avec l'équipe de sécurité pour garantir la conformité des infrastructures. Surveillance et Logging : Utiliser des outils comme CloudWatch, Prometheus et Grafana pour surveiller l’infrastructure, prévenir les problèmes de performance et analyser les logs. Gestion des Coûts : Surveiller et optimiser les coûts liés à l'utilisation d'AWS afin de garantir une utilisation efficace des ressources. Collaboration avec les équipes de développement : Assurer une communication fluide avec les équipes techniques pour intégrer les meilleures pratiques DevOps et supporter l’agilité.
Mission freelance
Data Manager (Architecte Data / Engineer)
Mission : En tant que Data Manager, vous serez responsable de la stratégie de gestion et de gouvernance des données. Vous identifierez les besoins métiers et les traduirez en exigences techniques, assurant ainsi une structure de données robuste et bien modélisée. Collaborant étroitement avec les équipes internes, vous soutiendrez le processus de transformation en alignant la gestion des données avec les objectifs de l’entreprise, depuis l’acquisition jusqu’à la valorisation des données. Compétences : Expertise confirmée en architecture de données avec maîtrise de SQL, Python et Snowflake pour la gestion et l'optimisation des données Expérience dans la gestion des processus de data governance et des flux de données, avec des compétences en modélisation de données et bonnes pratiques CI/CD Connaissances en outils de gestion de données dans un environnement AWS et Infrastructure as Code (Terraform)
Mission freelance
Expert Sécurité GCP / IAM (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire , un ingénieur sécurité opérationnelle expert sur GCP et ayant une bonne maîtrise de AZURE et AWS. Objectif global : Accompagner Sécurisation du cloud public régulé Contrainte forte du projet : Assurer la sécurité du cloud public régulé GCP ainsi qu'AWS et AZURE Connaissance linguistique : Anglais Professionnel (Impératif) Description détaillée : Contexte : Dans le cadre de la transformation technologique opérée par notre client sur 3 plateformes CSP (Azure, AWS et GCP), nous recherchons un consultant Sécurité GCP ayant une expertise en Identity and Access Management (IAM) sur la plateforme GCP et ayant également une bonne maîtrise des autres plateformes AWS et AZURE. Objectifs de la Mission : Audit de l'existant : Évaluer les configurations IAM actuelles sur GCP et identifier les vulnérabilités et les améliorations possibles. Conception de la stratégie IAM : Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. Mise en œuvre des meilleures pratiques : Appliquer les meilleures pratiques IAM pour la gestion des identités et des accès, notamment à travers l'utilisation de services. Formation et sensibilisation : Accompagner les équipes projet sur les concepts IAM et les outils GCP, et promouvoir une culture de la sécurité au sein de l'organisation. Documentation : Fournir une documentation complète des processus, configurations et politiques mises en place. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique
Mission freelance
Architecte Cloud AWS (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Cloud AWS (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site 2 jours + 3 jours télétravail Les missions attendues par le Architecte Cloud AWS (H/F) : Le Cloud Architect assure la meilleure utilisation du Cloud au sein du sous-domaine N3, en lien avec les besoins métiers et les principes directeurs data, SI&T du programme. Il construit les architectures Cloud, challenge les propositions, apporte son aide et ses conseils aux équipes Produit et fait le lien avec les autres architectes. RÔLE ET RESPONSABILITÉS PROFIL TYPE S'assure de l'utilisation optimale des services Cloud sur la Landing Zone EDF, identifie les limites S'assure que les services Cloud utilisés répondent aux objectifs business S'assure que l'architecture réponde aux enjeux de sécurité Participe à l'identification des exigences non fonctionnelles (e.g. scalabilité, performance, disponibilité…) Participe à la définition et à la priorisation des enablers technologiques et exigences non fonctionnellesn de son sous -domaine Identifie et remonte les besoins d'amélioration des plateformes Cloud aux équipes transverses Audit, challenge et conseille les équipes Produit sur les choix techniques Participe à la rédaction des dossiers techniques et cyber Appuie l'architecte solution sur les dossiers d'étude technique (cloud, data, sécurité, ...) et apporte son expertise sur les services Cloud et leur implémentation S'appuie sur les équipes cyber pour s'assurer de la résilience cyber, et remonte les besoins d'amélioration sur les aspects cyber Intervient auprès des équipes tout au long de la vie du Produit Garant de la bonne application des exigences et principes directeurs data, cyber, SI&T du programme et de la bonne utilisation des services et outils communs Participe à l'amélioration continue des plateformes Cloud en étant force de proposition pour y apporter des patterns/ templates mutualisables à l'ensemble des produits Participe activement à la communauté d'architecture du Programme
Mission freelance
Cloud Architect
Concevoir des fonctionnalités de plateforme permettant à l'entreprise de développer et d'exploiter des produits de données/ensembles de données Intégrer dans les propositions et les conceptions les défis de la mise à l'échelle des services de la plateforme et prendre en compte la nécessité de construire la plateforme en tant qu'infrastructure en tant que code, les exigences d'autonomie des clients de la plateforme et les exigences des autres parties prenantes de l'entreprise Rédiger des user stories dans le backlog en vue de leur affinement par l'équipe d'ingénieurs de la plateforme. Soutenir les autres membres de l'équipe dans la gestion du RUN et du Build.
Mission freelance
MLOPS ENGINEER
Contexte de la mission Intégré à une équipe Produit, l'ingénieur MLOPs contribue à l'industrialisation de modèles ML déjà développés. Nous avons besoin de quelqu'un qui peut nous aider à automatiser et à améliorer notre pipeline de ML, à mettre en place des pratiques de MLOps et à assurer la qualité des données. Objectifs et livrables Nous cherchons à atteindre les objectifs suivants : Implémenter les pipelines automatisés pour le déploiement et la surveillance des modèles (Gestion des alertes) Amélioration et automatisation du pipeline de ML Mise en place de pratiques de MLOps et d'outils IA Assurer la qualité des données Optimiser l'efficacité et la scalabilité des flux de travail ML
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Offre d'emploi
Expert en sécurité cloud AWS-IAM H/F
Objectifs de la mission : Audit de l'existant : Évaluer les configurations IAM actuelles sur AWS et identifier les vulnérabilités et les améliorations possibles. Conception de la stratégie IAM : Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. Mise en œuvre des meilleures pratiques : Appliquer les meilleures pratiques AWS pour la gestion des identités et des accès, notamment à travers l'utilisation de services tels que AWS IAM, AWS Organizations, AWS SCP et autres. Formation et sensibilisation : Accompagner les équipes projet sur les concepts IAM et les outils AWS, et promouvoir une culture de la sécurité au sein de l'organisation. Documentation : Fournir une documentation complète des processus, configurations et politiques mises en place.
Mission freelance
DEVOPS
· Commissionnement/ décommissionnement de l’infrastructure AWS (EC2, RDS, ELB/ALB, AWS S3) · Maintenir et évoluer la chaine d’intégration continue Jenkins (création, modification des jobs..) · Installer les composants logiciels d’infrastructure (JRE, PHP, apache, postgreSQL..). · Déploiement des applications du programme (configuration Zuul et exécution des jobs jenkins). · Analyse et résolution des incidents survenus en production (application non disponible, serveur non disponible….). · Analyse et optimisation des performances. des serveurs (Processus, RAM, FS, CPU, nbr de transactions) · Etre le garant du respect des bonnes pratiques de livraisons (création de branches dans Git, upload dans nexus….) · Faire et suivre des demandes d’ouverture de flux inter-applicatifs et inter-plateformes. · Alerter les équipes projets sur les risques liés aux configurations et performances de leurs applications. · Etre le principal point de contact avec les équipes d’infrastructure pour le programme lors des phases de mise en production. · Transverse : · Préparation des playbook Ansible de la plateforme. · Maintenir le dossier de configuration et d’exploitation. · Maintenir les images docker utiliser. · Maintenir les job jenkins en place. · Préparation des helm charts des applications. · Travailler avec les architectes du programme pour étudier les évolutions · Adopter une approche devops (containérisation, infrastructure as code….)/ · Minimum 5 ans d’expérience dans un contexte technique similaire · Bonnes connaissances des technologies et applications Web · Bonne maîtrise de l’Anglais impérative (les équipes tech et les Stakeholders sont tous à l’international) · Docker, kafka ou ESB similaireExpérience des enjeux du développement de solutions B2B pour des clients grands comptes · Connaissance d’un broker de messages comme Kafka · Expériences avec des applications manipulant de fortes volumétries de données · Aisance dans une équipe agile, scrum et/ou kanban · Connaissance des workflows de gestion de projet ANGLAIS Indispensable
Offre d'emploi
AWS Data Engineer
Prendre part à la réalisation du workplan, réaliser les user stories définies dans le backlog. Participer, avec les autres membres de l’équipe à la gestion du RUN, aux activités de support et aux travaux de Build. Livraison des artefacts et suivi des mises en prod Automatiser et améliorer les activités de RUN (et SRE), suggérer des optimisations (process, ou consommation Finops par exemple) Maintenir les documentations des produits “User Centric” : sera à l’écoute de ses utilisateurs et recherchera leur feedback pour construire et améliorer la solution (UX) Force de proposition sur les meilleures pratiques "shift left" pour les contrôles sur le code sur la sécurité, qualité, résilience, FinOps Force de proposition sur les bonnes pratiques d’observabilité, de monitoring et le SRE (stack actuelle: Azure App Insights, Grafana)
Mission freelance
Ingénieur DevOps
L’ingénieur devops fait partie d’une équipe agile chargée du développement, des évolutions, de la maintenance, et de la mise en place d’une approche devops, des déploiements/configuration d’une ou plusieurs applications construites sur des technologies Java et php. Ces applications sont le plus souvent de type « web », impliquant des bases de données relationnelles, des interfaces REST, et des échanges asynchrones de messages. Il se positionne naturellement comme le principal point de contact sur les sujets techniques opérationnels de déploiement de applications, de préparation des infrastructures et de mise ne place de la plateforme d’intégration cotinue et devops. Il est amené à échanger au quotidien avec : - Des Product Owners - Un architecte - Des intégrateurs et exploitants - Des Tech Leads et équipes de développements Principales tâches relatives à la mission : · Commissionnement/ décommissionnement de l’infrastructure AWS (EC2, RDS, ELB/ALB, AWS S3) · Maintenir et évoluer la chaine d’intégration continue Jenkins (création, modification des jobs..) · Installer les composants logiciels d’infrastructure (JRE, PHP, apache, postgreSQL..). · Déploiement des applications du programme (configuration Zuul et exécution des jobs jenkins). · Analyse et résolution des incidents survenus en production (application non disponible, serveur non disponible….). · Analyse et optimisation des performances. des serveurs (Processus, RAM, FS, CPU, nbr de transactions) · Etre le garant du respect des bonnes pratiques de livraisons (création de branches dans Git, upload dans nexus….) · Faire et suivre des demandes d’ouverture de flux inter-applicatifs et inter-plateformes. · Alerter les équipes projets sur les risques liés aux configurations et performances de leurs applications. · Etre le principal point de contact avec les équipes d’infrastructure pour le programme lors des phases de mise en production. · Transverse : · Préparation des playbook Ansible de la plateforme. · Maintenir le dossier de configuration et d’exploitation. · Maintenir les images docker utiliser. · Maintenir les job jenkins en place. · Préparation des helm charts des applications. · Travailler avec les architectes du programme pour étudier les évolutions · Adopter une approche devops (containérisation, infrastructure as code….)/ Environnement technique · JIRA, Bugtracker · Jenkins, Docker/Kubernetes sur AWS, Maven/NPM, GIT, Sonar, ELK Stack · Amazon web service (S3, RDS, api gateway,….) · Architecture Event-Driven (messaging via Kafka) · JAVA, Postgres SQL · Languages : scripting, Java 8, Liquibase, Flyaway, REST, Groovy, Helm · Middleware : Apache, Nginx, tomcat, kafka Security : SSL, OAuth2, SSO, Forgerock
Mission freelance
Architecte Plateformes Data Cloud confirmé (H/F)
Nous recherchons pour l'un de nos clients un.e Architecte Plateformes Data Cloud confirmé.e pour accompagner un projet de transformation technologique. Vous serez responsable de l’architecture et de la mise en œuvre de solutions basées sur des plateformes Data et AI dans un environnement cloud (AWS, Snowflake), en collaboration avec diverses équipes techniques. Missions et Activités Coordination et gestion des dossiers d'architecture : Assurer le lien entre les équipes Data et les autres équipes techniques (sécurité, réseau, factory). Présenter les dossiers d'architecture aux parties prenantes et garantir leur bonne compréhension. Conception d'applications Data modernes : Travailler sur la conception de solutions data, en s’appuyant sur des architectures innovantes (Data Mesh, produits orientés data). Maîtriser les technologies Data et MLOps, avec une expérience sur AWS et Snowflake. Suivi et coaching technique : Revoir les configurations des infrastructures cloud (Terraform) pour garantir conformité et efficacité. Superviser les composants techniques pour les projets MLOps et DataOps. Évaluation et veille technologique : Réaliser des études comparatives des solutions du marché pour définir les meilleures options en termes de coûts et d’efficacité. Proposer des méthodologies d'évaluation et élaborer des roadmaps de sélection. Intégration des solutions SaaS : Analyser l’intégration des solutions SaaS (AWS, Snowflake, Azure AD) dans l’écosystème client et coordonner les tests de sécurité. Gestion et optimisation de l’infrastructure Cloud : Assurer la gestion des comptes cloud et des certificats, en collaboration avec les équipes Cloud Ops. Mettre en place des pratiques FinOps pour optimiser les coûts liés à l’infrastructure. Mise en œuvre des pratiques DevOps et DataOps : Participer à l’adoption de méthodologies agiles et aux meilleures pratiques DevOps pour améliorer les processus de développement.
Offre d'emploi
Chef de projet / Product Owner Cloud H/F
NOOEH Entreprise de Service du Numérique basée à Aix-en-Provence recherche pour le compte d'un de ses clients situés à Vitrolles un.e Chef de projet / Product Owner Cloud. Vous serez en charge de piloter et coordonner la mise en place de la Landing Zone V2 dans le cadre du programme de transformation vers le Cloud public. Définir, planifier et prioriser les produits du Cloud Center of Excellence (CCoE) relatifs à la livraison de la Landing Zone V2. Contribuer à l’organisation des tâches des membres du CCoE et des équipes parties prenantes pour livrer des services et outils partagés. Participer à l’élaboration des processus et du RACI liés à la Landing Zone. Collaborer avec des équipes transverses pour informer et suivre l’avancement de la road map produits. Mettre en place les premiers services du catalogue CCoE / AWS (backup, monitoring, etc.). Favoriser l’adoption des méthodologies Agile au sein de l’équipe et des parties prenantes.
Offre d'emploi
Ingénieur SysOps
Contexte : La DSI recherche un ingénieur SysOps AWS pour rejoindre ses équipes. Missions : Développer pour les projets l’infrastructure et services AWS en IAC avec Terraform, déployer, gérer et opérer dans une optique de sécurité, de scalabilité, de performance, de haute disponibilité, de tolérance aux pannes et d'optimisation financière. Accompagner la monté en compétences des équipes projets, leur assurer le support sur les services et usages AWS. Mettre en place tous les outils pour assurer le run: sécurité, monitoring, alerting, sauvegarde, process et outils de reprise, etc.. Réaliser la documentation nécessaire. Appliquer et s'assurer du respect des normes de sécurité, optimisation finops et autres règles de conformité Sacem. Participer à la MCO et au Run des produits développés. Participer à la mise en place des environnements de développement. Ecriture des pipeline CI et de déploiement. Participer à la maintenance des serveurs on-premise
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.