Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Ops Engineer (nous recherchons un candidat qui habite à Lille)
L'équipe assure les évolutions et la maintenance en conditions opérationnelles des outils de l'usine logicielles de Build dans le Cloud. L’usine est fonctionnellement et technologiquement hétérogène et fait appel à des compétences variées (architecture technique, exploitation, administration d’outils, automatisation, pilotage des usages…), et répond à des besoins en constante évolution. Nous privilégions le travail collaboratif : pairing, revues de codes, post-mortems. Astreinte une semaine sur 6. Description : L'usine logicielle est composée de différents produits que l'équipe Avengers installe et maintient pour ses utilisateurs : Gitlab, Runners MacOS, Jenkins, Artifactory, Puppet, Rundeck, Sonar, Vault. Pour compléter notre équipe, nous cherchons un ingénieur de production avec une expertise CI/CD, infra as code, Docker. Responsabilités : l Contribuer au run de l'équipe : évolutions et créations des stacks techniques (déploiement Terraform, MAJ des outils, mise en place de supervision, … ), support utilisateurs sur nos services l Contribuer au développement des solutions internes, de librairies et des bonnes pratiques l Contribuer aux choix technologiques d'évolution et d'exploitation de nos outils : workflows de déploiement, choix des outils, … l Participer au processus d'amélioration continue (Post mortem, REX, Cérémonies Agiles …) l Rédaction de documentation / LADR Livrables • Suivi opérationnel : mise en place et suivi de métriques sur nos environnements de prod et hors prod (intégration, recette), suivi du statut des environnements, support technique sur les environnements. • Contribution aux releases et déploiements/livraisons de nos assets en prod et hors prod. • Industrialisation de nos processus et pratiques (gestion des versions, releases, releases notes, notes d’installation, procédure de déploiement etc). • Prise en charge des évolutions techniques sur les produits : montée de versions, sujets de sécurité, évolutions des pods ou de pipelines. • Participation au suivi sécurité sur nos assets. • Participation à la conception et à la réalisation de nos produits : infrastructure et besoins non fonctionnels (monitoring, performance, exploitation…).

Mission freelance
Consultant CloudOps
- Gérer, approvisionner et faire évoluer les différents socles AWS dans une approche Infra-as-Code en respect du cadre technologique Cloud ; - Contribuer à l’amélioration, l’automatisation et la mise en conformité des produits en RUN en respect du cadre d’Exploitation ; - Accompagner les équipes produits dans la résolution de leurs vulnérabilités cyber ; - Documenter - et contribuer à la rétro-documentation – du patrimoine technique des produits ; - Veiller à l’efficience budgétaire des environnements et des outils du Produit (cadre FinOps/GreenOps) ; - Accompagner les équipes produits dans la mise en place et l’optimisation de leurs pipelines CI/CD afin de réduire les efforts de déploiement ; - Réaliser les travaux dans le cadre de travail agile de l’équipe ; - Accompagner et former les développeurs et l’exploitant à la compréhension et l'usage de des solutions DevSecOps (mentoring) ;

Mission freelance
Data engineer AWS quicksight F/H
Notre client dans le secteur Biens et services de consommation recherche un Data engineer AWS quicksight H/F Descriptif de la mission: Notre client, leader dans le secteur de l'hôtellerie, cherche à renforcer sa Digitale factory. Au sein de la Business, Digital & Tech, l'équipe Dev Platform a la responsabilité d’améliorer l’expérience des équipes de développements dans leur utilisation des outils de delivery, cela couvre la récolte des besoins, la priorisation des demandes dans les streams de solution et le support à l’intégration au sein de nous 50 feature teams organisés en tribes et verticales. Pour piloter nos activités, l’équipe a développé une solution interne R2D2 (Reach Relevent Delivery data) basé sur Amazon Quicksight. Le but étant de suivre les indicateurs de qualité et DevSecOps de l’organisation. Description de la mission : 1) Le premier objectif de la mission est de collaborer afin de collecter les Flow Metrics des Feature Team (ex : Cycle Time, Throughput, backlog age, …) et les publier sur R2D2. Pour se faire il faudra collaborer avec notre Lean Agile Center afin de définir le besoin et configurer la collecte de donnée, les datasets et la représentation dans les dashboards. 2) L’objectif 2 est d’exposer les DORA Metrics des Features Teams, la source de donnée sera Service Now + Splunk O11Y 3) L’objectif 3 est d’améliorer l’expérience des utilisateurs de R2D2 en proposant les Topics pour créer des Visuals Quicksight en langage naturel, en intégrant des modèles prédictifs via SageMaker, en proposant une expérience conversationnelle avec AWS Bedrock Compétences techniques : - Quicksight, Cloud Front, Api Gateway, Lambda, Event Bridge, Glue, Athena, Kinesis dataStream, CloudWatch - Gitlab CI - Terraform - Sage Maker, DataHaiku, SnowFlake, Tableau - Bedrock, RedShift, Kendra Compétences / Qualités indispensables: Quicksight,Splunk ,Terraform,Sage maker,AWS bedrock Compétences / Qualités qui seraient un + - Anglais courant obligatoire (contexte international niveau B2 minimum) - Bonne communication orale et écrite - Autonome - Capacité d’analyse et de synthèse - Connaissance des solutions Cloud (priorité sur AWS) - Capacité à bien appréhender l’architecture et l’infrastructure d’un SI - Organisé, vous savez challenger des visions de manière constructive et proposer des méthodologies rigoureuses. - Forte capacité d'analyse combinée à une excellente capacité à comprendre des domaines fonctionnels hétérogènes. - Connaissances concept de l’Agilité (Scrum, Kanban, SaFE) - Intérêt pour la technique et les nouvelles solutions technologiques est un plus. Expériences requises : - Au moins 5 ans d'expérience

Mission freelance
Ingénieur Devops Infrastructure Teraform Dockers Anglais
Ingénieur Devops Infrastructure A1WS Teraform Dockers Anglais Gestion de l'infrastructure cloud : Déployer et gérer les infrastructures sur AWS (S3, Lambda, SageMaker, ECS, etc.), en utilisant des outils d’Infrastructure as Code (IAC) tels que Terraform pour garantir des déploiements reproductibles et scalables. • Orchestration des microservices : Gérer et optimiser les microservices qui composent les solutions de chatbot, en utilisant des outils comme Docker et ECS Fargate pour garantir une gestion fluide des containers à grande échelle. • Surveillance et monitoring : Implémenter des solutions de monitoring et d’alerting pour surveiller la performance des chatbots et détecter les anomalies en temps réel. • Sécurité et conformité : Assurer la mise en place de bonnes pratiques en matière de sécurité (gestion des identités et des accès, gestion des secrets, etc.) et veiller à la conformité des infrastructures avec les standards en vigueur. • Optimisation continue : Identifier et mettre en œuvre des améliorations pour optimiser la performance, la scalabilité et la résilience des systèmes déployés. Profil recherché : • Expérience : Minimum 5 ans d’expérience en DevOps, avec une solide expérience dans le déploiement et l’orchestration de solutions cloud à grande échelle. • Compétences techniques : ○ Maîtrise des outils AWS (S3, ECS Fargate, EC2, Lambda, DynamoDB, SageMaker, etc.) et des concepts cloud. ○ Expérience avec les outils de gestion de containers à grande échelle. ○ Maîtrise d’outils d’Infrastructure as Code (IAC) comme Terraform pour automatiser le déploiement des infrastructures. ○ Connaissance de l'automatisation des pipelines GitLab CI. ○ Expérience avec des outils de surveillance et de monitoring (Datadog et Dynatrace). • Compétences en sécurité : Expérience en gestion des secrets, politiques de sécurité cloud, et mise en place des bonnes pratiques en matière de sécurité des systèmes distribués. • Connaissances en DevOps pour l’IA : Une expérience avec des déploiements liés aux modèles de Machine Learning (ex : AWS SageMaker, modèles PyTorch/TensorFlow) est un plus. • Curiosité scientifique : Intérêt pour l’IA générative, les systèmes de recommandation et les chatbots dans un environnement en constante évolution. 470 e

Offre d'emploi
Data Scientist Sénior
En tant que Data Scientist, vous aurez pour premier rôle la réalisation de projets de Data Science pour la direction, autour des Use Cases de type Document Processing / Understanding, afin d'automatiser des processus Métier. Pour y parvenir il sera nécessaire de collaborer avec les ML Engineer / Data Engineer de l'équipe pour industrialiser les projets en Production, ainsi que de contribuer aux outils de monitoring nécessaires pour suivre la performance des IA livrées. Vos missions seront les suivantes : Opérationnelles : · Participer à la compréhension des besoins métiers et développer une proposition de valeur en accompagnant les Product Owners (faisabilité, pré-requis, timing) · Être garant de la qualité scientifique et de code des algorithmes développés, de la phase de prototype jusqu’à l’industrialisation et tout au long du run en production (retrain, drift detection …) · Structurer dès le démarrage les projets et le code dans la perspective d’une industrialisation de la solution IA et d’une intégration fluide dans le process métier : une IA réussie est une IA utilisée · Participer et animer au niveau de l'application des pratiques MLOPS, notamment au travers des code reviews, du peer programming ou des sessions de partage · Aider à organiser et à orienter le travail dans la bonne direction, en complément du Product Owner en questionnant le why et en cherchant une équilibre bénéfice / coût · Avoir une démarche IA responsable Transverses : · Participer à la mise en place et au maintien de bonnes pratiques de code et de modélisation au sein de l’équipe, dans une logique MLOps · Réaliser une veille active sur les dernières avancées dans les domaines de la data science & l’IA, mais aussi sur les acteurs du marché afin d’évaluer leur intérêt potentiel · Adopter une posture de conseil envers les différentes directions, afin de les accompagner dans l’usage de la data et de l’IA pour répondre à leurs problématiques · Collaborer avec le management afin de structurer et planifier la roadmap de l’équipe ainsi que le staffing des projets · Contribuer activement au rayonnement des travaux de l’équipe via des présentations didactiques ou des formations, pour un public large comme d’experts

Mission freelance
Product Manager Sénior Anglophone (Solutions Architect & PPO)
Nous sommes à la recherche d'un Product Manager Sénior Anglophone (qui est une fusion entre un Solutions Architect & PPO) vous dirigerez les évaluations/études dans le segment d'activité HPS (Solutions Haute Performance) et participerez à l'évaluation post-évaluation à la phase d'exécution du projet Objectifs et livrables • Organiser l'étude et recueillir les exigences de toutes les parties prenantes • Comprendre l'ambition, les enjeux et les objectifs de l'entreprise • Organiser et animer des ateliers avec les entreprises • Recueillir toutes les entrées commerciales requises pour l'étude • Documenter l'architecture fonctionnelle • Faire de la modélisation de données/concevoir des couches métier (couche Silver) • Organiser les contributeurs Data As a Service (Architecte Technique, Ingénieurs Data & BI) • Documenter la valeur de la solution • Préparer le budget et la planification de la construction/exécution • Formaliser les propositions finales « Go to project » Compétences - Data Analysis : Expert - ERP : Confirmé - Business Intelligence : Confirmé - Cloud Data Platform : Confirmé - Communication : Expert - Data Modeling : Expert - SQL : Expert - English : Expert Compétences attendues : • Très bonne communication en français et en anglais • Exploration, analyse et modélisation de données (modélisation conceptuelle et physique) • Connaissance suffisante des systèmes ERP (SAP, QAD), CRM (Salesforce); la connaissance du système de fabrication est un plus • Forte attention portée à l'application de la méthode, au travail rigoureux et à l'organisation efficace • Centré sur le client (réalisation d'entretiens clients, temps de réponse court et concis)

Mission freelance
DATA ENG AWS
Principales missions - Maîtrise des outils Databricks (création de jobs, cluster, notebook) et pouvoir requêter efficacement avec SQL - Maintien en condition opérationnelle de la plateforme en production (analyse et correction d’incidents, de defects) - Développement des jobs d'ingestion et transformation data Python avec Spark sur de gros volumes de données - Fournir une vision long terme, tant opérationnelle qu’en terme de stratégie de plateforme data - Accompagner et promouvoir les bonnes pratiques - Participer aux ateliers de conception techniques et fonctionnels - Rédaction et actualisation de la documentation technique Compétences techniques recherchées dans l’ordre de priorité : - MUST o Python o Spark o SQL - SHOULD o Databricks o AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) - COULD o Big DATA - WOULD o GIT Méthodologies : - CI/CD avec Gitlab - JIRA / Confluence - Scrum

Offre d'emploi
Data Eng AWS
Principales missions - Maîtrise des outils Databricks (création de jobs, cluster, notebook) et pouvoir requêter efficacement avec SQL - Maintien en condition opérationnelle de la plateforme en production (analyse et correction d’incidents, de defects) - Développement des jobs d'ingestion et transformation data Python avec Spark sur de gros volumes de données - Fournir une vision long terme, tant opérationnelle qu’en terme de stratégie de plateforme data - Accompagner et promouvoir les bonnes pratiques - Participer aux ateliers de conception techniques et fonctionnels - Rédaction et actualisation de la documentation technique Compétences techniques recherchées dans l’ordre de priorité : - MUST o Python o Spark o SQL - SHOULD o Databricks o AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) - COULD o Big DATA - WOULD o GIT Méthodologies : - CI/CD avec Gitlab - JIRA / Confluence - Scrum
Offre d'emploi
Responsable de la stratégie DataOps
Nous recherchons un(e) expert(e) en DataOps pour établir et piloter la stratégie de gestion des données de notre client. Cette personne aura la responsabilité de définir, mettre en œuvre et optimiser les processus, outils et méthodologies liés aux pratiques DataOps afin de garantir une exploitation efficace et fiable des données. Responsabilités : Élaborer et mettre en œuvre la stratégie DataOps en alignement avec les objectifs métier de l’entreprise. Concevoir et optimiser les pipelines de données pour assurer une ingestion, transformation et distribution efficace. Automatiser les processus de gestion des données pour améliorer l'efficacité et la qualité. Mettre en place des pratiques de CI/CD pour les flux de données et assurer leur monitoring. Collaborer avec les équipes Data Engineering, DevOps et IT pour garantir la fiabilité et la scalabilité des infrastructures. Définir et implémenter des standards de gouvernance, sécurité et conformité des données. Surveiller les performances des systèmes DataOps et proposer des améliorations continues. Assurer la formation et la montée en compétences des équipes sur les pratiques DataOps. Suivre les évolutions technologiques et recommander des solutions innovantes adaptées aux besoins de l’entreprise.

Mission freelance
Lead Technique IaaS
Nous recherchons un Lead Technique sera chargé de l’accompagnement et de l’orientation technique de l’équipe IaaS dans ses choix technologiques, au sein de la plateforme IaaS. Responsabilités : Participer activement à toutes les cérémonies agiles de l’équipe IaaS. Assurer la liaison technique entre les différentes plateformes Cloud et l’équipe IaaS. Collaborer avec le Product Owner (PO) pour alimenter le backlog. Prendre en charge des tâches techniques, notamment sur les technologies suivantes : GCP, GCE, MIG, Filestore, Terraform, Ansible, Python. Contribuer à la gestion des problématiques IaaS et Cloud Function/Lambda.
Offre d'emploi
Lead Développeur Python
Pour un grand compte dans le secteur de l'énergie, l'objectif est de prendre en charge les développements back et front d'une application de gestion du chaud et du froid. Prestations à exécuter : Maintien en condition opérationnelle de l’application . Développement de nouvelles fonctionnalités : Développement d’écrans en React. Développement des APIs dans le Back For Front. Refonte du back-end de l’application. Écriture de tests unitaires sur le code produit. Écriture de tests end-to-end (NRT) sur l’application. Participation au support sur l’application aux autres équipes.
Mission freelance
Consultant Tableau Software /PREP/ DESKTOP / SERVER / SQL (H/F)
Nous recherchons pour le compte de notre client dans le domaine de l'Energie, un consultant TABLEAU SOFTWARE ayant de l'expérience sur Tableau PREP impératif et une expérience sur le clous AWS serait un plus. Missions : Data Visualisation : réalisation de visualisations simples à complexes - Accompagnement des référents métiers/MOA et utilisateurs - En charge du maintien en condition opérationnelle du serveur TABLEAU et des sites gérés par la DSIN - Administration du serveur et de sites TABLEAU - Evangélisation - Support aux utilisateurs dans la réalisation de leurs propres analyses et flux de préparation des données sur Tableau - Communication - Dispense de formation TABLEAU Desktop et TABLEAU Prep - Animation des communautés Tableau - Bonnes pratiques et performances : capacité à évaluer les réalisations de visualisation / tableau de bord de tiers en termes de meilleures pratiques de visualisation et de bonnes pratiques de performances (ex : vitesse d'affichage) - Participation aux décisions / choix d'architecture du serveur Tableau

Mission freelance
Splunk Architect - Remote - 6 Months
En tant qu'architecte Splunk, vous serez un élément essentiel de notre équipe, dirigeant la conception de Splunk avancé solutions d'intégration dans les environnements sur site et cloud (AWS, Azure, Kubernetes, VMware, etc.). Vous travaillerez en étroite collaboration avec les clients pour définir la portée des projets, comprendre leur activité besoins et documenter les architectures de solutions. En collaboration avec les équipes opérationnelles, vous assurer un transfert transparent de l'infrastructure en mettant l'accent sur l'automatisation et l'évolutivité, et vous fournira un support de niveau 3 pour maintenir une disponibilité et une confidentialité élevées du service.

Mission freelance
Lyonnais uniquement - Ingénieur DevOps AWS – Mission longue durée 🔥
Nous recherchons un Ingénieur DevOps expérimenté pour une mission au sein d’une ESN/Agence spécialisée dans le secteur de l’ énergie . Vous serez chargé(e) de la mise en place, de l’optimisation et de l’automatisation des processus CI/CD, garantissant la stabilité et la performance des environnements cloud sur AWS . Vous interviendrez sur l’ intégration et l’industrialisation des pipelines GitLab , l’amélioration continue du monitoring, et la sécurisation des déploiements avec SonarQube . Votre expertise sera clé pour améliorer l'efficacité des équipes de développement et assurer un haut niveau de qualité logicielle.

Mission freelance
POT8248-Un Ingénieur Système Cloud GCP Sur Saint-Quentin en Yvelines
Almatek recherche pour l'un de ses clients ,Un Ingénieur Système Cloud GCP Sur Saint-Quentin en Yvelines Projet : -Continuer les actions d'automatisation et de fiabilisation ; -Opérer les revues de code ; -Opérer la veille technologique ; -Réaliser des présentations techniques ; -Assurer le support technique niveau 3 auprès des développeurs -traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production y compris dans le cadre de projets. -Gestion production/run des projets (astreintes) Vous serez aussi amenés à rédiger des dossiers techniques précis, des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des opérationnels devant mettre en œuvre et exploiter les solutions. Principaux livrables -Concevoir la solution ; -Paramétrer, développer et qualifier des solutions applicatives ; -Établir l’analyse et le diagnostic sur les incidents et les éradiquer ; -Mettre en place, mener ou piloter le déploiement des applications développées ; -Rédiger ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; -Analyser les traitements pour réaliser les études détaillées ou les études d’impact. Compétences requises : -Expertise et expérience significative sur Terraform. -Définition de module Terraform -Expertise sur le Cloud GCP et AWS si possible . -Maitrise des outils de déploiement automatisés -Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python -Connaissance sur les technologies kubernet

Offre d'emploi
Support cloud
En tant qu'Ingénieur Support Cloud, vous serez responsable de la gestion et du support des environnements cloud de BNP Paribas. Vous travaillerez en étroite collaboration avec les équipes d'ingénierie, d'infrastructure et de développement pour assurer la disponibilité, la performance et la sécurité des services cloud. Responsabilités : Assurer le support technique des environnements cloud (IBM, AWS, Azure, Google). Gérer les incidents et les demandes de service liés aux infrastructures cloud. Participer à la mise en place et à l'amélioration des processus de gestion des incidents et des changements. Collaborer avec les équipes de développement pour optimiser les déploiements et les configurations cloud. Surveiller les performances des systèmes et proposer des améliorations. Documenter les procédures et les configurations mises en place. Qualifications : Diplôme en informatique, ingénierie ou domaine connexe. Minimum de 5 ans d'expérience en opérations IT ou en ingénierie logicielle. Au moins 2 ans d'expérience pratique avec un fournisseur de cloud (IBM, AWS, Azure, Google). Expérience avec Ansible, Docker et Kubernetes. Certification Red Hat Enterprise Linux Automation avec Ansible (RH294) et Certified Kubernetes Application Developer (CKAD) sont un plus1. Compétences requises : Excellentes compétences en communication et en résolution de problèmes. Capacité à travailler en équipe et à gérer plusieurs tâches simultanément. Rigueur et attention aux détails. Disponibilité pour des astreintes et interventions en dehors des heures de bureau si nécessaire.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.