Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur SysOps AWS
Contexte de la mission : La prestation d’expertise Cloud Public intègrera la DevTeam AWS de la Squad Cloud Public du client et prendra en charge des features Build dans le backlog qui pourront être soit orientées métier soit orientées infra et participera aussi aux actions liées au Run. Tâches à réaliser : · Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’application métier · Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements AWS · Assurer la généricité de ces pipelines · Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions · Garantir la sécurité ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement · Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections · Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud · Ouvrir et suivre des incidents chez l’infogérant Cloud Public en cohérence avec les processus ITIL du client
Mission freelance
Développeur digital full stack Java (dominante front-end)
Au sein du département Digital du client, nous recherchons un développeur full stack (front et back) avec des connaissances Java, jQuery, Angular.js, Angular afin de développer des évolutions sur ses sites internet public, espace privé et outils apporteurs vie.
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure
Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible
Mission freelance
MLOPS ENGINEER (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un MLOPS ENGINEER (H/F) à Mérignac, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : 2 jours présence à Mérignac + 3 jours télétravail Les missions attendues par le MLOPS ENGINEER (H/F) : Intégré à une équipe Produit, le MLOPs Engineer contribue à l'industrialisation de modèles ML déjà développés. En plus de construire et de gérer des pipelines de données automatisés, il participe aussi au développement d'outils pour monitorer les performances des modèles tout en garantissant la mise en place de bonnes pratiques en matière de sécurité et d'efficacité opérationnelle. RÔLE ET RESPONSABILITÉS Implémenter les pipelines automatisés pour le déploiement et la surveillance des modèles (Gestion des alertes) Optimiser l'efficacité et la scalabilité des flux de travail ML Configurer/Déployer/Automatiser/industrialiser le déploiement de modèles ML Garant de l'implémentation de bonnes pratiques en matière de sécurité et de confidentialité des données En fonction du niveau d'expertise, accompagner à la mise en place de nouveaux outils d'IA Force de proposition dans la résolution des problèmes PROFIL TYPE Maîtrise des technologies AWS et outils MLOPS (Kubernetess, TensorFlow, Jenkins, Pytorch, Terraform, Sagemaker, Cloudwatch, Prometheus, Alertmanager, Grafana) Compétences solides en programmation Python Comprendre le machine learning Force de proposition dans la résolution des problèmes de code. Pro-actif, Esprit d'équipe, sens du délai, de la qualité et des résultats CERTIFICATIONS Certification AWS Machine Learning specialty (a minima)
Offre d'emploi
Data Architect
Contexte et Enjeux de la Mission : Dans le cadre d’une transformation numérique ambitieuse , une grande entreprise française, leader dans son secteur, recherche un(e) Data Architect pour moderniser et unifier son écosystème de données. Le projet se concentre principalement sur l’implémentation et l’optimisation d’une architecture sur Google Cloud Platform (GCP) , visant à améliorer la gestion des données à grande échelle et la qualité des insights pour les équipes métiers. Basé à Lille , vous interviendrez à un moment clé de ce projet stratégique, avec pour objectif de créer une architecture évolutive, scalable et résiliente, tout en facilitant l'exploitation des données pour l'ensemble des départements. Vos Responsabilités : Conception et mise en place d’une architecture data robuste sur Google Cloud Platform (GCP), en accord avec les meilleures pratiques de gestion des données et de sécurité. Structurer et gérer les pipelines de données pour garantir des flux fluides, fiables et sécurisés. Assurer la qualité et la gouvernance des données via la mise en place de standards, d’outils de monitoring, et de processus de validation. Collaborer de manière étroite avec les équipes Data Engineering et Data Science pour maximiser l’utilisation des données et proposer des améliorations continues. Apporter une vision stratégique à long terme, en anticipant les évolutions nécessaires pour adapter l'architecture aux besoins futurs de l'entreprise. Documenter les solutions et former les équipes internes sur l'utilisation et la maintenance des nouvelles structures.
Mission freelance
DevSecOps (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevSecOps (H/F) à Mérignac, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : sur site 2 jours à Mérignac + 3 jours télétravail Les missions attendues par le DevSecOps (H/F) : Descriptif de la mission : Projet : Intégré à l'équipe Produit, le DevSecOps permet à son équipe de livrer plus facilement et rapidement. Il met en place et maintient des outils et services liés à l'automatisation, au monitoring et au respect des normes de sécurité des applications. Il s'assure de respecter les exigences et d'utiliser les services mis à disposition par l'Usine de Delivery des Produits Numériques et l'équipe plateforme. Descriptif de la mission : Mettre en place et maintenir des pipelines CI/CD pour automatiser le processus d'intégration, de test et de déploiement. S'assurer que le code est continuellement testé, intégré et déployé de manière automatisée. Intégrer des outils d'analyse de sécurité du code dans les pipelines CI/CD Mettre en place des solutions d'analyse de logs et de surveillance des applications pour les environnements de production et hors production Travailler en étroite collaboration avec les équipes de développement, d'exploitation et de sécurité Sensibiliser les développeurs de l'équipe à la mise en œuvre de M'infrastructure as Code afin de les rendre autonomes pour réaliser les changements les plus fréquents Surveiller la consommation des services Cloud utilisé par le produit afin de détecter rapidement toute dérive, et proposer des améliorations en continu pour optimiser les coûts et les impacts environnementaux Remonter les nouveaux besoins et les améliorations à l'Usine de Delivery des Produits Numériques Maitrise des outils liés au C/CD: Gitlab Cl, Sonar Qube, Checkmarx,.... Maitrise de l'ecosystème conteneur Des connaissances en observabilité Prometheus, Grafana, ELK,.) Familier avec l'approche GitOps Sensible aux problématiques de sécurité Esprit de service
Mission freelance
Data Ops Engineer
Connaitre le retail, Connaitre la data mesh Les livrables sont: Conception de produits data adaptée aux besoins Mise en place de la CI/CD dans les processus de développement Être garant du cycle de delivery, de la qualité des livrables et l’encadrement & animation des équipes en environnement Agile / DevOps Compétences techniques Python, SQL, NoSQL, Shell - Expert - Impératif Agilité, Git - Expert - Impératif Modélisation de données - Expert - Impératif GCP (Big Query, GCS, ...), Pipeline (Dataflow...) - Expert - Impératif Connaissances linguistiques: Anglais Lu, écrit (Impératif)
Mission freelance
Ingénieur Cloud and DevOps (H/F)
Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent Vous avez un bon niveau d'anglais.
Mission freelance
Data Engineer (Python/AWS)
Il est garant de l’accès qualitatif aux sources de données. Il s’assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …) QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données
Mission freelance
Longue Mission - Développeur Node Angular
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, angular, mongo, postgre, kafka, bucket S3,
Offre d'emploi
Consultant Devops
Participer au sein de l'équipe Plateforme Échanges en tant que DevOps dans un contexte Agile (Agile Master + Product Owner) sur des évolutions spécifiques des plateformes d'échanges AMQ, KAFKA, APIGEE et BUCKET GCP. Améliorer l'industrialisation, la sécurisation, la résilience et la supervision des plateformes d'échanges : AMQ, KAFKA, APIGEE, Bucket GCP et SFTP. Travailler sur la résilience d'APIGEE et KAFKA, ainsi que sur l'accompagnement auprès des équipes produits vers la fin d'usage d'AMQ. Mise en place du portail APIGEE Integrated Portal. - Cloud Provider Public (idéalement GCP) - Scripting (Shell, Python) - Terraform, Git, Argo, Kubernetes, Ansible, scripts, code Terraform pour CI/CD, procédures
Mission freelance
Dev fullstack
En tant que développeur, vous êtes garant de l’implémentation des demandes de développement en fonction des besoins émanent des clients, de la roadmap produits et sécurité. Vous intervenez notamment sur les missions suivantes : · Analyse et conception o Participer aux études de cadrage (conceptions techniques) en étroite collaboration avec le Tech Lead o Estimer les charges et les délais · Développement des Solutions : o Participer activement au développement de solutions techniques. o Prendre en charge le support niveau 3 en appui aux équipes de RUN. o Réaliser le versionning, les tests unitaires et les tests d'intégration. o Implémenter les solutions dans le respect des normes et standards qualité / sécurité édictés par l’équipe Architecture (tests unitaires, tests d’intégration, …) o Respecter le process de build et de déploiement au travers de la bonne utilisation des outils de la CICD · Gestion du patrimoine documentaire o Assister à la rédaction des documents liés à l’exploitation de la solution o Rédiger et co valider les documents garantissant le partage de connaissance des applications. · Respect des bonnes pratiques et engagements : o Adhérer aux bonnes pratiques définies dans le framework Software Development Life Cycle de l'entreprise. o Garantir le respect des engagements pris vis-à-vis des clients internes (équipes projet et production) et externes en termes de délai et de charge.
Mission freelance
FINOPS MANAGER
Nous recherchons un manager FinOps expérimenté pour diriger le développement et la mise en œuvre d'un modèle opérationnel et de gouvernance des opérations financières (FinOps) complet pour notre environnement multicloud, qui comprend AWS, GCP et Azure. L’intervenant sera chargé d'établir les meilleures pratiques, d'optimiser les coûts du cloud et d'assurer la responsabilité financière dans l'ensemble de notre infrastructure cloud. Cette mission requiert une compréhension approfondie de la gestion financière du cloud, d'excellentes compétences analytiques et la capacité de travailler en collaboration avec des équipes inter fonctionnelles.
Offre d'emploi
Développeur .NET/AZURE/React
💼 Poste : Développeur .NET/AZURE/React 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Dans ce cadre la prestation consiste à contribuer à/au(x) : Cadrage très strict d’implémentation (qualité du code, couverture totale en matière de tests) Maintien de la présentation / Agilité d’évolution Streamlining / componentisation Résolution des diverses complexités La qualité du code Versionning compatible à l’échelle d’itec et maîtrisé (github). Livrables attendus Les livrables attendus sont : Analyse d’impact / Chiffrage : Estimation de la faisabilité, estimation charge de spécifications techniques et de développement Développement informatique :Développement de composant web .NET 8 (api, streaming SignalR), Automatisation des pipelines de déploiement via github action Tests unitaires avec les outils appropriés et édition de rapport de tests 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : .Net Core Elastic Search & Kibana Git Hub Javascript/TypeScript Page 3 / 4 Kubernetes MS Azure React JS REST
Offre d'emploi
Data Analyst
Missions: • Réalisation d’études en lien avec le PO • Recueil des besoins et animation d’ateliers avec le métier, • De s'assurer de la conformité RGPD des traitements portés par l'entité • Réalisation des spécifications fonctionnelles (US et bugs), coordination avec le/la PO • Suivi des développements et participation aux séances de pair test • Recette • Suivi de production • Rédaction et mise à jour de la documentation. • Reporting et suivi • Définitions des KPI avec le Scrum et suivi du pilotage des KPI d’usage
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes