Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 351 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse

CELAD
Publiée le
AWS Cloud
Docker
Github

6 mois
10k-50k €
Toulouse, Occitanie

Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana

Freelance
CDI

Offre d'emploi
INGENIEUR OPS RUN; CI/CD AWS/Azure; ITSM; Confluence

Inventiv IT
Publiée le
Ansible
Apache
AWS Cloud

12 mois
38k-51k €
Île-de-France, France

Assurer le lien avec entre la prod et les DevOps des projets et CDP Gérer toutes les phases de la mise en production des applications : Utiliser et Maintenir le Delivry de l’infrastructure cloud (services IaaS (Infrastructure As A Service), PaaS, ...) des projets via Terraform Configurer les composants applicatifs / services dans les environnements de production Utiliser les outils de livraisons continues du groupe (usine logicielle PIC/PDC) pour le déploiement des feautures en production Garantir le bon fonctionnement des applications en production et leurs évolutions. Gérer la disponibilité, de la sécurité et de l’évolution du socle avec selon les préconisations du schéma directeur et des architectes Mettre en œuvre les procédures d’exploitation (sauvegarde, automatisations, etc.) Etablir les documents techniques (contribution au DAT (Dossier d'Architecture Technique) / DEX) Superviser les applications avec l’outil de monitoring Groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents, mise en place de nouvelles sondes au besoin) ;

Freelance
CDI

Offre d'emploi
Développeur Python React AWS

GRADIANT
Publiée le
AWS Cloud
Flask
Méthode Agile

3 ans
10k-65k €
Paris, France

L'équipe supervise la maintenance et l'évolution des nombreux systèmes de trading qui permettent de participer à toutes sortes d'activités de marché. Les applications logicielles permettent d'effectuer au jour le jour les opérations nécessaires à la bonne gestion de ses activités. L'objectif du service est d'intégrer une personne supplémentaire à l'équipe chargée de gérer le backlog des applications en rédigeant, en suivant et en testant les User Story et en définissant les priorités. Les applications sont toutes développées en interne et écrites en Python en utilisant Redis, Celery, Flask et FlaskAdmin, SQL-Alchemy, PostgreSQL, Pandas, Timescale DB, React et elles sont hébergées sur AWS.

Freelance
CDI

Offre d'emploi
Architecte Data Engineer AWS

Hexateam
Publiée le
Apache Spark
Architecture
AWS Cloud

3 ans
10k-60k €
Paris, France

Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.

Freelance

Mission freelance
DEVOPS / CLOUD

PARTECK INGENIERIE
Publiée le
AWS Cloud
CI/CD

12 mois
100-650 €
Paris, France

Vous intégrerez une équipe de passionnés d'architecture Cloud et participerez pleinement à faire évoluer un environnement technique très varié et up to date à travers les missions suivantes : ● Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. ● Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/CD…) ● Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. ● Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) ● Travailler en étroite collaboration avec l’équipe d’infrastructure. ● Veille technologique dans le domaine du DevOps. Le candidat doit analyser les tendances et les perspectives d’évolution éventuelles dans le cadre d’eTF1. ● Sensibilisation des développeurs aux problématiques opérationnelles: performances, haute disponibilité, supervision et sécurité Notre stack : AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns Expérience significative à un poste similaire: orienté accompagnement et expérience développeur. ● Bonnes connaissance des processus CI/CD ● Une expérience sur l’écosystème Kubernetes (k8s) dans un environnement de production ● Une expérience significative dans l’environnement et la mise en place de solutions AWS ● Utilisation d’outils d’IAC (Helm, Terraform, Packer, Ansible…) ● Être familier avec les problématiques de HA et les architectures distribuées à forte charge. ● Expérience significative sur au moins un des langages suivant : Bash, Python, Golang

Freelance

Mission freelance
Longue Mission - Développeur Node Angular

SKILLWISE
Publiée le
Angular
Apache Kafka
API REST

18 mois
100-600 €
Paris, France

Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, angular, mongo, postgre, kafka, bucket S3,

Freelance

Mission freelance
Data Engineer (Python/AWS)

Onetribe SAS
Publiée le
AWS Cloud
Python
Snowflake

3 ans
100-550 €
Paris, France

Il est garant de l’accès qualitatif aux sources de données. Il s’assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …) QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données

Freelance

Mission freelance
Développeur Node (React ou Angular)

SKILLWISE
Publiée le
Apache Kafka
AWS Cloud
Mongodb

18 mois
100-550 €
Paris, France

Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, mongo, postgre, kafka, bucket S3

CDI

Offre d'emploi
Product Owner Bi

Lùkla
Publiée le
AWS Cloud

50k-70k €
La Défense, Île-de-France

Rattaché au Responsable du pôle BI, vous serez en charge du projet de refonte des reporting BI du pôle. Vous serez l’interface entre les utilisateurs des différents métiers (Commercial, Marketing, Contrôle de Gestion), le Data Office et la DSI. Vous interviendrez, sur la nouvelle plateforme, à la fois sur le support des applications existantes et sur le développement de nouvelles applications. Dans un contexte complexe et en construction, avec beaucoup d’interlocuteurs, vous devrez faire preuve d’un très bon relationnel . Vos missions sont : Ø Gérer le Backlog du chantier : l’initialise, le suit et l’améliore Ø Identifier les risques et propose des solutions pour les mitiger Ø Recueillir les besoins et rédige les User Stories avec les utilisateurs : maquettes, règles de gestion Ø S’assurer de la production de la documentation utile Ø Identifier et cartographie les sources de données nécessaires aux rapports Ø Réaliser les études de qualité de données et les dictionnaires de donnée BI Ø Etre le garant de la traduction des données en indicateurs et axes d’analyse métiers : mapping des données et règles de gestion Ø Superviser la performance du chantier au travers des KPIs fonctionnels et techniques Ø Assurer la cohérence fonctionnelle et technique du chantier Ø Rédiger les manuels utilisateurs Ø Etre disponible pour les utilisateurs, le Data Office et les data engineers Ø Etre responsable de la communication : o Participer à la définition de la stratégie de communication vers les utilisateurs o Organiser une boucle de feedback utilisateur en amont des projets o Communiquer sur le Produit et mettre en avant les équipes

CDI
Freelance

Offre d'emploi
Consultant Data Gouvernance Collibra

Inventiv IT
Publiée le
AWS Cloud
BI
Data management

3 ans
42k-55k €
Paris, France

Nous un recherchons un Data Manager - Consultant Data Gouvernance étant spécialisé en Gouvernance de données. Maîtrisant la Data Management et la Data Visualisation. Dans le cadre de la gestion et de la mise en gouvernance des données d'une Plateforme Data. Accompagnement des Uses Cases Data pour la définition de leur architecture data au sein de la plateforme dans le respect du paradigme du Data Mesh ; Identification, modélisation et documentation des Data-as-a-products exposés par chaque domaine de données ; Animation et contribution aux ateliers avec les correspondants RGPD (relais DPO) ainsi que les MOA pour l’identification et la classification des données sensibles et des données à caractère personnel ; Catalogage et taggage des données de couche Bronze dans le gestionnaire des métadonnées ; Accompagnement pour la prise en main de l’outil COLLATE (Open Metadata) par les ingénieurs de données afin d’effectuer le taggage des métadonnées de leurs domaines data respectifs conformément aux règles data management ; Participation aux cadrages des fonctionnalités techniques relatives au Data Management : gestion des schémas de données, gestion des contrats d’interface, minimisation des données, framework d’exposition des données … Conception et développement d’une newsletter Data Management sous forme d’un tableau de bord Power BI pour suivre l’évolution des principaux KPIs du patrimoine de données de la plateforme. Environnement Technique : Data Engineering : Databricks Data Storage & DB : AWS S3 Data Visualisation : Microsoft Power BI Data Management : OPEN METADATA, COLLIBRA, Data Galaxy / Data Catalog

Freelance

Mission freelance
Développeur backend NodeJS PROFIL START UP

KatchMe Consulting
Publiée le
AWS Cloud
Back-end
Node.js

6 mois
100-550 €
Paris, France

Je recherche pour une startup un profil confirmé/senior backend NodeJS. Toutes vos missions : ·Assurer toutes les étapes du développement du produit (conception, développement, test/qualité, déploiement) ·Participer à l’évolution de notre stack technique (architecture, librairies, tests, performance, monitoring, etc.) ·Travailler en collaboration avec les autres membres de l’équipe technique, ainsi que l’équipe produit (méthodes agiles) ·Assurer une veille technologique adaptée aux besoins de l’entreprise

CDI
Freelance

Offre d'emploi
Architecte technique cloud H/F

STORM GROUP
Publiée le
AWS Cloud
Azure
TOGAF

3 ans
10k-65k €
Île-de-France, France

[Contexte] L'entité a pour mission de définir l’architecture des services délivrés et opérés en lien avec les Opérations ainsi que la définition et le pilotage de la roadmap de transformation et initiatives transverses. [La prestation consiste à contribuer à/au(x)] La définition des architectures et des Services associés - L'assistance aux entités en tant qu'architecte Technique Infrastructure - Support aux architectures en respectant les principes de sécurité mis en place - La documentation des architectures, principes et bonnes pratiques - Déploiement des architectures [Les livrables attendus sont] - Etudes d'Architectures - Roadmap des Service sa - Principes de sécurité - Documentation des architectures (DAT), - Document de bonnes pratique

CDI

Offre d'emploi
Consultant Data Gouvernance - Chefferie de Projet

Inventiv IT
Publiée le
AWS Cloud
Azure
BI

50k-70k €
Paris, France

Au sein de notre Data Fabric, Nous recherchons un Consultant Data Gouvernance orienté Chefferie de projet. Un profil Smart ayant un vernis technique et une réelle expertise en Gouvernance de données (3 ans d'XP minimum). Environnement : Data Catalog / Data Galaxy / Collibra / Le poste est en rythme Hybride. Des déplacements en Allemagne sont à prévoir (prise en charge par l'entreprise) Contexte : Gestion et mise en gouvernance des données d'une plateforme Data Définition,mise en œuvre et gestion du Cadre de Gouvernance des données Gestion & Chefferie de projet des sujets de Gouvernance Accompagnement des Uses Cases Data pour la définition d'architecture (Data Mesh) Identification, modélisation et documentation des Data-as-a-products Animation et contribution des données Catalogage et taggage des donnée Accompagnement pour la prise en main des différents outils de Data Gouvernance par l'ensemble des équipes Participation aux cadrages des fonctionnalités techniques relatives au Data Gouvernance & Management Conception de solutions de Gouvernance Formalisation d’une méthodologie de catalogage des données Construction d’un modèle de métadonnées (métamodèle) sur-mesure Définition des indicateurs de suivi de l’implémentation du Cadre de Gouvernance des données Développement d’un tableau de bord de pilotage Elaboration d’un plan de communication sur le Cadre de Gouvernance des données et proposition de supports de communication adaptés pour chacune des cibles retenues (métiers, IT et Data).

Freelance

Mission freelance
Ingénieur DevOps

Gentis Recruitment SAS
Publiée le
Architecture
AWS Cloud
Gitlab

1 an
100-450 €
Lille, Hauts-de-France

Du build Participer au développement de la CI/CD et de l'infra as code Apporter de l'expertise sur le choix des solutions Accompagner les équipes de delivery sur les aspects d'opérabilité (résilience, observabilité, performance) Du run Effectuer les mises en production et fournir les outils permettant à l’équipe de réaliser les mises en production S’assurer du bon fonctionnement de la production et veiller à l'opérabilité du monitoring Assurer le maintien en condition opérationnelle de l'infrastructure Réaliser les actions d'amélioration continue Participer à l'analyse d'incident Assurer l'astreinte technique Contribution à la vie de l'équipe et du projet : Etre acteur des cérémonies agiles Participer à la réalisation des éléments du backlog Etre force de proposition sur l'amélioration continue Stack technique : CD/CI : Gitlab-ci Infra As code : Terraform (Services managé AWS, K8S) Suivi : Kibana/Grafana, Superset, Instana, AWS Cloudwatch Service Mesh : istio Serverless : AWS lambdas, AWS API Gateway Caches : Redis, Varnish Stockage de données : Mongo, DynamoDB, AWS S3

Freelance
CDI

Offre d'emploi
Ingénieur réseau Cloud AWS

FREELANCE VISION
Publiée le
Ansible
AWS Cloud
Azure

12 mois
34k-200k €
Lyon, Auvergne-Rhône-Alpes

CLOUD AWS - Confirmé - Impératif Ansible, Terraform, PowerShell, shell… - Confirmé - Important Réseaux et Télécom (Backbox, PRTG - Confirmé - Impératif sécurité (Checkpoint et Juniper) - Confirmé - Impératif Connaissances linguistiques : Français Courant (Impératif) ANGLAIS Notions (Secondaire) Description détaillée Rôle : Ingénieur Réseau Cloud - Construire une landing zone sur AWS en s’inspirant de ce qui a été fait sur Azure - Concevoir, déployer et maintenir en conditions opérationnelles les infrastructures réseaux ; - Assurer le support niveau 3 et la veille technologique, être le garant de la disponibilité des infrastructures Réseaux ; - Automatiser et optimiser les processus en synergie avec les équipes de production ; Compétences : Solide expérience sur AWS (Azure serait un plus) Bon niveau techniques dans les domaines suivants : Administration des équipements de sécurité, Industrialisation (Terraform et Ansible serait un plus) et Administration des outils Réseaux et Télécom Localisation : Lyon ou Paris Durée : de décembre jusqu’à fin juin minimum

CDI

Offre d'emploi
Data Engineer Sénior

Oceane consulting
Publiée le
Apache Spark
AWS Cloud
Azure

10k-60k €
Paris, France

Missions: · Développement Scala/Spark · Maîtrise de l’environnement technique (AWS Databricks, AWS S3) · Expériences sur la Qualité logicielle (revue de code ; conformité aux critères de qualité SONAR, tests automatisés) · La connaissance de Power BI (Azure) est un plus -Les compétences fonctionnelles attendues sont les suivantes : · Méthode Agile · Expérience sur des projets de technologies similaires · Connaissance du domaine Data · Expérience de travail sur des projets en équipe, (notamment savoir solliciter son écosystème au bon moment)

351 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous