Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 863 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Ingénieur SysOps AWS

Cheops Technology
Publiée le
AWS Cloud

12 mois
53k-66k €
Nanterre, Île-de-France

Contexte de la mission : La prestation d’expertise Cloud Public intègrera la DevTeam AWS de la Squad Cloud Public du client et prendra en charge des features Build dans le backlog qui pourront être soit orientées métier soit orientées infra et participera aussi aux actions liées au Run. Tâches à réaliser : · Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’application métier · Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements AWS · Assurer la généricité de ces pipelines · Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions · Garantir la sécurité ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement · Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections · Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud · Ouvrir et suivre des incidents chez l’infogérant Cloud Public en cohérence avec les processus ITIL du client

Freelance

Mission freelance
Développeur digital full stack Java (dominante front-end)

ATRIUM SI
Publiée le
Angular
AngularJS
Java

6 mois
230-1 860 €
Paris, France

Au sein du département Digital du client, nous recherchons un développeur full stack (front et back) avec des connaissances Java, jQuery, Angular.js, Angular afin de développer des évolutions sur ses sites internet public, espace privé et outils apporteurs vie.

Freelance
CDI

Offre d'emploi
Architecte Data Engineer AWS

Hexateam
Publiée le
Apache Spark
Architecture
AWS Cloud

3 ans
10k-60k €
Paris, France

Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.

Freelance
CDI

Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure

FREELANCE VISION
Publiée le
Azure
Bash
DevOps

12 mois
30k-200k €
Paris, France

Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible

Freelance

Mission freelance
MLOPS ENGINEER (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Intelligence artificielle
Python

2 ans
450-600 €
Mérignac, Nouvelle-Aquitaine

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un MLOPS ENGINEER (H/F) à Mérignac, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : 2 jours présence à Mérignac + 3 jours télétravail Les missions attendues par le MLOPS ENGINEER (H/F) : Intégré à une équipe Produit, le MLOPs Engineer contribue à l'industrialisation de modèles ML déjà développés. En plus de construire et de gérer des pipelines de données automatisés, il participe aussi au développement d'outils pour monitorer les performances des modèles tout en garantissant la mise en place de bonnes pratiques en matière de sécurité et d'efficacité opérationnelle. RÔLE ET RESPONSABILITÉS Implémenter les pipelines automatisés pour le déploiement et la surveillance des modèles (Gestion des alertes) Optimiser l'efficacité et la scalabilité des flux de travail ML Configurer/Déployer/Automatiser/industrialiser le déploiement de modèles ML Garant de l'implémentation de bonnes pratiques en matière de sécurité et de confidentialité des données En fonction du niveau d'expertise, accompagner à la mise en place de nouveaux outils d'IA Force de proposition dans la résolution des problèmes PROFIL TYPE Maîtrise des technologies AWS et outils MLOPS (Kubernetess, TensorFlow, Jenkins, Pytorch, Terraform, Sagemaker, Cloudwatch, Prometheus, Alertmanager, Grafana) Compétences solides en programmation Python Comprendre le machine learning Force de proposition dans la résolution des problèmes de code. Pro-actif, Esprit d'équipe, sens du délai, de la qualité et des résultats CERTIFICATIONS Certification AWS Machine Learning specialty (a minima)

Freelance
CDI

Offre d'emploi
Data Architect

UNITED SOLUTIONS
Publiée le
Big Data
Google Cloud Platform

12 mois
60k-70k €
Lille, Hauts-de-France

Contexte et Enjeux de la Mission : Dans le cadre d’une transformation numérique ambitieuse , une grande entreprise française, leader dans son secteur, recherche un(e) Data Architect pour moderniser et unifier son écosystème de données. Le projet se concentre principalement sur l’implémentation et l’optimisation d’une architecture sur Google Cloud Platform (GCP) , visant à améliorer la gestion des données à grande échelle et la qualité des insights pour les équipes métiers. Basé à Lille , vous interviendrez à un moment clé de ce projet stratégique, avec pour objectif de créer une architecture évolutive, scalable et résiliente, tout en facilitant l'exploitation des données pour l'ensemble des départements. Vos Responsabilités : Conception et mise en place d’une architecture data robuste sur Google Cloud Platform (GCP), en accord avec les meilleures pratiques de gestion des données et de sécurité. Structurer et gérer les pipelines de données pour garantir des flux fluides, fiables et sécurisés. Assurer la qualité et la gouvernance des données via la mise en place de standards, d’outils de monitoring, et de processus de validation. Collaborer de manière étroite avec les équipes Data Engineering et Data Science pour maximiser l’utilisation des données et proposer des améliorations continues. Apporter une vision stratégique à long terme, en anticipant les évolutions nécessaires pour adapter l'architecture aux besoins futurs de l'entreprise. Documenter les solutions et former les équipes internes sur l'utilisation et la maintenance des nouvelles structures.

Freelance

Mission freelance
DevSecOps (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
CI/CD
DevOps

2 ans
450-600 €
Mérignac, Nouvelle-Aquitaine

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevSecOps (H/F) à Mérignac, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : sur site 2 jours à Mérignac + 3 jours télétravail Les missions attendues par le DevSecOps (H/F) : Descriptif de la mission : Projet : Intégré à l'équipe Produit, le DevSecOps permet à son équipe de livrer plus facilement et rapidement. Il met en place et maintient des outils et services liés à l'automatisation, au monitoring et au respect des normes de sécurité des applications. Il s'assure de respecter les exigences et d'utiliser les services mis à disposition par l'Usine de Delivery des Produits Numériques et l'équipe plateforme. Descriptif de la mission : Mettre en place et maintenir des pipelines CI/CD pour automatiser le processus d'intégration, de test et de déploiement. S'assurer que le code est continuellement testé, intégré et déployé de manière automatisée. Intégrer des outils d'analyse de sécurité du code dans les pipelines CI/CD Mettre en place des solutions d'analyse de logs et de surveillance des applications pour les environnements de production et hors production Travailler en étroite collaboration avec les équipes de développement, d'exploitation et de sécurité Sensibiliser les développeurs de l'équipe à la mise en œuvre de M'infrastructure as Code afin de les rendre autonomes pour réaliser les changements les plus fréquents Surveiller la consommation des services Cloud utilisé par le produit afin de détecter rapidement toute dérive, et proposer des améliorations en continu pour optimiser les coûts et les impacts environnementaux Remonter les nouveaux besoins et les améliorations à l'Usine de Delivery des Produits Numériques Maitrise des outils liés au C/CD: Gitlab Cl, Sonar Qube, Checkmarx,.... Maitrise de l'ecosystème conteneur Des connaissances en observabilité Prometheus, Grafana, ELK,.) Familier avec l'approche GitOps Sensible aux problématiques de sécurité Esprit de service

Freelance

Mission freelance
Data Ops Engineer

Coriom Conseil
Publiée le
BigQuery
Git
Google Cloud Platform

12 mois
100-500 €
Lille, Hauts-de-France

Connaitre le retail, Connaitre la data mesh Les livrables sont: Conception de produits data adaptée aux besoins Mise en place de la CI/CD dans les processus de développement Être garant du cycle de delivery, de la qualité des livrables et l’encadrement & animation des équipes en environnement Agile / DevOps Compétences techniques Python, SQL, NoSQL, Shell - Expert - Impératif Agilité, Git - Expert - Impératif Modélisation de données - Expert - Impératif GCP (Big Query, GCS, ...), Pipeline (Dataflow...) - Expert - Impératif Connaissances linguistiques: Anglais Lu, écrit (Impératif)

Freelance

Mission freelance
Ingénieur Cloud and DevOps (H/F)

LeHibou
Publiée le
Azure
Google Cloud Platform
Linux

12 mois
600-800 €
Paris, France

Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent Vous avez un bon niveau d'anglais.

Freelance

Mission freelance
Data Engineer (Python/AWS)

Onetribe SAS
Publiée le
AWS Cloud
Python
Snowflake

3 ans
100-550 €
Paris, France

Il est garant de l’accès qualitatif aux sources de données. Il s’assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …) QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données

Freelance

Mission freelance
Longue Mission - Développeur Node Angular

SKILLWISE
Publiée le
Angular
Apache Kafka
API REST

18 mois
100-600 €
Paris, France

Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, angular, mongo, postgre, kafka, bucket S3,

Freelance
CDI

Offre d'emploi
Consultant Devops

DATACORP
Publiée le
Ansible
Apache Kafka
Git

12 mois
10k-50k €
Nantes, France

Participer au sein de l'équipe Plateforme Échanges en tant que DevOps dans un contexte Agile (Agile Master + Product Owner) sur des évolutions spécifiques des plateformes d'échanges AMQ, KAFKA, APIGEE et BUCKET GCP. Améliorer l'industrialisation, la sécurisation, la résilience et la supervision des plateformes d'échanges : AMQ, KAFKA, APIGEE, Bucket GCP et SFTP. Travailler sur la résilience d'APIGEE et KAFKA, ainsi que sur l'accompagnement auprès des équipes produits vers la fin d'usage d'AMQ. Mise en place du portail APIGEE Integrated Portal. - Cloud Provider Public (idéalement GCP) - Scripting (Shell, Python) - Terraform, Git, Argo, Kubernetes, Ansible, scripts, code Terraform pour CI/CD, procédures

Freelance

Mission freelance
Dev fullstack

HAYS MEDIAS
Publiée le
Hibernate
Java
JUnit

3 ans
100-430 €
Pas-de-Calais, France

En tant que développeur, vous êtes garant de l’implémentation des demandes de développement en fonction des besoins émanent des clients, de la roadmap produits et sécurité. Vous intervenez notamment sur les missions suivantes : · Analyse et conception o Participer aux études de cadrage (conceptions techniques) en étroite collaboration avec le Tech Lead o Estimer les charges et les délais · Développement des Solutions : o Participer activement au développement de solutions techniques. o Prendre en charge le support niveau 3 en appui aux équipes de RUN. o Réaliser le versionning, les tests unitaires et les tests d'intégration. o Implémenter les solutions dans le respect des normes et standards qualité / sécurité édictés par l’équipe Architecture (tests unitaires, tests d’intégration, …) o Respecter le process de build et de déploiement au travers de la bonne utilisation des outils de la CICD · Gestion du patrimoine documentaire o Assister à la rédaction des documents liés à l’exploitation de la solution o Rédiger et co valider les documents garantissant le partage de connaissance des applications. · Respect des bonnes pratiques et engagements : o Adhérer aux bonnes pratiques définies dans le framework Software Development Life Cycle de l'entreprise. o Garantir le respect des engagements pris vis-à-vis des clients internes (équipes projet et production) et externes en termes de délai et de charge.

Freelance

Mission freelance
FINOPS MANAGER

Cheops Technology
Publiée le
AWS Cloud
Azure

12 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un manager FinOps expérimenté pour diriger le développement et la mise en œuvre d'un modèle opérationnel et de gouvernance des opérations financières (FinOps) complet pour notre environnement multicloud, qui comprend AWS, GCP et Azure. L’intervenant sera chargé d'établir les meilleures pratiques, d'optimiser les coûts du cloud et d'assurer la responsabilité financière dans l'ensemble de notre infrastructure cloud. Cette mission requiert une compréhension approfondie de la gestion financière du cloud, d'excellentes compétences analytiques et la capacité de travailler en collaboration avec des équipes inter fonctionnelles.

Freelance
CDI

Offre d'emploi
Développeur .NET/AZURE/React

Digistrat consulting
Publiée le
Azure

36 mois
10k-200k €
Paris, France

💼 Poste : Développeur .NET/AZURE/React 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Dans ce cadre la prestation consiste à contribuer à/au(x) : Cadrage très strict d’implémentation (qualité du code, couverture totale en matière de tests) Maintien de la présentation / Agilité d’évolution Streamlining / componentisation Résolution des diverses complexités La qualité du code Versionning compatible à l’échelle d’itec et maîtrisé (github). Livrables attendus Les livrables attendus sont : Analyse d’impact / Chiffrage : Estimation de la faisabilité, estimation charge de spécifications techniques et de développement Développement informatique :Développement de composant web .NET 8 (api, streaming SignalR), Automatisation des pipelines de déploiement via github action Tests unitaires avec les outils appropriés et édition de rapport de tests 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : .Net Core Elastic Search & Kibana Git Hub Javascript/TypeScript Page 3 / 4 Kubernetes MS Azure React JS REST

Freelance
CDI

Offre d'emploi
Data Analyst

Oceane consulting
Publiée le
AMOA
Azure
Big Data

1 an
10k-65k €
Paris, France

Missions: • Réalisation d’études en lien avec le PO • Recueil des besoins et animation d’ateliers avec le métier, • De s'assurer de la conformité RGPD des traitements portés par l'entité • Réalisation des spécifications fonctionnelles (US et bugs), coordination avec le/la PO • Suivi des développements et participation aux séances de pair test • Recette • Suivi de production • Rédaction et mise à jour de la documentation. • Reporting et suivi • Définitions des KPI avec le Scrum et suivi du pilotage des KPI d’usage

863 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous