Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 566 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Ingénieur MLOPS

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Airflow
AWS Cloud
Google Cloud Platform

3 mois
100-380 €
Montpellier, Occitanie

Nous recherchons pour un de nos clients basés à Montpellier un consultant MLOPS, pour une mission freelance (longue visibilité) avec une possibilité de Pré embauche sous 1 an de mission Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance

Mission freelance
Product Owner (PO) expérimenté dans la Data

INSYCO
Publiée le
Agile Scrum
AWS Cloud
Safe

36 mois
500-570 €
Paris, France

Nous recherchons pour notre client grand compte leader international de son secteur, un Product Owner ayant au moins 5 ans d'expérience. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL (freelance à insyco . fr) avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence (KTR/4495) dans l’objet de votre mail --- CONTEXTE --- Dans le cadre du développement d'un produit d'ingestion automatisé de données, nous sommes actuellement à la recherche d'un PO ayant une forte appétence pour la data et ayant dans la mesure du possible déjà travaillé sur un projet à forts enjeux. Notre client travaille sur l'identification de certaines œuvres numériques. Son moteur d'identification texte, qui va intervenir aussi bien dans l'identification de déclarations online musicales (Youtube, Spotify, ...), audiovisuelles (Netflix, Disney, ...) que offline (radio, cinéma, TV, spectacles...). Ce produit a été créé en 2019, il s'agit d'un produit back office, qui à date n'a pas de front client. L'ensemble de la solution produit est techniquement conçue en lien avec le Tech Lead qui valide l'architecture logicielle à mettre en place sur le cloud AWS. Pour permettre à l'équipe d'être autonome, le PO sera notamment en charge : De la discovery : comprendre les besoins métiers notamment autour de l'identification manuelle et de l'explicabilité de nos résultats De la stratégie : pour embarquer les nouvelles familles (TV, cinéma, spectacle, ..) sur notre produit Du delivery : Implémenter les fonctionnalités, rédiger les User Stories, définir les tests d'acceptance. Suivi des instances (daily, retro, demo, point hebdo métiers) adaptées à l'équipe et au besoin. Communication des évolutions (release notes) et des incidents. L'équipe est composée de : 1 TL, 2 développeurs, 1 recetteur --- Activités et qualités --- Excellent relationnel et très bon rédactionnel Capacité à rédiger des spécifications fonctionnelles Rigoureux et organisé Connaissance et pratique de la méthodologie Agile Capacité à comprendre rapidement des enjeux très complexes (positionnement de l'équipe au sein du client, vision du produit, interlocuteurs clés, technicité des moteurs d'identification)

Freelance

Mission freelance
Expert CaaS, Kubernetes, Cloud

NAVIGACOM
Publiée le
AWS Cloud
CI/CD
Docker

6 mois
100-750 €
Nanterre, Île-de-France

Missions Pour l’un de nos clients dans le secteur de l'énergie, vous intervenez en tant qu' Expert CaaS, Kubernetes, Cloud . Rattaché au train PaaS et intégré à la Team CaaS, vous participerez à l’évolution et à la gestion des services CaaS, principalement en accompagnant la transition vers des solutions cloud publiques (AWS, GCP). Vous contribuerez également à l'amélioration continue des infrastructures On Premise et des plateformes de conteneurisation. Vos tâches seront les suivantes : Contribuer à la production de la roadmap technique du service CaaS Cloud (court et long terme). Proposer des innovations et des ruptures pour l’évolution du service CaaS. Implémenter les évolutions techniques dans les environnements de production. Déployer de nouveaux clusters et automatiser les processus de gestion du cycle de vie des plateformes. Assurer la veille technologique sur les solutions de conteneurisation (Kubernetes, RedHat Openshift). Collaborer avec les équipes DevOps pour mettre en place des interfaces avec d'autres services IT. Accompagner les clients internes dans la transition vers des solutions cloud publiques. Gérer les incidents critiques et corriger les bugs sur les environnements CaaS. Participer aux rites agiles en suivant la méthode SAFe (Agile à l’échelle). Documenter et concevoir l’architecture des solutions mises en place.

Freelance

Mission freelance
Data Engineer

Kaïbee
Publiée le
AWS Cloud
CI/CD
Python

1 an
100-600 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI En tant que Data Ingénieur, vous serez responsable de la conception, du déploiement et de la maintenance d'une infrastructure de données basée sur les bonnes pratiques du Well Architected Framework (WAF) d'AWS, en respectant les piliers suivants : Excellence opérationnelle, Sécurité, Fiabilité, Efficacité des performances, Optimisation des coûts, et Développement durable. Vous travaillerez en étroite collaboration avec le CTO et les Data Scientists pour construire et maintenir des pipelines de données robustes et sécurisés sur AWS. 1. Mise en place de pipelines de données robustes et scalables : Concevoir des pipelines de données serverless optimisés (e.g., step function, Lambda, S3, Redshift) pour gérer des données provenant de compteurs énergétiques en mode batch et en streaming. Structurer la donnée en zones fonctionnelles sur S3 (Landing, Raw, Trusted, Curated, Archive) et transformer les formats (e.g., XML en JSON, JSON en Parquet) pour optimiser les performances et réduire les coûts. 2. Excellence opérationnelle : Implémenter et automatiser des workflows CI/CD/CT avec GitHub Actions pour garantir des déploiements continus, sécurisés et sans interruption (via EKS, ECS, App Runner, Sagemaker) Mettre en place un monitoring avancé pour les pipelines de données et les modèles déployés, garantissant la détection proactive des anomalies et une maintenance efficace. (via cloudwatch, SNS) 3. Sécurité et fiabilité : Collaborer à la migration des applications R/Shiny vers des technologies plus familières et sécurisées (e.g. Kotlin ou Python) tout en respectant les standards de sécurité, notamment via des solutions telles que Posit Connect 4. Optimisation des coûts et développement durable Proposer des optimisations pour réduire les coûts de stockage et de traitement des données, en s’appuyant sur des services AWS adaptés et en optimisant les formats et processus de gestion des données. 5. Collaborer avec l'équipe Data Science Faciliter l'accès aux données de qualité pour les Data Scientists, en veillant à ce que les modèles puissent être intégrés efficacement dans les applications existantes

Freelance

Mission freelance
Ingenieur devOps Azure - PARIS

RED Commerce - The Global SAP Solutions Provider
Publiée le
Azure DevOps Services

3 mois
100-530 €
Île-de-France, France

Développer de nouveaux produits, tester et documenter. Intégrer la chaîne CI/CD et appliquer les meilleures pratiques de développement. Optimiser l'automatisation et le déploiement. Sécuriser la préparation opérationnelle des produits avec des tests d'intégration et une documentation technique. Gérer l'exploitation des solutions Cloud et répondre aux incidents. Contribuer à l'amélioration continue et offrir une expertise technique aux utilisateurs. Participer à l’échange de connaissance en apportant votre expertise Cloud DevOps au sein de l’équipe.

Freelance
CDI

Offre d'emploi
Data Engineer H/F

Atlanse
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

3 ans
10k-62k €
Châtillon, Île-de-France

Analyser des données en temps réel avec Azure Stream Analytics Collecter des données via des flux entre les bases de référence et Azure Afficher des données entrantes avec Event Hub Développer des programmes en Spark Scala Créer un pipeline Azure Data Factory pour exécuter Databricks notebook afin de traiter les données Traiter en batch des données Stocker des données dans le Datalake Azure Créer des projets et stocker du code sur Azure DevOps Réaliser la documentation avec Confluence (source des données, technos utilisées : Databricks, Azure Data Factory, Azure DevOps..., destination des données, stockage, monitoring…)

Freelance
CDI

Offre d'emploi
Consultant(e) en Gestion des Vulnérabilités et Sécurité Cloud

AS INTERNATIONAL
Publiée le
Cloud
Cybersécurité

3 mois
10k-47k €
Yvelines, France

Vos Missions : Contextualisation des Vulnérabilités : Analyser et contextualiser les vulnérabilités détectées en fonction des spécificités de notre environnement technique. Soutien Technique : Apporter un support technique aux équipes dans la résolution des vulnérabilités identifiées, notamment sur les infrastructures cloud publiques (GCP, Azure, AWS). Bonnes Pratiques en Cybersécurité : Aider à la mise en œuvre des meilleures pratiques de cybersécurité pour les clouds publics, en se concentrant sur les processus de mise à jour et de gestion des vulnérabilités logicielles. Coordination : Participer aux réunions d'animation avec les équipes techniques et coordonner l'affectation des vulnérabilités aux équipes appropriées, que ce soit automatiquement ou manuellement. Reporting : Produire des comptes rendus d’activité réguliers pour assurer un suivi efficace des actions et des résolutions de vulnérabilités.

CDI

Offre d'emploi
Ingénieur(e) Systèmes et Sécurité

iDNA
Publiée le
Cloud
Microsoft Windows
Pentesting

50k-55k €
Paris, France

Nous recherchons un(e) Ingénieur(e) Systèmes et Sécurité pour rejoindre notre équipe. Vos missions Au sein de l’équipe, vos missions consisteront à faire évoluer et à maintenir nos infrastructures d’hébergement et d’infogérance. Votre rôle d’Ingénieur(e) recouvrira différents types d’activités. À ce titre, vous serez chargé (e) d’(e ) : Intégration : assurer la réalisation de différents projets au forfait Support : participer à notre activité de support sur les périmètres système et sécurité. Conseils : audit d’architecture et de configuration, pentest, amélioration continue auprès de nos clients … Exploitation : Gérer le MCO/MCS, faire évoluer l’infrastructure (projets de création de nouveaux services en interne et pour nos clients…) Outils, Avantages & Perspectives Poste à pourvoir dès que possible Localisation : Paris 3ème arrondissement Rémunération package global de +/- 55K selon profil (Politique d’intéressement en place depuis 2015)

Freelance

Mission freelance
Data Engineer BI

CHARLI GROUP
Publiée le
Apache Spark
Apache Sqoop
BigQuery

3 ans
100-550 €
Île-de-France, France

➢ CONTEXTE * Au sein du domaine Data BI nous recherchons un Data Engineer qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l’équipe. À la suite d’une passation avec notre centre de service, il devra également être en mesure d’innover et d’améliorer les processus existants pour perfectionner l’efficience de l’équipe au quotidien dans ses différentes tâches. ➢ DESCRIPTION DE LA MISSION • Participe à l’analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) • Être force de proposition sur l’amélioration de notre stack Data • Faire le reporting d’avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Freelance

Mission freelance
Architecte Cloud GCP

VISIAN
Publiée le
Cloud
Cloud privé
DevOps

2 ans
100-750 €
Île-de-France, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un architecte cloud GCP Vous aurez pour principales missions : • Design et choix des solutions : o Accompagner la mise en place du programme GoToCloud et Central Data Platform lors des phases de cadrage et tout au long du développement des solutions : préconisation des choix de solutions, veille au respect des normes ; o Animer l’innovation et l’amélioration continue en pilotant les initatives de type « test & learn » ou « proof of value » destinées à démontrer l’intérêt et la pertinence d’évolutions de certains choix technologiques et d’analyse d’impacts associés aux évolutions des normes et standards et en participant à la veille technologique o Collaborer avec les autres fonctions en participant à l’élaboration et à la mise en œuvre de la stratégie technique Cloud Public o Contribuer à la définition des cibles d'architecture technique en lien avec le chapitre architecture transverse, en éclairant les besoins des entités servies par le Cluster ; • Modernisation du S.I. de l’entité partenaire o Contribuer à l’évaluation de la pertinence et de la cohérence des projets par rapport à l’architecture cible; o Mettre en évidence si nécessaire la complexité du S.I, son obsolescence architecturale, et promouvoir les solutions modernes, « cloud-native » et hautement scalables o S'assurer que tous les projets d'évolution informatique sont alignés avec la stratégie technique cible. o Contribuer à faire évoluer la stratégie technique et les cycles de vie des produits, services et/ou solutions; o Mettre à jour les référentiels documentaires. o Contribuer à l’animation de la gouvernance d’architecture, synthétiser et assurer le partage des décisions structurantes

Freelance

Mission freelance
Data Engineer

INSYCO
Publiée le
Gitlab
GitLab CI
Google Cloud Platform

15 mois
450-600 €
Paris, France

Nous recherchons pour notre client grand compte, secteur médias, un Data Engineer répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées par MAIL [à freelance à insyco . fr] avec les informations suivantes : - Argumentaire écrit répondant de façon ciblée au besoin - CV à jour (format Word) - Date de prochaine disponibilité - Tarif journalier - Merci d’indiquer la référence VSE/DATA/4525 en objet du mail La Direction Technique du Numérique de notre client mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Avec pour objectif d’accélérer dans le déploiement de la Gouvernance des données au sein de notre plateforme Data, nous souhaitons constituer une nouvelle équipe en charge de déployer les différents datasets organisés par domaine de données. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constituée de Python, Spark, SQL, dbt, BigQuery et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions de cette équipe : 1- Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2- Accompagner les utilisateurs dans leurs usages 3- Mettre en place le contrôle qualité sur ces datasets Prestation attendue pour les 2 lots En interaction avec les membres de l’équipe, la prestation consistera à - Construire et maintenir de pipelines data robustes et scalables - Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données - Organiser et structurer le stockage des données - Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données - Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données - Construire et maintenir les workflows de la CI/CD centrés données - Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur - Participer à la guilde des data ingénieurs - Assurer l’évolutivité, la sécurité, la stabilité des environnements - Contribuer et veiller à la mise à jour de la documentation - Faire de la veille technologique active dans le domaine - Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe

Freelance
CDI
CDD

Offre d'emploi
Senior SRE GCP (ref - AG)

FIRST CONSEIL
Publiée le
Ansible
Google Cloud Platform
Jenkins

6 mois
50k-62k €
Île-de-France, France

Compétences indispensables : Expert en infrastructure Azure/GCP Très bonne maîtrise sur la manipulation des certificats des reverse proxy (LB7 GCP, NGINX, HA proxy) Maîtrise des composants en Private access Excellente maîtrise de la gestion des droits Azure/GCP: l'objectif étant de respecter le principe de "moindre privilège". Excellente maîtrise autour des VPC Peering et les quotas associés. Tout est fait "as code" au travers de notre plateforme CI/CD (Terraform, Ansible, Jenkins..). Autres informations : Fonctionnellement, nos clients doivent pouvoir être autonomes et faire un maximum de "self service" sur les changements d’infrastructure, souvent orientés sur la configuration des équipements de sécurité et les expositions de services. Nous prenons en charge la complexité pour que l’usage soit facilité pour nos clients ! Nous agissons en tant que Cloud Service Provider interne. Nous fournissons les socles Cloud pour l’ensemble des projets. Nous construisons et faisons le run des infrastructures partagées pour différents types de workloads de production. Nous améliorons notre service en continu, via une automatisation toujours plus poussée (self healing, immutable) Nous utilisons les best practices SRE.

Freelance

Mission freelance
Senior Data Engineer (H/F)

LeHibou
Publiée le
BigQuery
Google Cloud Platform

6 mois
550 €
Paris, France

En tant que Senior Data engineer, au sein de la DSI dans l’équipe DATA, vous allez rejoindre une équipe dynamique et innovante. VOTRE CONTRIBUTION - Être responsable du design technique applicatif de sa solution (i.e. contrats d'interface), et de son évolution en adéquation avec l’architecte applicatif du pôle - Être garant du Build livré, de la conformité, des performances et de la sécurité des solutions développées, et responsable de la dette technique accumulée - Expérience dans la conception et la promotion de principes et de lignes directrices en matière d’implémentation de solution applicative dans le domaine de la data dans des organisations internationales complexes - Maîtrise avancée des services GCP, notamment BigQuery et DataForm ou une expertise similaire avec DBT - Capacité démontrée à travailler de manière autonome tout en comprenant les besoins métiers. Accompagnement des équipes métiers - Comprendre le besoin exprimé par les PO et le traduire en solution technique - Travailler avec les architectes applicatifs des différents domaines métiers pour faire valider de nouvelles implémentations et si nécessaire passer en comité d’architecture. - Forte capacité à communiquer efficacement avec les parties prenantes techniques et non techniques.

Freelance
CDI

Offre d'emploi
Architecte réseau sécurité - (H/F)

SWING-ONE
Publiée le
Ansible
AWS Cloud
Cybersécurité

1 an
50k-70k €
Île-de-France, France

1) Contexte de la mission : Notre client Grand-Compte du luxe recherche un architecte réseau sécurité. L’architecte réseau et sécurité a pour principales missions : la définition d’architecture d’une solution standard, la spécification en réponse à un besoin client, la réalisation d’un cadrage, l’étude d’une solution répondant aux demandes études ou projets de la société cliente. Les infrastructures réseau et sécurité sont répartis sur plusieurs data centers world wide (firewall, VPN, switchs data center, Radius, DDI, DNS externe, Loadbalancing) et Cloud. 2) Missions du poste : En tant qu’architecte réseau sécurité, votre mission consistera à : Cadrer les demandes projet réseau sécurité affectées à l’équipe TP Network dans un contexte complexe et international. Réaliser des POC et proposer des solutions d’évolution des infrastructures réseau et sécurité. Rédiger les documents d’architecture et animer des réunions en anglais. Réaliser des opérations de migration. Piloter des intégrateurs. 3) Jalons clés : Validation des accès aux infrastructures et outils. Prise en compte du contexte de la société cliente : documentation et Process. Prise en compte des premières demandes et projets.

Freelance

Mission freelance
DevOps Sénior avec une expérience en développement

SKILLWISE
Publiée le
AWS Cloud
CI/CD
Infrastructure

1 an
100-650 €
Paris, France

Vous intégrerez une équipe de passionnés d'architecture Cloud au sein d'un grand groupe dans le secteur du divertissement et participerez pleinement à faire évoluer un environnement technique très varié et up to date à travers les missions suivantes : Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/ CD…) Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) Travailler en étroite collaboration avec l’équipe d’infrastructure. Veille technologique dans le domaine du DevOps La stack : AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
Apache Kafka
BigQuery
CI/CD

3 ans
350-500 €
Lille, Hauts-de-France

La mission consiste à : - Participer aux rituels agiles - Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprise - Développer les solutions data - Valider la qualité des développements - Améliorer et optimiser le patrimoine actuel - Maintenir les solutions existantes (RUN) - Contribuer à la construction du nouveau socle et des services - Accompagner les métiers sur les bonnes pratiques de l'exploitation de la Data - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Première expérience en Data Engineering indispensable - Expertise SQL, ETL, CI/CD, GIT, Terraform, Kafka, GCP ... - Connaissances sur Power BI, Looker ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +

566 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous