Trouvez votre prochaine offre d’emploi ou de mission freelance Jupyter Notebook

Votre recherche renvoie 5 résultats.
Freelance

data engineer GCP

Innov and Co

Les principales missions consistent à : - produire des analyses permettant de construire des visions enrichies du marché, des tendances/benchmark pour aider la prise de décisions et favoriser les initiatives sur les axes stratégiques majeurs. - construire des algorithmes, élaborer des modèles prédictifs permettant d’anticiper des tendances relatives à l’activité des paiements ou d’améliorer significativement certains processus de production et commerciaux. - d’alimenter et d'assister les équipes métiers en données de paiement et clients permettant de mener les analyses, - être force de proposition sur les méthodes / techniques à mettre en place pour répondre aux demandes d’études. Le consultant sera également en charge de modéliser ses résultats d’analyse pour les rendre lisibles et exploitables par les managers. Il participe à la collecte, à la transformation et à la gestion des données pour en assurer l'intégrité, la sécurité et la qualité dans le cadre de la gouvernance Data du Groupe. Le consultant participe activement aux différentes communautés Data Analyse Profil : • Compétences métiers en moyens de paiements appréciées • Etudes statistiques • Rigueur dans le développement, les stratégies de recette et de qualification de ses travaux • Très bon sens relationnel • Bon communicant à l’écrit et à l’oral • Capacité d’initiative • Capacité à travailler en équipe et co-création • Support utilisateur • Méthodologies : Scrum, Kanban, SAFe Maitrise des méthodes agiles et des rituels associés. Capacité à gérer plusieurs sujets en même temps et de travailler en équipe. Proactivité et adaptabilité.

Démarrage Dès que possible
Durée 12 mois
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Charenton-le-Pont, Île-de-France
Freelance

Big Data (Spark, Trino ou MinIO) Expérimenté

ISE SYSTEMS

Contexte : Recherche un Ingénieur Big Data expérimenté pour administrer et optimiser des solutions Big Data (Spark, Trino, MinIO) sur un cluster Kubernetes au sein d’un grand groupe bancaire. Ce rôle requiert une forte expertise en tuning applicatif, support et approche DevOps/GitOps . Missions : Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.

Démarrage Dès que possible
Durée 5 ans
TJM 450-590 €⁄j
Télétravail Télétravail partiel
Lieu Puteaux, Île-de-France
Freelance

Développeur React

Cherry Pick

Cherry Pick recherche un Développeur React pour un client dans le secteur militaire. 🎯 Mission principale : Dans un environnement Agile à l’échelle, vous intégrerez une équipe de développement et serez responsable de la conception et de l’implémentation de nouvelles fonctionnalités. 🛠 Compétences techniques requises : ✅ Maîtrise de : React Java Flink Spark Jupyter Trino Terraform Ansible Superset 🔍 Connaissances appréciées : GitLab Runner Si vous êtes passionné par les technologies modernes et souhaitez évoluer dans un secteur exigeant et stratégique, envoyez-nous votre candidature dès maintenant ! 🚀

Démarrage Dès que possible
Durée 12 mois
Télétravail Télétravail partiel
Lieu Vélizy-Villacoublay, Île-de-France
Freelance

POT8344-Un Ingénierie DevOps/MLOps AWS sur Paris 15e/ Télétravail

Almatek

Almatek recherche pour l'un de ses clients, Un Ingénieur Devops/MLops AWS orienté IA et Cloud public sur Paris 15 Projet : Nous recherchons un Ingénieur Devops orienté IA et Cloud public. Il interviendra sur l’ensemble du cycle de vie (design, build, run) des projets orientés IA. Principaux livrables : Identifier les évolutions fonctionnelles et techniques des produits nécessitant des activités ops et les traduire dans le backlog en tant que « récits techniques ops » Provisionner les moyens techniques d’infrastructure dans tous les environnements Intégrer les produits dans les plateformes AWS et GCP (IaC, supervision/monitoring, backups, archives, log management) Fabriquer des composants techniques (scripts d'industrialisation, de déploiements, templates d’infra as code…) et automatiser les opérations en exploitant les services MLOPS Mettre en place les indicateurs d’observabilité infrastructure et applicative, du monitoring des modèles et s’assurer de l’intégration des exigences de production dans les applications livrées Mettre à disposition une chaine d'entrainement et d’exécution des modèles Prendre en main des outils de DataOps et MLOps pour industrialiser des modèles de ML et d’IA. Contribuer et maintenir les référentiels et consignes d’exploitabilité Réaliser les actes de MEP Suivre les SLAs des produits, contrôler le bon fonctionnement de la production et assurer le reporting Anticiper, traiter et suivre les incidents d’exploitation en analysant les causes racines et en prenant les mesures correctives nécessaires Suivre les consommations et allocations des ressources Normalisation des éléments produits Sécurisation by design et revue périodiques Maintien des capacités dans le temps Capacité à identifier les opportunités et limites de l’open source vs des services managés Capacité à fédérer autour des choix préconisés Compétences requises : Compétences métier : Expérience pratique en tant qu'ingénieur DevOps, responsable de l'automatisation des déploiements et de la gestion des infrastructures cloud, notamment AWS. Expertise sur la chaîne MLOPS : capture et préparation de la donnée, feature engineering, entraînement, monitoring, déploiements et évaluation des modèles Solides compétences en scripting, normalisation et en automatisation Gestion du cycle de vie des applications MCO Infrastructure et Applicatif MEP Infrastructure et Applicatif - Rédaction des procédures d'exploitation, documentation Analyse\Solution d'incidents d’infrastructure Environnements techniques : AWS, (GCP) - Sagemaker (studio, notebook instance), KubeFlow, TensorFlow, Pytorch Notebook, Python Terraform (environnement Air Gap notamment), rebase Artifactory, ECR, Helm EKS, Kubernetes, Docker, ArgoCD Jenkins Grafana, CloudWatch, ELK, OpenSearch

Démarrage Dès que possible
Durée 6 mois
TJM 100-280 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data Analyst GCP / Power BI

HIGHTEAM

Nous recherchons pour l’un de nos clients grand compte un Data Analyst GCP / Power BI , afin d’intervenir au sein des équipes BPCE Payment Services. En tant que Data Analyst , vous aurez pour mission de : Comprendre l’environnement métier et les enjeux des services BPCE Payment. Définir et certifier les KPI des Observatoires (y compris compliance). Collecter, transformer et gérer les données pour garantir leur intégrité, sécurité et qualité . Accompagner les équipes commerciales en produisant des livrables facilitant l’avant-vente. Participer à l’implémentation des livrables d’analyse après contractualisation avec un client. Soft Skills Sens de l’initiative et de l’atteinte des résultats. Capacité à travailler en équipe Excellentes compétences en communication Idéalement, une expérience en gestion de projet digital avec une sensibilité au design et à l’UX . Maîtrise des méthodologies Scrum, Kanban . Bonne maîtrise des logiques décisionnelles et des architectures data. Expérience avec Azure (Synapse, SSAS) et Google Cloud Platform (BigQuery) . Compétences en SQL, Python, Jupyter Notebook . Utilisation des outils de versioning et delivery (Git) . Excellente maîtrise de Power BI pour la visualisation des données.

Démarrage Dès que possible
Durée 3 ans
Salaire 32k-40k €⁄an
TJM 350-400 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France

Les métiers et les missions en freelance pour Jupyter Notebook

Data scientist

Le/La Data Scientist utilise Jupyter Notebook pour développer, documenter et tester des modèles de machine learning.

Data analyst

Le/La Data Analyst utilise Jupyter Notebook pour analyser et visualiser des données de manière interactive.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous