Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 479 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Architecte Data Azure

Inventiv IT
Publiée le
Azure
Azure Data Factory
BI

2 ans
70k-95k €
Paris, France

INVENTIV IT est à la recherche de son futur Architecte Data Azure. Avec 7 ans d'expérience au minimum Profil Technico-fonctionnel. Nous travaillons principalement dans un environnement Azure sur des sujets Big Data & Data Viz. Nous gérons à la fois le Build & le Run des applicatifs. Nous devons avoir une vision 360 des sujets Data : Data Mesh, Data Management, Acculturation Data ... Environnemennt : Azure Data Lake Azure Databricks Azure Synapse Azure Fabric Azure Data Factory Spark / Scala / Python Power BI Snowflake Résumé quelques une de nos missions : Participation à l’évaluation et à la livraison de composants Azure • Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). • Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. • Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. • Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). • Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. • Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure.

Freelance

Mission freelance
Chef de Projet Sauvegarde (DataCenter On-Premise)

RED Commerce - The Global SAP Solutions Provider
Publiée le
ITIL
Python
Shell

6 mois
100-570 €
Hauts-de-France, France

Nous recherchons un(e) Chef de Projet spécialisé(e) en solutions de sauvegarde pour diriger des projets critiques liés aux infrastructures DataCenter OnPremise, en veillant à la performance et à la robustesse des solutions déployées. Missions : Gestion de projets : Piloter les projets d’expertise sur les solutions de sauvegarde, incluant la création, l’évolution et la suppression des lignes de service. Support et expertise : Accompagner les équipes en BUILD et en RUN pour la résolution de problèmes et l’amélioration continue. Activités clés : Finaliser la migration de Networker vers Rubrik. Optimiser et répartir les infrastructures/appliances Rubrik. Définir et documenter les SLA. Gérer la migration des sauvegardes de l’ensemble des serveurs. Mettre en place l’externalisation des sauvegardes. Débloquer des situations complexes grâce à des audits de performance et des propositions d'amélioration. Participer aux réunions de suivi (COPROJ) et assurer la visibilité des avancées. Collaborer avec les architectes en amont pour garantir la qualité des solutions. Déployer les solutions en conformité avec la gestion du changement. Assurer la documentation et l’exploitabilité des solutions pour les équipes d’exploitation.

Freelance

Mission freelance
Développement Python

BEEZEN
Publiée le
Flask
Python

3 mois
100-450 €
Île-de-France, France

Le Bénéficiaire souhaite une prestation d’accompagnement dans le cadre du maintien de la solution d’orchestration de la microsegmentation . La mission consiste à conduire la recherche expertise technique capable de permettre la continuation de l'évolution de la solution d'automatisation et d'orchestration des codages du Groupe Les missions sont: - Developpement de l'automatisation autour de la microsegmentation - Test unitaires - Qualification des Users stories Technologies utilisés: python, flask, celery, redis, docker, kubernetes

Freelance

Mission freelance
Développeur python/Dash

INFOTEL CONSEIL
Publiée le
Dash
Python

1 an
300-400 €
Île-de-France, France

Prestations et Attendus : Développer l’interface graphique (DASH, python) , ainsi que développer une interface graphique (Web app). Les taches attendus : Permettre à l’algorithme d’identifier les appareils de voie via la signature géométrique qui leur est propre sur le signal de l’écartement non filtré. • Inclure dans l’interface graphique une étape dans le processus de relocalisation afin de donner à l’utilisateur la possibilité de valider/invalider les changements de voie (via l’écartement non filtré). Une carte (type maps) permettra à l’utilisateur de localiser les ADV et de les confirmer/invalider. Le signal géométrique de l’écartement sera également affiché sur cette interface. Les images des cameras infrarouge à venir récupérer sur MDDS (serveur Microsoft Azure) seront affichées si disponible • L’ensemble des appareils de voies valider et invalider seront regroupés dans une BDD. La géolocalisation (GL) des points correspondant à chaque ADV sera déterminée puis ajouter à la base de données, au même titre que la ferro localisation (FL). Permettre à l’algorithme de consulter la BDD des ADV afin d’adapter la relocalisation dans les zones concernées lors de chaque nouvelle utilisation. Ajouter une étape dédiée à la vérification et à l’ajustement des PK grâce au pas séparant chaque mesure (une valeur toutes les 25 cm). • Identifier les sauts de PK (irrégularité dans la continuité des PK) et ajuster les zones correspondantes dans le processus de relocalisation. Une BDD sera créée afin de regrouper l’ensemble de ces points singulier, en y greffant la GL et la FL. Permettre à l’algorithme de consulter la BDD des sauts de PK afin d’adapter la relocalisation dans les zones concernées lors de chaque nouvelle utilisation. Permettre à l’utilisateur de modifier les noms de voies ainsi que les numéros de ligne. Une fois ces modifications faites, une phase d’approbation sera nécessaire (dans un onglet dédié par exemple) afin de valider ces changements et permettre de venir mettre à jour la BDD LOCINFRA pour les prochains utilisateurs. • Identifier les zones de tunnels et permettre à l’utilisateur de valider ou non les zones de tunnels à l’aide d’une carte type maps. Créer une BDD regroupant l’ensembles des tunnels avec la GL et la FL du début et de la fin des tunnels. Permettre à l’algorithme de consulter la BDD des tunnels afin d’adapter la relocalisation dans les zones concernées lors de chaque nouvelle utilisation.

Freelance

Mission freelance
Développeur PYTHON

KEYNAN
Publiée le
GitLab CI
HTTP
Javascript

6 mois
400-450 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un développeur PYTHON expérimenté pour un de nos clients : Contexte : Le candidat sera responsable de la réécriture de l'outil d'exécution des tests en Python et JavaScript, avec pour objectif d'améliorer la fiabilité du processus de supervision. Il travaillera au sein de l’équipe de développement, afin de garantir le bon fonctionnement des applications du point de vue utilisateur. Tâches exercées : Refonte de l’outil d'exécution des tests Développement et optimisation des scripts de test Intégration continue et contrôle qualité Amélioration des outils internes pour faciliter l'analyse et la visualisation des résultats de tests Une bonne expression orale et écrite ainsi que des qualités pédagogiques sont requises Il devra faire du transfert de compétence aux internes Migrer le code qui est écrit en JavaScript vers Phyton Migrer la pipeline GitLab CI existante vers Jenkins

Freelance

Mission freelance
Data Scientist MLOps H/F

Scalesys
Publiée le
Machine Learning
PySpark
Python

6 mois
100-520 €
Île-de-France, France

Imaginez-vous au cœur de l’action, travaillant pour un acteur majeur du secteur bancaire ! Dans le cadre d’un renfort d’activité, nous recherchons un Data Scientist MLOps H/F en Freelance, spécialisé dans le développement et le déploiement et modèles d’apprentissage automatique. Vous jouerez un rôle clé dans la mise en place et la gestion des pipelines Machine Learning. En tant que Data Scientist MLOps, vous serez en charge de : Développer et déployer des modèles d’apprentissage automatique Mettre en place et gérer des pipelines Machine Learning (MLOps et LLMOps ) Contribuer aux projets de Data Engineering impliquant PySpark Créer et maintenir une documentation détaillée des processus et solutions Assurer la qualité et la performance des modèles déployés

Freelance

Mission freelance
Expert IAM Multi-Cloud (AWS + AZURE & GCP)

Groupe Aptenia
Publiée le
AWS Cloud
IAM
Python

6 mois
400-550 €
Paris, France

Missions : Évaluer les configurations IAM actuelles sur AWS, identifier les vulnérabilités potentielles, et définir des améliorations possibles Élaborer une stratégie de gestion des identités, des accès et des permissions adaptée aux besoins de l'entreprise et conforme aux règles de sécurité Appliquer les pratiques recommandées par AWS pour la gestion IAM (services : AWS IAM, AWS Organizations, et AWS SCP). Former et accompagner les équipes projet sur les concepts IAM et l’utilisation des outils AWS pour renforcer la culture de la sécurité dans l’organisation.

CDI
Freelance

Offre d'emploi
SysOps H/F

OTTEO
Publiée le
API REST
Automatisation
CI/CD

6 mois
40k-50k €
Lille, Hauts-de-France

Votre 1er projet : Vous accompagnerez notre client historique de la région, dans le domaine de la supply chain. Votre intégrerez une équipe chargée de développer plateformes et outils digitaux dédié à se contexte particulier. Le Sysops sera chargé de la mise en place des stacks technique (infrastructure, delivery, monitoring, ...) pour les environnements applicatifs tout en ayant la responsabilité de les maintenir. Vos missions : Garantir la disponibilité des applications Garantir la sécurité des infrastructures des applications Donner un maximum d'autonomie aux utilisateurs Analyser et résoudre les incidents Aider à la conception des nouvelles plateformes Cloud pour héberger les applications à venir Améliorer le monitoring Automatiser Contribuer au sein de la communauté d’experts interne Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !

Freelance

Mission freelance
Data Scientist

BLOOMAYS
Publiée le
Python

3 mois
500-700 €
Paris, France

As a member of the Data Science team, alongside our technical experts, you will get an opportunity to: Lead project delivery on data science aspect Participate in client meetings and workshops around data science deployment projects Scope clients needs and feedback and translating them to achievable data science tasks Manage data science team to ensure timely delivery of the project Learn about health data and healthcare insurance dynamics Improve OCR and NLP pipelines deployed on insurance claims data Enhance fraud detection machine learning models Explore and analyze big and challenging datasets Scale proprietary patient journey optimizer based on state-of-the-art optimal transport Supervise the implementation and optimization of associated algorithms Integrate this in our python/pytorch/react/postgresql/django stack __________ En tant que membre de l'équipe Data Science, aux côtés de nos experts techniques, vous aurez l'opportunité de : Diriger la réalisation du projet sur l'aspect science des données Participer aux réunions clients et aux ateliers autour des projets de déploiement de la science des données Évaluer les besoins et les commentaires des clients et les traduire en tâches de science des données réalisables Gérer l'équipe de science des données pour assurer la livraison rapide du projet En savoir plus sur les données de santé et la dynamique de l'assurance maladie Améliorer les pipelines OCR et NLP déployés sur les données de réclamations d'assurance Améliorer les modèles d'apprentissage automatique de détection de fraude Explorez et analysez des ensembles de données volumineux et complexes Optimiseur de parcours patient propriétaire à grande échelle basé sur un transport optimal de pointe Superviser la mise en œuvre et l'optimisation des algorithmes associés Intégrez ceci dans notre pile python/pytorch/react/postgresql/django

Freelance

Mission freelance
Data Architecte

Trait d'Union Consulting
Publiée le
Apache Airflow
Apache Kafka
AWS Cloud

1 an
450-600 €
Paris, France

Le poste de Data Architecte consiste à renforcer l’équipe DataPlatform au sein de la DSI, en assurant le développement et la structuration de la plateforme Data pour garantir une intégration optimale des données provenant de diverses filiales. Le Data Architecte participera à l'analyse des besoins métiers, la modélisation des objets d’entreprise, et la mise en place d’architectures de données conformes aux standards. Il sera également chargé de superviser la modélisation de la plateforme, de spécifier techniquement les flux de données, et d'assurer le maintien et la documentation des contrats d’interface. La mission inclut la réalisation de tests unitaires et d’intégration, et le respect des bonnes pratiques en matière de modélisation et d’architecture.

Freelance
CDI

Offre d'emploi
TechLead DevOps

bdevit
Publiée le
Ansible
Apache Kafka
CI/CD

36 mois
50k-55k €
Île-de-France, France

Anglais : Courant Localisation : Issy Les Moulineux 2 jours de TT par semaine Au sein de l'équipe Infrastructure et Architecture, vous contribuerez à l'amélioration continue de notre infrastructure logicielle et de nos solutions d'hébergement pour les systèmes Core Group IT, en utilisant des technologies de pointe telles que Kubernetes, Kafka et des bases de données répliquées. Curieux d’apprendre de nouvelles technologies et doté de solides compétences en résolution de problèmes, vous collaborerez avec les équipes Agiles Infrastructure et SRE pour concevoir et implémenter les composants on-premises utilisés par les applications Geopost. Vous assurerez également le transfert de connaissances avec l’équipe SRE sur les systèmes développés. Les principales activités et responsabilités sont : - Participer aux cérémonies de l'équipe (Daily, Sprint Planning) ; - Concevoir et mettre en œuvre des composants d'infrastructure répondant aux besoins des applications ; - Participer aux revues de code ; - Documenter et maintenir les solutions techniques ; - Résoudre les problèmes système au fur et à mesure qu'ils surviennent ; - Mesurer la performance des systèmes mis à jour ou nouvellement installés. Exigences Techniques - Infrastructure : Kubernetes, Kafka, Redis, Apache Reverse Proxy, Ha Proxy,... ; - Continuous Delivery & Deployment: Git, Gitlab CI, Maven, Terraform, Ansible, Vault ; - CI/CD : Gitlab/Terraform/Vault ; - Solid Programming Language : Ansible/Python/Shell/Java ; - Database : PostgresQL, MariaDB, Cassandra, MongoDB, …

Freelance
CDI

Offre d'emploi
Ingénieur DevOps(H/F)

CITECH
Publiée le
Gitlab
Grafana
Helm

12 mois
50k-65k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet d’envergure, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur DevOps(H/F) 🚀 🎲 Notre client est l’un des leaders des jeux d’argent en Europe, avec plus de 25 millions de Français adeptes d’une offre de jeux sécurisée, innovante et créatrice de valeur pour la collectivité. Il s’adapte continuellement aux usages pour proposer de nouvelles expériences de jeux, notamment en diversifiant le réseau de distribution (site web, points de vente, applications mobiles). 🎰 🙌🔽 Les tâches à effectuer seront donc les suivantes : 🔽🙌 🔸 Développer et déployer des pipelines avec automatisation des tâches ; 🔸 Gérer la préproduction : stratégie de tests, déploiement applicatif, ordonnancement et communication ; 🔸 Préparer la Mise en Production (MEP) : participer aux réunions, répéter les opérations, et documenter les changements ; 🔸 Assurer la production : déploiement, Maintien en Conditions Opérationnelles (MCO), gestion des incidents et problèmes (ITIL).

CDI
Freelance

Offre d'emploi
Ingénieur DevOps

Deodis
Publiée le
CI/CD
Git
Gitlab

6 mois
42k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Contexte : Le client souhaite faire appel à un Prestataire pour une mission d’assistance concernant le Maintien en Conditions Opérationnelles des applications dédiées aux activités tirages et sport en point de vente ainsi que l’amélioration des processus DevOps. Le prestataire étant spécialisé dans l’exploitation et l’industrialisation des applications basées sur les technologies Web. Missions : Dans le cadre de la mission, il sera demandé au prestataire de réaliser les tâches suivantes : Industrialisation des processus « DevOps » : Création et déploiement de pipeline sur tous les environnements Scripting et automatisation des tâches récurrentes Gestion de la production applicative : Sur les environnements de préproduction : Contribution à la stratégie des tests d’homologation Déploiement de composants applicatifs et prise en compte des consignes spécifiques, Mise en place de nouvelles chaines d'ordonnancement, Communication auprès du service des actions réalisées. Dans le cadre de la préparation de la Mise en Production (MEP) : Contribution au plan de MEP en participant aux différentes réunions, Répétition des gestes de MEP en respectant les modes opératoires prévus et le cadencement du plan de MEP Rédaction des tâches de changements. Sur l'environnement de production : Déploiement en production des applications, Assurer le Maintien en Conditions Opérationnelles (MCO) dans le respect des engagements de services communiqués, Gestion des incidents de production et des problèmes (ITIL).

Freelance

Mission freelance
Data Scientist - Time Series

WESPACES
Publiée le
Data science
Python
Time series

6 mois
100-520 €
Roissy-en-France, Île-de-France

Analyser et modéliser des séries temporelles pour optimiser les processus décisionnels. Collaborer avec les équipes techniques et métier pour développer des solutions data-driven. Participer activement à la gestion et à l’amélioration continue des modèles en production. Compétences requises : Maîtrise des techniques de modélisation Time Series . Solides connaissances en Python et bibliothèques associées (Pandas, Numpy, Scikit-learn). Bonnes compétences en communication pour transmettre des insights aux équipes non techniques.

Freelance

Mission freelance
DevOps

VISIAN
Publiée le
Apache Kafka
Apache Tomcat
DevOps

1 an
360-550 €
Marseille, Provence-Alpes-Côte d'Azur

Contexte de la Mission : L’objectif de la mission est de fournir une assistance experte pour le Maintien en Conditions Opérationnelles (MCO) des applications métier en point de vente, tout en améliorant les processus DevOps. Le prestataire jouera un rôle clé dans l’exploitation et l’industrialisation des applications basées sur des technologies Web. Environnement Technique et Compétences Recherchées : • Systèmes : Unix/Linux et Windows • Langages de scripting : Shell et Python • Systèmes conteneurisés : Docker, Kubernetes, Rancher • Outils de déploiement continu : Gitlab-CI, Jenkins • Architectures distribuées et middlewares : Tomcat, Zookeeper, Hazelcast, Nginx/Apache, Kafka • Bases de données : SQL (DB2, Oracle, PostgreSQL) et NoSQL (MongoDB) • Outils d’ordonnancement et d’observabilité : Control-M, Alerta, Prometheus, Grafana

CDI

Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75

Mindquest
Publiée le
AWS Cloud
Confluence
Databricks

70k-75k €
Paris, France

Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité

479 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous