Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 521 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Expert Cybersécurité opérationnelle PKI

EMGS CONSULTING
Publiée le
API
Docker
Kubernetes

6 mois
500-600 €
Lille, Hauts-de-France

Dans le cadre de cette mission, nous recherchons un profil ayant une solide expertise en sécurité technique et en développement sécurisé, idéalement dans un environnement DevSecOps. Voici les attentes et prérequis pour ce poste : Vous justifiez d'une expérience significative de 5 à 6 ans minimum dans des fonctions d'expert en sécurité technique ou de développeur sécurisé, avec des résultats probants. Vous êtes familier avec des environnements complexes et évolutifs, incluant des pratiques DevSecOps avancées.

CDI

Offre d'emploi
Développeur GO Confirmé H/F

Reactis
Publiée le
Docker
Go (langage)
Kubernetes

38k-43k €
Toulouse, Occitanie

Intégré(e) à une équipe, vos principales missions sont notamment : - Lire les spécifications systèmes et logicielles - Coder les composants physiques Modules de la solution : briques de monitoring (orchestration, container, réseau) et Data Integration Layer. Développement de la « Glue » logicielle entre les COTS/OSS de la plateforme. Création d'adaptateurs et de contrats d’insertion avec les logiciels applicatifs des produits. Mettre en place et gérer les pipelines CI/CD en conformité avec les règles de développement - Rédiger et exécuter les cas de tests, ainsi que les procédures de tests automatiques au cours du développement logiciel. - Définir et réaliser les cas de tests et procédures de tests manuelles complémentaires. - Collecter et tracer les résultats des tests par rapport aux exigences. - Configurer les COTS intégrés aux composants physiques de la solution conformément à la définition du Tech Lead. - Participer à l’écriture du manuel utilisateur.

Freelance

Mission freelance
Data Quality Manager - Dématérialisation fiscale

BLOOMAYS
Publiée le
Business Process Model and Notation (BPMN)
Databricks
Python

11 mois
400-500 €
Gennevilliers, Île-de-France

Description et livrables de la prestation : Dans le cadre de divers projets réglementaires et stratégiques et en particulier celui de la dématérialisation des factures, nous devons assurer la maîtrise et la qualité de nos données. Le Data Manager jouera un rôle clé dans la gestion et l'optimisation des données de l'entreprise, garantissant leur qualité et leur conformité aux objectifs et aux normes établies. Missions : • Dans le cadre règlementaire de la dématérialisation fiscale des factures, en appui du Data Manager, vous assurerez une qualité des données conforme à une facturation dématérialisée imposée par la règlementation de l’état. • Vous assurerez une partie de la mise en place de la classification des données au sein du modèle de données d’entreprise (EDM) • Vous participerez, en regard des priorités données, à de la mise en qualité de données sur différents projets, en regard de l’expertise et industrialisation réalisé sur le projet majeur de dématérialisation fiscale des factures. Rôles : • Assurer la Qualité des Données : Veiller à ce que le niveau de qualité des données soit en adéquation avec les enjeux et objectifs définis par les projets. Proposer des solutions techniques et fonctionnelles de remédiation et de maintien de la qualité des données dans le temps. • Analyse et exploration préliminaire de la qualité des données : A l’aide d’outils SQL et/ou Python, analyser les données afin de les comprendre, d’évaluer de manière préliminaire leurs qualités et leur conformité en regard des exigences. • Mise en Place de Points de Contrôle : Basé sur sa production et/ou sa contribution et/ou sa lecture des documentations des processus métiers et techniques, ainsi que des entretiens métiers et techniques, proposer et mettre en place des points de contrôle dans les outils et sous forme de tableau de bord pour assurer la qualité des données sur son cycle de vie. • Classification des Modèles de Données : Participer à la classification des modèles de données et accompagner les projets dans la mise en œuvre de la Data Privacy by design. • Documentation des Catalogues et Flux de Données : Produire et maintenir la documentation des catalogues de données, des flux de données, et des architectures de données pour garantir une compréhension claire et partagée des données au sein de l'organisation. • Accompagnement dans la Production des Politiques de Données : Collaborer avec le Data Governance Manager pour élaborer et mettre en œuvre les politiques de données de l'entreprise, assurant leur alignement avec les objectifs stratégiques et réglementaires.

CDI

Offre d'emploi
Support technico-fonctionnel Finance de Marché

Atlanse
Publiée le
Python
SQL

10k-65k €
Île-de-France, France

Vous interviendrez en tant que support technico fonctionnel avec une parfaite compréhension du secteur financier dans un contexte international. Missions : Effectuer le support fonctionnel et le support à la production Assurer le maintien en condition opérationnelle des plateformes applicatives Réaliser le monitoring des flux de données Suivre et résoudre les incidents Coordonner le projet Assurer une communication régulière auprès des métiers Effectuer des reportings réguliers La maîtrise de l’anglais technique est indispensable pour mener à bien cette mission.

CDI

Offre d'emploi
Data Scientist

Zsoft Consulting
Publiée le
Business Intelligence
Cloud
Data science

38k-45k €
La Défense, Île-de-France

Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.

CDI

Offre d'emploi
Ingénieur DevOps

Zsoft Consulting
Publiée le
Administration systèmes et réseaux
Automatisation
Bash

38k-45k €
La Défense, Île-de-France

Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Ingénieur DevOps. En tant qu'ingénieur DevOps, vous jouerez un rôle clé dans l'automatisation et l'optimisation des processus de déploiement, de monitoring et de gestion des infrastructures cloud ou on-premise. Vous collaborez étroitement avec les équipes de développement et d'exploitation pour assurer la qualité, la stabilité et la scalabilité des applications et des systèmes. Responsabilités Principales: Automatisation : Développer et maintenir des pipelines CI/CD pour assurer des déploiements continus et fiables. Infrastructure as Code (IaC) : Concevoir et gérer les infrastructures avec des outils comme Terraform ou Ansible. Monitoring et Logs : Implémenter et surveiller les systèmes de monitoring (Prometheus, Grafana, ELK, etc.) pour garantir la disponibilité des services. Collaboration : Travailler en étroite collaboration avec les développeurs pour intégrer les pratiques DevOps dans les cycles de développement. Cloud Computing : Déployer et gérer des applications dans des environnements cloud (AWS, GCP, Azure). Sécurité : Participer à la mise en œuvre des bonnes pratiques de sécurité dans les pipelines et les systèmes. Compétences Techniques Requises: Systèmes : Bonne maîtrise des systèmes Linux (CentOS, Ubuntu) et bonne connaissance de Windows Server . Conteneurisation : Expérience avec Docker et orchestration via Kubernetes . Outils CI/CD : Familiarité avec des outils comme Jenkins, GitLab CI/CD, ou GitHub Actions. Infrastructure as Code (IaC) : Connaissance de Terraform , CloudFormation ou Ansible. Langages de script : Compétences en Bash , Python ou Go pour automatiser les tâches. Cloud : Expérience avec au moins un fournisseur cloud ( AWS, GCP, Azure ). Versionning : Bonne maîtrise de Git et des workflows Git ( GitFlow, GitOps ). Monitoring : Expérience avec des outils comme Prometheus, Grafana, ou des solutions APM ( Datadog, New Relic) .

Freelance
CDI

Offre d'emploi
Développeur Python

MSI Experts
Publiée le
Docker
Kubernetes
Python

1 an
35k-42k €
300-400 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons pour notre client sur Lyon un Développeur python expérimenté afin de : Développer, exploiter et maintenir des applications. Assurer le développement et le déploiement de votre code via Docker et Kubernetes. Collaborer directement avec les Product Owners (PO) pour clarifier et développer les tickets. Participer aux sessions de backlog refinement avec l’équipe. Mettre à jour et gérer la documentation technique. Réaliser des Proofs of Concept (POC) et chercher à améliorer les solutions existantes.

Freelance

Mission freelance
Data Scientist

ESENCA
Publiée le
Google Cloud Platform
Python

3 mois
400-500 €
Lille, Hauts-de-France

Votre mission consistera à : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA. - Mettre en œuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business - Collaborer avec les autres Data scientist de l'équipe - Industrialiser les solutions R&D - Assurer le RUN des services IA en production. - En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable Compétences techniques : Python - Expert - Impératif GCP - Confirmé - Impératif VertexAI - Expert - Impératif GenAI - Confirmé - Impératif

CDI

Offre d'emploi
testeur PYTHON

Altedis
Publiée le
Python

30k-40k €
Paris, France

Dans le cadre d'une Embauche chez notre client après 6 mois de prestation, vous intégrerez l'équipe QA. Notre client: leader mondial - domaine : mobilité urbaine. votre activité: rédaction des cahiers de tests et des rapports de tests 2/3 de son temps outils de tests: 80% sont en python Le 1/3 restant de son temps est de maintenir et développer des outils de tests internes environnement technique: Librairie Python UI/UX : WxPython – PyQt – Flet – Tkinter Test : Selenium – Unittest – Panda Script : re – http – pymysql – psycopg2 Fichier : PyInstaller – cx_Freeze – Cython Web : Django – Flask Qualités requises: Travail en équipe, Curiosité, Réactivité, Communication, Organisation, Adaptabilité, Autonomie. Pour postuler: possibilité" de travailler à Paris centre très bonne qualité humaine maitrise de python et des tests qui vont avec anglais opérationnel

Freelance

Mission freelance
Developer Trading

JCW Search Ltd
Publiée le
Kubernetes
Python
Scala

6 mois
400-600 €
Île-de-France, France

JCW est à la recherche d'un Developer Trading qui pourrait commencer une nouvelle mission pour 2025, pour l’un de ces clients. LE CONSULTANT: Connaissance des cinématiques de prise et transmission d’ordres Equities en intermédiation Connaissance des produits dérivés sera un avantage Connaissance de l'environnement de trading en temps-réel Connaissance du trading algorithmique Equities Connaissance des process DevOps Maitrise de SQL, Python, Scala Connaissance Openshift et/ou Kubernetes Développement Cloud-based LA MISSION: Démarrage: Janvier/ Février Durée: 6 mois renouvelables Localisation: Ile-de-France Fréquence : 3 jours sur site - 2 jours de télétravail Si vous êtes intéressés ou connaissez des personnes qui pourraient l'être, merci de m'envoyer vos CVs à pour une considération immédiate.

CDI
Freelance

Offre d'emploi
Ingénieur Réseau

KLETA
Publiée le
Python
Red Hat Linux
Routeurs Cisco

3 ans
40k-55k €
400-550 €
Lyon, Auvergne-Rhône-Alpes

Développement et documentation des fonctionnalités de MCO, Build et gestion de la dette technique des produits d'automatisation. Recueil et analyse des besoins des équipes Réseau et de l’infogérant , intégration de ces besoins dans le backlog des produits d'automatisation. Traitement des incidents relatifs aux produits d'automatisation signalés par les équipes Réseau ou l'infogérant. Montée en compétences sur les outils et technologies d'automatisation , en particulier en Python. Coordination avec les équipes Réseau et Automatisation dans le cadre de projets transverses.

Freelance

Mission freelance
Administrateur Supervision Zabbix – Freelance - (H/F)

SWING-ONE
Publiée le
Ansible
Docker
Kubernetes

1 an
400-500 €
Île-de-France, France

CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte de la Banque un/une Administrateur(trice) spécialisé(e) en supervision Zabbix. Vous participerez activement à des projets innovants de transformation et de convergence des outils de supervision et métrologie, tout en contribuant à l’amélioration continue des plateformes existantes. MISSIONS PRINCIPALES : Accompagner les projets de transformation liés à la supervision et à la métrologie, en proposant des solutions techniques sécurisées et industrialisées. Optimiser l’administration des plateformes par l’automatisation et contribuer à l’implémentation de nouveaux composants. Fournir un support expert auprès des équipes locales et offshore, tout en collaborant avec les éditeurs. Participer au contrôle qualité et à l’évolution des infrastructures techniques.

CDI

Offre d'emploi
Développeur GO Confirmé H/F

Reactis
Publiée le
Docker
Go (langage)
Kubernetes

40k-48k €
Rungis, Île-de-France

Intégré(e) à une équipe, vos principales missions sont notamment : - Lire les spécifications systèmes et logicielles - Coder les composants physiques Modules de la solution : briques de monitoring (orchestration, container, réseau) et Data Integration Layer. Développement de la « Glue » logicielle entre les COTS/OSS de la plateforme. Création d'adaptateurs et de contrats d’insertion avec les logiciels applicatifs des produits. Mettre en place et gérer les pipelines CI/CD en conformité avec les règles de développement - Rédiger et exécuter les cas de tests, ainsi que les procédures de tests automatiques au cours du développement logiciel. - Définir et réaliser les cas de tests et procédures de tests manuelles complémentaires. - Collecter et tracer les résultats des tests par rapport aux exigences. - Configurer les COTS intégrés aux composants physiques de la solution conformément à la définition du Tech Lead. - Participer à l’écriture du manuel utilisateur.

Freelance

Mission freelance
Data Engineer

Phaidon London- Glocomms
Publiée le
Cloud
ETL (Extract-transform-load)
Hadoop

6 mois
400-550 €
Paris, France

• Concevoir, créer et maintenir des pipelines de données évolutifs pour prendre en charge les processus d'intégration, de transformation et de chargement des données (ETL) à l'aide d'outils tels qu'Apache Airflow, Apache NiFi et Talend. • Développer et optimiser des modèles de données, des schémas et des bases de données pour garantir un stockage et une récupération efficaces des données à l'aide de technologies telles que Snowflake, Cassandra et MongoDB. • Collaborer avec des data scientists, des analystes et d'autres parties prenantes pour comprendre les exigences en matière de données et fournir des solutions de données de haute qualité. • Mettre en œuvre des processus de qualité et de validation des données à l'aide d'outils tels que Great Expectations et dbt pour garantir l'exactitude et la cohérence des données. • Surveiller et dépanner les pipelines et les systèmes de données à l'aide d'outils de surveillance tels que Prometheus et Grafana pour identifier et résoudre rapidement les problèmes. • Rester au courant des dernières tendances et technologies du secteur pour améliorer en permanence notre infrastructure de données.

Freelance

Mission freelance
Développeur Python

ESENCA
Publiée le
Python

3 mois
400-450 €
Lillers, Hauts-de-France

Attention: nous recherchons un développeur et non pas un data scientist Notre futur.e Software Engineer interviendra au sein de l’équipe Network, composée de Tech Lead, Engineering Manager, et Software Engineers. Cette équipe a pour objectif de garantir le fonctionnement des produits Load Balancing, Content Delivery Network et Anti-Bot, en gérant l’installation, la configuration, la mise à jour, la sauvegarde et le support. Le but de ces produits est d’exposer des ressources sur Internet (web sites, applications, API) en optimisant la sécurité et augmentant le delivery. Tu devras : Contribuer à l'automatisation des tâches manuelles de support et d'administration des solutions. Construire et exploiter des infrastructures sécurisées et résilientes multi-CDN. Elaborer des mesures correctives pour résoudre les root causes des incidents. Analyser, paramétrer et coder les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures Être en charge de la maintenance corrective et évolutive des développements existants. TES COMPÉTENCES: Python confirmé Datadog souhaité Anglais confirmé Bonnes compétences en communication pour collaborer efficacement avec les personnes de run pour comprendre leurs besoins TES EXPÉRIENCES: Avoir conçu plusieurs développements d'API en Python Au moins deux expériences significatives

CDI
Freelance

Offre d'emploi
Data Engineer GCP

INGENIANCE
Publiée le
Github
Python
SQL

1 an
45k-60k €
500-550 €
Île-de-France, France

Le data Engineer, rattaché(e) à l'équipe Lead Ingénieur Analytic sera chargé de concevoir, Développer, et optimiser données de données et des solutions analytiques. Il(elle) travaillera en collaboration avec les parties prenantes, implémentera les bonnes pratiques, tirera parti des technologies afin de produire des données de hautes qualités, et piloter les domaines de productions data. Son expertise en data engineering, analyse, et problem solving supportera le pilotage data et les prises de décisions. Taches & missions : Concevoir et mettre en œuvre des pipelines de données évolutifs et des architectures de données Mettre en œuvre des processus d'intégration et de transformation des données Collaborer avec les parties prenantes pour comprendre les exigences et les priorités de l'entreprise Garantir les meilleures pratiques en matière d'ingénierie des données et d'analyse Construire et maintenir des entrepôts de données et des marts de données Développer et optimiser des modèles analytiques à l'aide de la modélisation des entrepôts de données (data marts) Assurer la qualité, l'intégrité et la gouvernance des données dans l'ensemble des systèmes par le biais de domaines de données. Automatiser les processus de données et les flux de travail pour gagner en efficacité Contrôler et optimiser les performances des systèmes et l'utilisation des ressources Évaluer et intégrer de nouvelles technologies et de nouveaux outils Dépanner et résoudre les problèmes et incidents liés aux données Contribuer à la documentation et aux initiatives de partage des connaissances Participer aux revues de code et aux sessions de programmation par les pairs Les compétences nécessaires : ETL /ELT Data Modeling Modélisation sémantique SQL (BigQuery, Postgres…) Data Transformation API Cloud platforms (ex: AWS, GCP) Sens des affaires Data Analyse Python Statistiques Big Data Contrôle des versions CI/CD DevOps BI

521 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous