Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 587 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
CONSULTANT INFRASTRUCTURE OPS AAP F/H | LILLE (59)

HIGHTEAM GRAND SUD
Publiée le
Ansible
API
Go (langage)

3 ans
13k-58k €
100-550 €
Lille, Hauts-de-France

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité de Consultant Infrastructure spécialisé en automatisation et gestion d'infrastructures avec Ansible et Ansible Automation Platform (AAP). Vous interviendrez dans un environnement technique avancé, avec un focus sur l'automatisation des procédures d'exploitation et l'installation des environnements à travers AAP. A ce titre, vous interviendrez sur 4 axes majeurs et serez en charge de : Assurer l'automatisation de l'infrastructure : Développer, maintenir et améliorer les scripts d'automatisation (Ansible, Terraform). Participer à la mise en œuvre et au déploiement via AAP. Documenter les procédures d'exploitation et les processus d'installation. Gérer l'Infrastructure as Code (IaC) : Maintenir l’outillage lié à l’infrastructure (Ansible, Terraform). Collaborer avec les équipes en charge du catalogue de services. Assurer les développements et l'intégration : Interagir avec les API. Développer des scripts en Python (ou Go/Golang). Contribuer au backend du portail de services. Assurer un support et un accompagnement : Assister les utilisateurs dans l’utilisation des services. Apporter un soutien technique et partager les bonnes pratiques. Environnement Technique : Ansible / AAP (Red Hat Ansible Automation Platform), Terraform (IaC), API, Python, Go/Golang. Le poste est basé à Lille (59) . Dans le cadre de vos fonctions, vous devrez assurer une présence sur site à 100%.

Freelance

Mission freelance
Niort - Expert LINUX

Signe +
Publiée le
Apache Tomcat
Linux
Python

250 jours
350-400 €
Niort, Nouvelle-Aquitaine

Contrainte forte du projet : 3 jours de présence à NIORT CONTEXTE Dans le cadre de l’évolution de son système d’information, notre client a identifié le besoin de s’adjoindre l’expertise d’une société de prestation de services disposant de compétences avérées en matière d'expertise Linux. EXPERTISES ATTENDUES Compétences Techniques : - Connaissances solides des environnements Red Hat Enterprise Linux / RedHat Satellite (administration/conception) - Maitrise des langages de programmation Python et Bash - En capacité de reprendre ou de créer des rôles/playbook ansible en liens avec les assets Linux - En capacité de configurer des outils tel qu'apache, openldap, tomcat - Comprendre et savoir utiliser les architectures exposant des API - Acculturation aux bonnes pratiques de l'ANSSI - Capacité de rédaction de modes opératoire et procédures en suivant le formalisme attendu. - Expérience d'administration des outils de supervision et d'observabilité Dynatrace et Zabbix - Bonne maitrise des mécanismes de gestion des certificats TLS (protocole ACME) - Participer aux cérémonies AGILE de la squad et la tribu - Expérience appréciée sur les environnements de conteneurisation et d'orchestration - Expérience appréciée sur l'environnement GitLAB

CDI
Freelance

Offre d'emploi
 Data Engineer   Python MLOps AZURE

HIGHTEAM
Publiée le
AWS Cloud
Azure
DevOps

3 ans
51k-66k €
550-600 €
Île-de-France, France

Vos missions Développement de pipelines de traitement de données et de modèles (préparation des features, entraînement, tuning, inférence). Conception et mise en œuvre de solutions robustes et maintenables (typage fort, design patterns avancés). Collaboration avec les Quants et Data Scientists pour résoudre les problématiques liées au cycle de vie des modèles ML. Rédaction de spécifications techniques détaillées. Implémentation et automatisation des tests. Mise en production des développements, suivi et évolution des solutions. Création de tableaux de bord d’activité.

Freelance

Mission freelance
Data Analyst

WHEEL OF WORK
Publiée le
Microsoft Power BI
PostgreSQL
Python

1 an
350-450 €
Lille, Hauts-de-France

Mission Intégrer et optimiser la plateforme Looker pour son déploiement au sein des Business Units et autres plateformes chez un acteur majeur du retail. Concevoir une architecture répondant aux besoins métiers, garantir des performances optimales, et accompagner les équipes dans l’adoption de Looker. Créer et maintenir des tableaux de bord pour le pilotage des activités tout en assurant une gestion des coûts et une mise à jour des fonctionnalités Looker. Compétences techniques Expertise confirmée sur Looker (LookML, API, bonnes pratiques). Maîtrise des outils Google Cloud Platform (GCP), GitHub, et Terraform. Expérience en optimisation de plateformes et en intégration de solutions analytiques. Connaissances en visualisation de données et accompagnement d’équipes techniques.

Freelance

Mission freelance
data engineer python / spark MLOPS senior / databricks (forcasting)

Gentis Recruitment SAS
Publiée le
Apache Spark
Databricks
Machine Learning

3 ans
400-600 €
Paris, France

Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus.

Freelance
CDI
CDD

Offre d'emploi
Cloud DevOps GCP

bdevit
Publiée le
Ansible
Apache Maven
CI/CD

36 mois
50k-58k €
500-550 €
Île-de-France, France

Poste : Ingénieur Cloud DevOps GCP Durée : Longue (Voire 3 ans) Lieu : Ile De France Description du Poste : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom , nous recherchons un Ingénieur Cloud DevOps spécialisé GCP . Vous serez chargé de concevoir, déployer et optimiser des solutions d’infrastructure cloud sur la plateforme Google Cloud Platform (GCP) , en assurant leur robustesse, leur performance et leur alignement avec les objectifs métiers. Responsabilités : - Expertise approfondie des services GCP et des outils natifs pour la conception et la gestion d'infrastructures cloud complexes ; - Solides compétences en Terraform et Ansible pour l'infrastructure as code et l'automatisation ; - Maîtrise de la mise en place et de la gestion de pipelines CI/CD avec GitLab CI , adaptés aux exigences d’un secteur bancaire ; - Orchestrer et gérer des conteneurs avec Kubernetes et Docker , en exploitant pleinement les capacités de Google Kubernetes Engine (GKE) ; - Bonne connaissance des outils ArgoCD , Maven , et SonarQube pour la gestion des configurations, des builds, et de la qualité logicielle ; - Optimiser les coûts et l’efficacité des ressources cloud en exploitant des services GCP tels que Compute Engine , Cloud Storage , et BigQuery .

Freelance

Mission freelance
MLOps

WHEEL OF WORK
Publiée le
Apache Airflow
CI/CD
FastAPI

1 an
400-550 €
Lille, Hauts-de-France

Mission Développer et automatiser des produits et algorithmes Data (IA/Machine Learning) pour améliorer les décisions stratégiques au sein du périmètre marketing client. Créer des pipelines de données robustes et garantir la qualité via des sondes et une cartographie détaillée des données (structurées et non structurées). Mettre en œuvre des solutions de DataViz (PowerBI/Looker) pour fournir des insights exploitables et accompagner la stratégie Data du business. Compétences techniques Expertise en Python, Shell, CI/CD, Airflow, Dataflow, AppEngine, et FastAPI. Maîtrise des outils GCP (BigQuery), Git/GitHub, et des solutions de visualisation (PowerBI/Looker). Connaissance des méthodologies agiles (Scrum, Kanban) et des bonnes pratiques de gestion de données. Expérience avérée dans l’industrialisation de modèles ML/IA à grande échelle et la mise en production de pipelines complexes.

CDI
Freelance

Offre d'emploi
Développeur Python | Django (H/F)

CELAD
Publiée le
Django
Python

1 an
35k-45k €
300-450 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

📑 CDI (35-45K€) / Freelance / Portage Salarial - 🏠 2 jours de télétravail / semaine - 📍Clermont-Ferrand - 🛠 Expérience de 5 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python | Django 🐍 pour intervenir chez un de nos clients dans l'industrie. Contexte : Vous rejoindrez l'équipe R&D en charge de maintenir l'usine logicielle Python du groupe (entre 6 et 8 personnes) afin de travailler sur des outils de simulation. Vos principales missions : - Développement d'applications web Django - Création de librairies / commandes en Python

CDI

Offre d'emploi
SENIOR DATA ENGINEER (H/F)

Link Consulting
Publiée le
Apache Airflow
AWS Cloud
Big Data

50k-70k €
Paris, Île-de-France

Notre client, acteur majeur dans le domaine de l’e-commerce et de l’économie de plateforme, recherche son futur Senior Data Engineer (H/F) pour son site de Paris/Bordeaux afin de renforcer ses équipes techniques dans un contexte de forte croissance et d’innovation technologique. Vos missions : Intégré à une équipe dynamique composée de spécialistes data (Data Engineers, Machine Learning Engineers, Data Scientists, Data Analysts), vous serez amené à : •Enrichir et optimiser la Data Platform (ETL). •Renforcer la robustesse des pipelines de production pour les applications Machine Learning. •Contribuer aux projets d’IA générative et de Computer Vision. •Accompagner l’intégration et l’industrialisation des modèles d’IA fine-tunés avec les équipes Data Science. •Définir et implémenter une architecture robuste et scalable pour les pipelines Spark et ML. •Assurer la montée en compétences des membres de l’équipe sur les sujets MLOps et Data Engineering. •Optimiser les pipelines d’ingestion de données et leur orchestration. •Participer à l’intégration des données Google Analytics dans la Data Platform. Les compétences techniques •Solide maîtrise de Python et des frameworks Apache. •Expérience avec AWS et outils associés. •Compétence en orchestration avec Airflow ou un outil équivalent. •Familiarité avec les architectures Big Data et les systèmes de pipelines complexes. •Connaissances en CI/CD et pratiques DevOps. •Bonnes bases en Machine Learning et intégration de modèles ML en production. •Capacité à travailler en environnement Kubernetes. •Maîtrise du SQL et des systèmes de gestion de bases de données massives.

CDI

Offre d'emploi
Ingénieur développement C++ - Aéronautique et Défense F/H

SOLENT
Publiée le
Bash
C/C++
Python

37k-50k €
Pontoise, Île-de-France

Vous rejoindrez notre centre de services Recherche & Technologies (R&T) composé d'une trentaine d'ingénieurs et d'experts en logiciel embarqué. Ce dispositif a pour vocation à contribuer au déploiement de technologies nouvelles sur les futurs produits de notre client, spécialisé dans le développement de produits pour l'aéronautique et la défense. Dans ce cadre, SOLENT intervient principalement pour développer des drivers sur OS temps réel, construire des systèmes logiciels sur mesure pour des solutions embarquées, appliquer des principes de cybersécurité ou encore intégrer des algorithmes de traitement complexes. Vous participerez à la conception, au développement et aux phases de tests de ces logiciels embarqués. Quelques exemples : Développement et intégration d'algorithmes de traitement d'images sur un drone pour une exécution en temps réel sur la cible Développement d'IHM pour démonstrateur d'acquisition vidéo d'un viseur Architecture et développement de modules de préparation de données et synchronisation des flux dans le logiciel back-end d'une architecture client-serveur Analyser les besoins métier ; Estimer la charge de développement tout en respectant l'architecture existante ou à venir ; Développer et implémenter en langage C++ ; Réaliser les tests et garantir la qualité et la robustesse des fonctionnalités développées tout en s'interfaçant avec les équipes système ; Assurer l'analyse et la correction de bugs ; Documenter les développements effectués ; Participer au partage de connaissances par le biais de réunions d'experts. Stack technique : langage C++, Bash, Python Source Code Management : Git Écosystème : Linux/Windows Équipe : Intégré dans notre équipe R&T dans les locaux de notre client (Massy ou Eragny) Encadrement : La méthode SOLENT ! Un management technique, couplé à un parcours d'onboarding jalonné d'objectifs clairs qui te permettront de monter en compétences rapidement et efficacement sur le projet. 👨‍🎓👩‍🎓 Vous êtes diplômé d'une école d'ingénieur ou équivalent universitaire en développement logiciel. 💼 Vous avez une première expérience en développement embarqué C++ ? 👉 Vous avez d'autres compétences techniques en C ? Java ? OS temps réel ? Réseaux ? 👉 " Qui dit industrie, dit process, dit documentation ! " Cela vous est familier ? 👉 Vous avez un bon niveau d’anglais (oral et écrit) ? 👉 Vous possédez d'excellentes compétences en communication interpersonnelle et en collaboration d'équipe ? 👉 Vous êtes avide de challenge ? De technique ? 👉 Vous avez un sens critique ? Un sens du service ? Un esprit de synthèse ? Une rigueur et une organisation dans vos projets ? Si vous vous reconnaissez, alors n’hésitez plus et rejoignez nos équipes pour une nouvelle aventure ! Nous cherchons aujourd’hui nos talents de demain… 🦸‍♀️🦸‍♂️

Freelance

Mission freelance
Développeur SAS DI junior - Bruxelles

EMGS CONSULTING
Publiée le
Data Warehouse
Python
SAS

1 an
500-600 €
Bruxelles, Bruxelles-Capitale, Belgique

Dans le cadre d’un projet, le candidat doit être capable de : Concevoir la solution technique à partir des spécifications fonctionnelles fournies par l'équipe d'analyse ; Développer des routines SAS Data Integration Studio et des scripts d’enchaînement pour transférer les données des systèmes opérationnels sources vers le système cible DWH ; Créer des packages ETL ; Tester les routines ETL et effectuer les tests d'intégration ; S'assurer que les résultats du processus ETL respectent les spécifications techniques (en étroite collaboration avec les analystes BI) ; Rédiger les documents requis par le cycle de vie de développement logiciel (SDLC) ; Créer des procédures.

Freelance
CDI
CDD

Offre d'emploi
Ingénieur Systèmes et Bases de Données (BDD)

THE PORTERS
Publiée le
Gitlab
IBM Db2
Oracle

1 an
53k-67k €
350-450 €
Montauban, Occitanie

Pour l'un de nos clients, nous recherchons un Ingénieur Systèmes et Bases de Données (BDD) . Participer à l’étude et à la montée de version de DB2 . Participer à l’étude de migration vers PostgreSQL 15 . Réaliser des revues de conception technique pour assurer la conformité des développements. Effectuer des analyses détaillées et la conception technique des solutions. Développer et exécuter des tests unitaires et d’intégration afin de garantir la fiabilité et la performance des systèmes. Mettre à jour la documentation associée aux systèmes et aux bases de données. Partager le code source et la documentation sur les plateformes d’intégration continue (écosystème Git / Jenkins). Assurer le support N3 des systèmes et des bases de données de l’équipe.

CDI

Offre d'emploi
Tech lead nodejs terraform gcp

Pickmeup
Publiée le
Google Cloud Platform
Node.js
Terraform

50k-70k €
Paris, France

Description du poste Rejoignez une entreprise leader dans le domaine des solutions digitales et contribuez à des projets ambitieux en tant que Tech Lead Node.js . Vous serez au cœur de la conception, du développement et de l’optimisation de plateformes techniques complexes, en collaboration avec des équipes pluridisciplinaires. Vos principales missions : Piloter la mise en place et le développement d’une plateforme Data intégrant divers flux (requêtes, Web Services, fichiers bruts, etc.) pour centraliser et unifier les données dans un référentiel commun. Contribuer à la mise en œuvre d’interfaces Back-office d’administration client en AngularJS. Développer des services d’agrégation pour alimenter des bases CRM complexes. Participer à l’évolution d’un site mobile performant sur des environnements modernes et scalables. Environnement technique Vous évoluerez dans un contexte technologique enrichissant, comprenant : Backend : Node.js, Python. Frontend : AngularJS. Cloud : Google Cloud Platform (Cloud Functions, Pub/Sub, BigQuery). Data : PostgreSQL, MySQL. Infrastructure : Kubernetes, Terraform. Autres frameworks : PHP Symfony 3.

Freelance

Mission freelance
FREELANCE – Tech Lead Data (H/F)

Jane Hope
Publiée le
Apache
Azure Data Factory
Databricks

1 an
450-550 €
Avignon, Provence-Alpes-Côte d'Azur

Notre client basé à Avignon (84) est à la recherche d’un Tech Lead Data (H/F) freelance pour participer au maintien et à la modernisation d’une plateforme Data Cloud et d’une plateforme sécurisée C3. MISSIONS Au sein d’une équipe agile de 7 personnes, vous serez amené à : · Développer des rapports de visualisation de données sous PowerBi · Développer les traitements de données · Contribuer à la définition de la stratégie technique Data du projet · Développer des uses cases métier ENVIRONNEMENT TECHNIQUE · PYTHON · SQL · Azure Data Factory ou AWS Glue · Apache Nifi / Databricks, · Oracle, PowerBI

Freelance

Mission freelance
Développeur Cloud AWS/GCP Senior - Energie - Paris (H/F)

EASY PARTNER
Publiée le
AWS Cloud
Google Cloud Platform
Python

1 an
500-600 €
Paris, France

Contexte de la mission Rejoignez un acteur incontournable du secteur énergétique en France, situé à Lyon et Nanterre, engagé dans une transformation digitale et technologique majeure. Dans le cadre du renforcement de notre équipe dédiée au cloud computing et aux opérations de FinOps, nous sommes à la recherche d'un Développeur Cloud AWS/GCP expert. Au sein d'une équipe dynamique et innovante, vous collaborerez sur des projets d'envergure visant à optimiser l'utilisation des ressources cloud et à générer des économies significatives. Ce poste est ouvert en raison d'un accroissement de nos activités et de la mise en place d'une nouvelle stratégie orientée cloud natif. Missions : Principales : - Développer et mettre en œuvre des solutions d'infrastructure-as-code (IAC) utilisant Terraform, centrées sur AWS et GCP. - Écrire et maintenir des scripts d'automatisation en Python pour optimiser les coûts et l'efficacité des ressources cloud. - Participer activement à la stratégie FinOps de l'entreprise, proposer et mettre en œuvre des optimisations de coûts sur les environnements cloud. Annexes : - Contribuer à la veille technologique et à l'adoption de meilleures pratiques au sein des équipes Cloud et FinOps. - Accompagner les projets de transformation cloud et orienter les choix architecturaux vers des solutions optimales en termes de coût et de performance.

Freelance
CDI

Offre d'emploi
Ingénieur DevOps & SRE

Deodis
Publiée le
DevOps
Elasticsearch
Python

3 ans
45k-50k €
450-500 €
Montpellier, Occitanie

Nous recherchons un(e) Ingénieur DevOps et SRE pour renforcer notre équipe d’exploitation. Garant de la qualité de service (QoS), l’équipe assure la gestion de plus de 900 services applicatifs, principalement basés sur des solutions Open Source. En collaboration avec les équipes projet, nous intervenons à chaque étape, depuis la conception jusqu'au déploiement en production, pour garantir la fiabilité et l’exploitabilité des applications. Votre mission principale consistera à : Remédier : Participer au Support en Temps Réel (STR) en traitant les alertes et incidents complexes sur des environnements Open (Linux, Docker, Java). Fiabiliser : Apporter un soutien aux projets dès les phases de conception pour intégrer les bonnes pratiques SRE, garantir la sécurité des mises en production majeures et améliorer l’exploitabilité des applications. Supporter : Sécuriser les déploiements sensibles en production et traiter les demandes de travaux dans l’outil Snow. Principaux Livrables Élaboration de tableaux de bord de suivi des applications (Dynatrace, ELK) en collaboration avec les équipes projet et exploitation. Mise en œuvre de techniques et procédures d’exploitation automatisées (scripts Open, Ansible). Vérification et application des règles et standards d’exploitabilité (documentation, consignes). Résolution des incidents dans ServiceNow et traitement des demandes de travaux Faciliter et animer les cérémonies Agile (sprints, rétrospectives, cartes Jira...)

587 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous