Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 503 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Senior Data Engineer / DataOps h/f

HAYS MEDIAS
Publiée le
AWS Cloud
CI/CD
ETL (Extract-transform-load)

3 mois
100-600 €
Boulogne-Billancourt, Île-de-France

Notre client, leader mondiale dans le secteur de l'industrie pharmaceutique, recherche un consultant en freelance dans le cadre d'une mission de longue durée. L' équipe IA, Digital & Data Factory fournit des solutions innovantes pour les soins aux patients, et établit une culture axée sur les données pour responsabiliser nos équipes et soutenir les décisions stratégiques. Dans ce contexte, le Data Engineer Senior / professionnel DataOps est responsable de la conception, de la mise en œuvre et de la maintenance d'une infrastructure et de pipelines de données robustes tout en assurant des pratiques DevOps optimales. Il/Elle applique son expertise en ingénierie à l'ensemble de la pile de données à des fins multiples, telles que : 1. Concevoir et maintenir des pipelines de données évolutifs, y compris le développement et l'optimisation des flux de travail ETL à l'aide d'Airflow pour le traitement et l'analyse automatisés des données 2. Mettre en œuvre des systèmes de contrôle de la qualité des données et de surveillance de diverses sources de données 3. Gestion de l'infrastructure en tant que code (IaC) à l'aide de Terraform et orchestration des pipelines CI/CD via CircleCI 4. Création et maintenance de lacs de données à l'aide des services AWS (S3, Glue...) pour soutenir les initiatives d'analyse et de ML 5. Assurer un déploiement sécurisé et conforme des solutions de données dans les environnements cloud 6. Collaborer avec des équipes transverses pour optimiser l'accessibilité des données et intégrer diverses sources de données à l'aide de bases de données SQL/NoSQL

Freelance
CDI

Offre d'emploi
DEVELOPPEUR C++ SUMMIT FRONT

HEEVOX
Publiée le
.NET CORE
Développement
Finance

2 ans
35k-55k €
Île-de-France, France

DEVELOPPEUR C++ SUMMIT FRONT Démarrage : ASAP Durée : 2 Ans Localisation : Ile de France - Proche Paris Télétravail : 50% Contexte / Objectifs : Développeur C/C++ Summit Front. Contexte : API summit (Hedge API, Cache de données, etc...) & Fonctionnel, Périmètre fonctionnel : - Front / Middle - Produits dérivés de taux, crédit et hybrides - Valorisation, calcules de hedges et stress-tests. - Intervention sur la nouvelle chaine Front to Risk Mission : • Participe à la mise en oeuvre des évolutions techniques et fonctionnelles liées à l’intégration ou la montée de version de progiciels de finances de marché • Réalise les maintenances évolutives et correctives autour des progiciels de finances de marchés • Assure le suivi de la production de l’application • Assure le support applicatif et fonctionnel aux utilisateurs

CDI
Freelance

Offre d'emploi
Développeur python azure H/F

STORM GROUP
Publiée le
Azure
Python
Shell Unix

3 ans
10k-55k €
Île-de-France, France

1 - Contexte et objectifs de la prestation Le Bénéficiaire souhaite améliorer la qualtié de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Administration base de données. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : Aide à la construction d’une solution de création de bases de données dans le cloud public (Azure et eventuellement AWS) : SQL Server et/ou PostgreSQL 2 - Livrables attendus Les livrables attendus sont : • Analyse de l'architecture Azure et de son implementation au sein de la Cloud Platform interne SG. • Livraison de code python autour des features AZURE. • Maintien en condition opérationnel de la solution interne de "Managed Databases" : pour fournir des outils à des clients internes SG pour utiliser des bases de données du Cloud Public • Rédaction de documentations techniques : features Azure proposées, intégration dans l'écosystème SG, outil d'inventaire.

CDI
Freelance

Offre d'emploi
Développeur python H/F

STORM GROUP
Publiée le
Agile Scrum
Perl (langage)
Python

3 ans
10k-55k €
Île-de-France, France

Le département assure : • la production des architectures techniques, • l’intégration et l’exploitation des systèmes d’information métiers • la supervision, le pilotage et la sécurité des infrastructures • la mise en oeuvre, l’évolution et le maintien en condition opérationnelle des infrastructures (serveurs, systèmes d’exploitation, logiciels médians, bases de données, …) • le contrôle et l'expertise de ses coûts et leur refacturation. Le département met en place le développement de l' ensemble des services paas (OCP, PCP, RabbitMQ...), garantit l’exploitabilité des présentations mises en oeuvre, expertise des ensembles applicatifs et le planning global de production et assure le support au pilotage. Dans ce cadre la prestation consiste à contribuer à/au(x) : • codage / paramétrage et documentation • l’impulsion dans l’innovation (mise en place de Proof Of Concept), veille technologique, recherche nouvelles techniques • l'optimisation des moyens techniques (monitoring et amélioration de la performance : latence, mémoire, etc.) • la mise en place des tests automatiques • développement des scripts de Release et gestion des outils utilisés lors des releases • Assistance aux bénéficiaires / utilisations / bénéficiaires du projet permettant sa bonne mise en œuvre Livrables attendus Les livrables attendus sont : • Dossiers de spécifications • Dossiers de mise en place • Démonstration : avec critères d’acceptation

Freelance
CDI

Offre d'emploi
Ingénieur Cloud GCP confirmé H/F

Scalesys
Publiée le
Kubernetes
Python
Terraform

1 an
10k-62k €
Île-de-France, France

Imaginez-vous au cœur de l’action, travaillant pour l’un des géants du CAC40 ! Dans le cadre d’un renfort d’activité, nous recherchons un Ingénieur Cloud Senior GCP pour accompagner notre client dans la conception et la gestion de solutions Cloud sécurisées et performantes. Vous serez un acteur clé dans la transformation digitale de nos partenaires et évoluerez dans une équipe passionnée par l’innovation. Mais ce n’est pas tout ! Vous évoluerez dans un environnement dynamique où vous serez amené à accomplir des missions telles que : · Développer des architectures Cloud GCP robustes et évolutives adaptées aux besoins spécifiques des clients, tout en garantissant la sécurité · Mettre en œuvre et déployer de solutions Cloud GCP de manière efficace et optimisée · Offrir des recommandations stratégiques sur les meilleures pratiques Cloud GCP et aider les clients à maximiser leurs investissements dans le Cloud · Superviser et maintenir les infrastructures Cloud GCP, en veillant à leur disponibilités, sécurité et performance optimale · Travailler main dans la main avec les équipes DevOps et d’exploitation pour intégrer des solutions Cloud dans les workflows existants

CDI

Offre d'emploi
Data Engineer (H/F)

NSI France
Publiée le
Apache Airflow
Google Cloud Platform
Python

50k-60k €
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
développeur python (pas data engineer)

Innov and Co
Publiée le
PySpark
Python

12 mois
100-500 €
Montrouge, Île-de-France

Les missions : • Implémenter des data pipelines à travers une collaboration avec les équipes IT • Développement de programmes et services lié à la collecte, à la data quality et aux règles de transformation, en lien avec la couche d’API située dans le DataHub et le moteur de règle. • Implémentation de modèles et développements spécifiques à l’intérieur de la solution éditeur. • Collaborer étroitement avec les Data Engineers/Data Scientists pour surveiller et ré-entraîner les modèles d'IA utilisés pour la détection de la criminalité financière. Apporter son expertise sur les données. • Participer à l'industrialisation des algorithmes, au développement et à l'optimisation de l'architecture du pipeline de données. • Tester les solutions d'éditeurs, préparer des documents techniques et des scénarios de tests techniques. • Comptable de la solution technique de l’ensemble des développements spécifiques (côté pipelines et côté modèles) L'essentiel de la mission se déroulera en Anglais.

CDI
Freelance

Offre d'emploi
Data Engineer

SKILL EXPERT
Publiée le
Apache Kafka
Hadoop
Python

1 an
23k-200k €
Vélizy-Villacoublay, Île-de-France

La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.

Freelance

Mission freelance
Ingénieur Systèmes Linux DevOps

CS Group Solutions
Publiée le
Ansible
Python
Scripting

3 mois
300-3k €
Montargis, Centre-Val de Loire

Nous recherchons un Ingénieur Systèmes Linux DevOps Contrainte forte du projet- Compétences techniques: Web (tomcat, apache) - Confirmé - Impératif Linux - Confirmé - Impératif Ansible - Confirmé - Impératif Description des prestations : - Développement de scripts Shell, python et Ansible - Migration d’OS, containerisation - Migration de serveurs LPAR vers un nouveau serveur physique. - Administration des systèmes (Debian, CentOS, Alma), composants middleware (Tomcat, Apache…) et des applications hébergées - Automatisation des montées de version applicatives hébergées - Dimension relationnelle avec le service exploitation et le service Etudes. Expertise souhaitée Expérience et compétence requises : - Expertise scripting shell, python, ansible (expérience significative) - Expertise containerisation Docker - Culture DevOps prépondérante - Expertise dans l’administration Linux (différentes suites) - Expérience sur un poste similaire pendant au moins 5 ans Qualifications requises : - Bac + 5 ou Bac + 3ans (avec forte expérience)

Freelance

Mission freelance
Data Ingénieur Cloud

CS Group Solutions
Publiée le
AWS Cloud
Databricks
Github

3 mois
300-3k €
Paris, France

Nous recherchons un Data Ingénieur Cloud Compétences techniques: Github - Expert - Impératif AWS - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques: Français Courant Impératif Anglais Courant Impératif Description détaillée: Sur un plateau d'équipe autour de la data, environnement avec des interlocuteurs basés en France au Maroc et en Inde Équipe de Data Engineer à monter avec des seniors et expérimentés les must have: une expérience dans l'utilisation des git hub actions avec des multibranches avec utilisation de triggers, de if conditions, de workflow, de jobs. ET en priorité qui ont une expérience GLUE et ensuite EC2, S3, LAMBDA, STEP FUNCTIONS, CLOUDWATCH Il/elle doit maîtriser python. En plus de cela, il devra pouvoir effectuer les actions suivantes : -Développement des fonctionnalités -Assurer les tests de validation techniques -Livrer la documentation technique -Vérification & validation des nouvelles versions du code (Maîtriser git, avoir vu l’utilisation des branches git dans Databricks serait un plus)

Freelance
CDI

Offre d'emploi
Développeur C/C++ (H/F)

CITECH
Publiée le
CVS (Concurrent Versions System)
Git
Javascript

12 mois
40k-45k €
Tours, Centre-Val de Loire

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Développeur C/C++ (H/F) 🚈 Notre client est l’un des premiers groupes mondiaux de transport de voyageurs et de logistique de marchandises, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développement en C/C++ pour logiciels embarqués 🔸 Développement d'outils en C# 🔸 Concevoir et mettre en œuvre des logiciels pour les dispositifs embarqués, 🔸 Réalisation de tests unitaires et d'intégration , 🔸 Rédaction de documentation et manuels utilisateurs. 🔸 Support technique pour systèmes embarqués (sonorisation, IP, etc.) et assistance technique aux centres de maintenance.

Freelance

Mission freelance
Développeur Senior Python

Kaïbee
Publiée le
FastAPI
Python
Vue.js

1 an
100-570 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un Développeur Senior Python spécialisé en FastAPI pour une mission stratégique dans un environnement technique exigeant. Vous interviendrez sur le développement et la maintenance d’applications critiques, en collaboration avec des équipes multidisciplinaires. Objectifs de la Mission : • Développement et maintenance d’applications backend : Prise en charge de l’architecture et du développement des APIs avec FastAPI . • Front-end : Travailler sur l’intégration des interfaces front-end développées en Vue.js ou Angular . • Intégration DevOps : Participer à l’industrialisation des pipelines CI/CD et à l’intégration des applications dans la chaîne DevOps, en garantissant la qualité des livrables.

Freelance

Mission freelance
Ingénieur Support Technique

CAT-AMANIA
Publiée le
Administration linux
Adressage IP
Bash

3 mois
100-400 €
Rennes, Bretagne

Notre client souhaite recourir à une nouvelle prestation de service pour un ingénieur support technique EMEA en renfort dans leur équipe. Vos missions seront les suivantes : SERVICES CLIENTS Fournir un support de premier et deuxième niveau aux clients. (Opérateurs de télécommunications et diffuseurs). Etre le contact principal pour les clients pour l'escalade des problèmes de support (du suivi jusqu'à la résolution). Assurer le respect des engagements contractuels SLA vis-à-vis de nos clients en termes de temps de réponse, de continuité de service et de délai de résolution finale. Sur demande, gérer les services d'installation, de mise en service et de formation sur site pour les nouveaux clients. AMELIORATION CONTINUE Effectuer des tâches de maintenance préventive régulières pour maximiser la qualité de service de nos clients et proposer de manière proactive des solutions d'amélioration. Signaler et suivre les problèmes de conception, de fiabilité et de maintenance ou les bugs de conception/logiciel. Préparer des rapports clients précis Documenter les connaissances techniques

CDI
Freelance

Offre d'emploi
Data Engineer

CHARLI GROUP
Publiée le
API
Azure
Azure Active Directory

3 ans
10k-70k €
Île-de-France, France

Contexte : Le service d'expertise technique Python & Data Bricks collabore sur les applications critiques du périmètre des produits de risques financiers, dans un contexte international. Les produits de risques financiers soutiennent la holding sur la mesure du risque financier de toutes les positions financières pour les actifs et les dérivés. Il fournit à des capacités techniques pour consolider les positions financières via une approche centralisée et optimisée pour le calcul de l'exposition, le ratio Solvabilité 2, etc. Le service d'expertise technique Python & Data Bricks collabore sur des projets et est en contact direct avec les actuaires de GRM (Group Risk Management) avec l'aide d'un chef de produit. Les applications sont développées en Python et Data Bricks s'appuient sur Azure AD. Les rapports sont déployés dans Power BI. Service : Soutenir la création du référentiel de données Analyser les besoins métier et proposer des solutions techniques pour répondre à ces besoins En cas de problèmes : enquêter, proposer des solutions de contournement (si possible) et mettre en œuvre/tester des corrections Participer au comité opérationnel avec les membres de l'équipe GRM Développer, tester, déployer et documenter les solutions mises en œuvre, conformément aux directives er les rapports conformément au cahier des charges métier Collaborer avec les équipes d'architecture et de sécurité pour la définition de nouvelles implémentations Assister les utilisateurs

CDI

Offre d'emploi
Responsable de Plateforme Data

Phaidon London- Glocomms
Publiée le
AWS Cloud
Big Data
ETL (Extract-transform-load)

75k-115k €
Paris, France

En partenariat avec un client financier établi de GloComms, nous recherchons un responsable senior de la plateforme de données pour aider à diriger le développement et la gestion de la plateforme de données existante. Role: Responsable de Plateforme Data Lieu: Paris Hybride Teletravail Debut: Novembre/Decembre Role: Superviser la création et l'entretien d'une infrastructure et d'une plateforme de données sûres, évolutives et performantes. Travailler avec les équipes de Data Science, Data Engineering et Quant pour s'assurer que les pipelines de données et les procédures s'intègrent de manière transparente. Superviser le développement de services et de parties communes utilisés par les équipes Data et Quant. Réduire le temps de mise en production en rationalisant les opérations de développement à l'aide de l'automatisation et de modèles réutilisables. Superviser un groupe multidisciplinaire d'ingénieurs en logiciels, en fiabilité des sites et en DevOps. Établir, mettre en pratique et garder un œil sur les KPI qui sont liés à la valeur de l'entreprise et à l'expérience de l'utilisateur.

CDI

Offre d'emploi
Architecte Azure DevOps

AGH CONSULTING
Publiée le
Administration linux
Ansible
Azure

10k-55k €
Fontenay-sous-Bois, Île-de-France

Le département de la banque de détail en France recherche un prestataire expert en technologies DevOps et Azure pour participer à la conception et à l'implémentation d'une architecture DevOps robuste. L'architecte technique sera responsable de la mise en place d'un socle DevOps au sein de l'infrastructure Azure, en collaboration avec les équipes internes et en s'appuyant sur des outils d'automatisation et d'orchestration avancés. Missions principales : Le prestataire contribuera aux missions suivantes : Design d'architecture DevOps : Concevoir une architecture DevOps évolutive et maintenable pour l'ensemble de la banque de détail en France. Définir et implémenter le socle DevOps au sein de l'infrastructure Azure, en intégrant les meilleures pratiques d'automatisation et d'orchestration. Implémentation dans Azure : Mettre en œuvre et configurer les services Azure pour soutenir l'architecture DevOps, en utilisant des technologies telles que Terraform, Kubernetes, Vault, et Ansible. Automatiser l'administration et le déploiement des infrastructures cloud via des scripts et des outils tels que Packer et Ansible. Expertise technologique : Apporter une expertise approfondie sur l’ensemble des services Azure, incluant la gestion des infrastructures, le déploiement d'applications, et l’automatisation des processus. Utiliser et adapter des modules Terraform pour assurer la gestion efficace des environnements cloud. Concevoir des solutions sécurisées et fiables pour la gestion des configurations et des secrets via des outils comme Vault. Automatisation et scripting : Élaborer des scripts d’automatisation et d’administration en utilisant des outils comme Ansible et d’autres langages de scripting pour gérer les environnements et les processus. Automatiser les processus répétitifs afin de minimiser les erreurs manuelles et améliorer l'efficacité opérationnelle.

503 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous