Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 485 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data Analyst (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Azure
BigQuery

35k-45k €
Lille, Hauts-de-France

🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.

CDI

Offre d'emploi
Databricks Architect

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

52k-85k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Ingénieur Cloud Platform GCP & AWS

Cherry Pick
Publiée le
AWS Cloud
Github
Go (langage)

12 mois
550-600 €
Paris, France

Dans le cadre d’un remplacement, notre client recherche un Platform Engineer au sein de l’équipe Cloud Development. Cette équipe est en charge: Du développement d’une API permettant d'orchestrer les interconnexions des nouveaux projets Du développement d’un provider Terraform permettant de consommer l’API De l’accompagnement des équipes sur leur utilisation Du développement d’outils liés : Fronts web, CMDB, … De la mise en place de l’écosystème associé: CI/CD, Monitoring, ... L’équipe est actuellement composée de 4 ingénieurs et d’1 manager. Vos missions : - Vous participez à la conception et au développement de l’orchestrateur - Vous aidez à l’application des bonnes pratiques de développement d’engineering (pratiques de tests, Architecture Decision Record, …) - Vous travaillez en collaboration avec les équipes de la CPE sur le développement des features de notre plateforme - Vous assistez les clients internes à l’utilisation des solutions gérées par l’équipe - Vous participez aux mentoring des collaborateurs (Peer Programming, Peer Review) - Vous assurez le Run et l’astreinte (une semaine toutes les 4 semaines) sur les composants de l’équipe - Vous êtes amené à vous déplacer sur Lille (vie du collectif, évènements d'équipe ou de BU) L'environnement technique : Cloud Service Providers : GCP & AWS Python (FastAPI) Go (Terraform Plugin Framework) Github, Github actions Datadog GCP Cloud Run & GCP Workflows Terraform Processus : 2 entretiens Go - No Go

CDI
Freelance

Offre d'emploi
SysOps H/F

OTTEO
Publiée le
API REST
Automatisation
CI/CD

6 mois
40k-50k €
390-500 €
Lille, Hauts-de-France

Votre 1er projet : Vous accompagnerez notre client historique de la région, dans le domaine de la supply chain. Votre intégrerez une équipe chargée de développer plateformes et outils digitaux dédié à se contexte particulier. Le Sysops sera chargé de la mise en place des stacks technique (infrastructure, delivery, monitoring, ...) pour les environnements applicatifs tout en ayant la responsabilité de les maintenir. Vos missions : Garantir la disponibilité des applications Garantir la sécurité des infrastructures des applications Donner un maximum d'autonomie aux utilisateurs Analyser et résoudre les incidents Aider à la conception des nouvelles plateformes Cloud pour héberger les applications à venir Améliorer le monitoring Automatiser Contribuer au sein de la communauté d’experts interne Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !

Freelance

Mission freelance
Développeur Back-end (PYTHON)

Enterprise Digital Resources Ltd
Publiée le
Google Cloud Platform
Python

3 mois
100-600 €
Hauts-de-France, France

Développement en Python En tant Développeur Back-end, vous interviendrez sur le produit Data Pipelines, qui rassemble un ensemble d’outils permettant aux équipes produits de construire et monitorer leurs data pipelines en complète autonomie. À la demande du Métier, vous analysez, paramétrez et codez les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Vous êtes curieux et assurez une veille sur les nouvelles technologies, architecture et pratiques internes Anglais Lu, écrit (Impératif)

Freelance
CDI

Offre d'emploi
Analytics Engineer Looker Sénior | Casablanca 100% REMOTE

skiils
Publiée le
Google Cloud Platform
Python

1 an
12k-200k €
100-320 €
Île-de-France, France

Dans le cadre de la mise en œuvre du programme de valorisation de la donnée de notre client, tu devras concevoir, implémenter et livrer les nouvelles fonctionnalités de stockage, de traitement et de visualisation de données intégrées aux produits de notre client qui soient robustes, sécurisées, évolutives, hautement disponibles et dynamiques. ACTIVITÉS PRINCIPALES Concevoir, développer, opérationnaliser, sécuriser et surveiller des systèmes de stockage, de traitement et de visualisation de données sur Looker. Développer et opérationnaliser des systèmes de stockage, de traitement et de visualisation de données Développer une compréhension fine et approfondie des domaines métiers et des modèles de données.

Freelance
CDI

Offre d'emploi
Data Engineer Expert GCP | Casablanca 100% Remote

skiils
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform

2 ans
12k-103k €
100-320 €
Île-de-France, France

skiils recrute un Data Engineer Expert GCP (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Python, Spark Kafka & Kafka-stream Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible dans une environnement cloud GCP . Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)

Freelance

Mission freelance
Expert Databricks - Développement Python

ABALSIA CONSULTING
Publiée le
Databricks
PySpark
Python

1 an
400-600 €
Île-de-France, France

Conception de solutions azure, optimisation de l'efficacité et de la qualité de la gestion des données en mettant en œuvre des processus automatisés, des normes de sécurité et une collaboration interfonctionnelle pour faciliter l'analyse et la prise de décision Conception et création des chaînes ci/cd pour databricks et data factory Développement des pipelines data ETL, ETL (Azure Data Factory, Databricks) Création des pipelines d’ingestion avec rivery Développement d’une solution Spark SQL pour extraire, copier et anonymiser les données dans un autre environnement Mise en place des solutions de monitoring et d’alerting Développement d’une solution finops sur databricks Participation a l’upgrade de Databricks, metastore vers unity catalog.

Freelance

Mission freelance
Lead Data GCP Python Power BI

HIGHTEAM
Publiée le
Google Cloud Platform
Python
SQL

3 ans
550-650 €
Île-de-France, France

Nous recherchons un(e) Lead Data Engineer expérimenté(e) pour rejoindre une équipe digitale dynamique dédiée à la gestion des données. Vous serez en charge de l’industrialisation de l’infrastructure data, ainsi que de la qualité, de la sécurité, et du respect de la vie privée des données. Vous travaillerez sur des environnements Cloud (GCP et AWS) et piloterez une équipe de 2 Data Engineer . Mise en place d’environnements cloisonnés (Dev, Préprod, Production). Automatisation du déploiement et de la maintenance via des outils Infrastructure as Code (Terraform) . Implémentation de solutions d’observabilité (monitoring, alerting). Maintenance et développement de pipelines de données en Python (batch et streaming). Création de pipelines SQL/SQLX avec Data-Form (similaire à DBT). Déploiement et gestion d’un outil de data quality (ex. Great Expectations). Développement de workers AWS pour gérer les flux entre Kafka et Pub Sub sur GCP. Connaissance de DataFlow (Apache Beam) appréciée. Standardisation du code avec linting, CI/CD et divers tests. Documentation des processus internes et schémas d’architecture. Coopération avec les équipes Data (analystes, SEO/SEA, emailing). Respect du RGPD avec anonymisation et archivage des données. Sécurisation de l’infrastructure, des données et du code

Freelance

Mission freelance
Développer C# - Python

SILKHOM
Publiée le
Angular
Python

2 mois
350-800 €
Bordeaux, Nouvelle-Aquitaine

- Comprendre rapidement l’existant (API cloud, structure SQL, et performances actuelles). - Analyser les choix techniques effectués et proposer des alternatives en accord avec les besoins métiers. - Développer et optimiser des modules en C#, tout en proposant des solutions complémentaires en Python si nécessaire. - Collaborer avec l’équipe pour restructurer la solution en mode Agile, avec une architecture modulaire. - Participer à l’intégration de la supervision des données collectées de 3000 stations, tout en garantissant des temps de réponse optimaux. - Apporter une vision technique sur les technologies à privilégier pour garantir une pérennité des solutions. Pourquoi accepter cette mission ? 1. Projet stratégique : Vous participerez à la refonte d’une solution clé utilisée dans 3 000 stations-service, avec un impact direct et des enjeux techniques stimulants. 2. Polyvalence et défis techniques : Une mission diversifiée touchant au cloud Azure, aux API, et à l’intégration de données, dans un environnement mêlant matériel et logiciel. 3. Rôle clé : Vous serez moteur dans les choix techniques et l’optimisation des performances, avec une autonomie et des responsabilités accrues. 4. Collaboration et flexibilité : Une équipe à taille humaine, jusqu’à 2 jours de télétravail par semaine, et une mission adaptable (2 mois renouvelables).

Freelance
CDD

Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris

Espritek
Publiée le
AWS Cloud
Docker
Microservices

12 mois
110k-127k €
650-750 €
Paris, France

Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP

Freelance

Mission freelance
Développeur Senior DJANGO / PYTHON (H/F)

Link Consulting
Publiée le
Django
PHP
Python

3 mois
350-400 €
Toulouse, Occitanie

Notre client, un acteur clé dans le secteur de la logistique, recherche un Développeur Python expérimenté, spécialisé dans le framework Django, pour rejoindre son équipe technique. Cette mission est idéale pour les développeurs autonomes, à la recherche d’un environnement flexible et stimulant. Vos missions : En tant que Développeur Python/Django, vous serez chargé de : • Concevoir, développer et maintenir des applications web robustes en Python avec le framework Django. • Participer à l’analyse des besoins fonctionnels et à la rédaction des spécifications techniques. • Optimiser et améliorer les fonctionnalités existantes pour garantir performance et fiabilité. • Assurer les phases de test et de débogage des applications développées. • Collaborer étroitement avec les autres membres de l’équipe pour garantir l’alignement des solutions techniques avec les objectifs métier.

Freelance
CDI

Offre d'emploi
Data Analyst (Exp. Secteur Média OBLIGATOIRE) - Suisse

DATSUP
Publiée le
Microsoft Power BI
Python
SQL

6 mois
200k €
3k €
Genève, Suisse

Intégrer une équipe en charge des problématiques de Data Engineering et Data Analytics. Équipe de 5 personnes. Collecte, Traitement, Nettoyage et Analyse des données (plateforme web / mobile, streaming, ...). Conception et maintenance des dashboards. Requetage des bases SQL. Restitution, exploitation et reporting des données sous Power BI. Solides connaissances en développement (ex : Python) un gros plus. Solides connaissances des concepts d'orchestration des données, GIT, DBT, ... un gros plus.

Freelance
CDI

Offre d'emploi
Data Engineer Python/SQL

Oceane consulting
Publiée le
Numpy
Pandas
Python

15 mois
54k-63k €
500-550 €
Paris, France

Data Engineer Python/SQL Dans le cadre d'une équipe dédiée à la gestion des données globales et transverses pour un acteur majeur de la finance de marché, vous participerez à des projets stratégiques autour de la gestion et de l’analyse des données pre-trade. Vous contribuerez au développement et au maintien d’outils de détection d’abus de marché basés sur des modèles statistiques, en mettant en œuvre des solutions techniques avancées en Python et SQL dans un environnement technico-fonctionnel exigeant.

Freelance

Mission freelance
Data Engineer - SDDS Finance

Freelance.com
Publiée le
BigQuery
CI/CD
Cloud

3 mois
300-600 €
Clichy, Île-de-France

Client : Secteur luxe et beauté Mission : Data Engineer - SDDS Finance Expérience : + 5 ans Localisation : Offsite Démarrage : 02/01/2025 Objectifs/Descriptif de mission : Compétences requises: - GCP (focus on BigQuery, Cloud Run, Cloud Build) -SQL -Python -DevOps (Github) -API Development (Flask RestX or FastAPI) -Terraform Contexte de la prestation : Dans le cadre de la transformation Beauty Tech de notre client, l'équipe Engineering de la Data Factory Team à deux missions: 1- Développer la Beauty Tech Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du groupe L'Oréal 2- Développer des use cases Data sur la Beauty Tech Data Platform à l'aide des équipes de la Data Gouvernance.

Freelance

Mission freelance
Développeur Python Fastapi & angular

APYA
Publiée le
Angular
AngularJS
FastAPI

1 an
400 €
Paris, France

Développeur fullstack Python / Angular : ▪ TMA - Développements des corrections et évolutions technico-fonctionnelles sur les produits en responsabilité du service ▪ Projets - Développements des US sur la base des spécifications technicofonctionnelles mises à disposition ▪ Développements des tests unitaires inhérents ▪ Rédaction des documentations techniques ▪ Participation aux codes reviews d’équipes Compétences attendues : -Back : Python 3+ (fastapi, aiohttp, aioredis, aiopika…) -Front : Angular / AngularJS / Javascript / Typescript

485 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous