Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 967 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance
CDI

Offre d'emploi
DATA ENGINEER

UCASE CONSULTING
Publiée le
Apache Spark
Databricks
Github

6 mois
10k-175k €
Paris, France

Bonjour à tous, Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer : Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données. Déploiement et gestion des workflows sur Databricks , avec une optimisation continue des performances des pipelines. Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres. Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques. Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées. Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées. Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés. Apache Spark : Expertise dans le traitement de données massives via Spark. GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue. CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents. Expérience d’au moins 3 à 5 ans dans un rôle similaire. Connaissance des architectures de données distribuées et expérience en ETL et transformation de données. Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines. Expérience en méthodologies de travail Agile/Scrum.

Freelance

Mission freelance
Data Scientist (H/F) – Paris

Espace Freelance
Publiée le
Databricks
Python

12 mois
100-560 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Scientist (H/F) – Paris Mission à pourvoir en régie sur Paris Présence sur site : 3 jours / semaine Compétences obligatoires : Databricks ; Machine Learning ; Forecast ; Python ; Anglais ; Spark Votre mission : · Concevoir et mettre en œuvre la trajectoire des produits pour de nouveaux usages. · Soutenir la vision globale de l’IAM via une approche user, market, tech et corporate. · Définir la feuille de route des fonctionnalités attendues à court et moyen terme. · Imaginer et prioriser, avec la squad, de nouvelles fonctionnalités et améliorer les existantes. · Co-construire et animer les OKR avec la squad, le Group Product Manager et l'Engineering Manager. · Gérer et piloter le budget du produit. · Raffiner les initiatives produits et rédiger les epics et user stories pour la backlog. · Organiser des sprints pour livrer de la valeur rapidement. · Construire une communauté d’utilisateurs pour recueillir leurs feedbacks. · Accompagner les autres Product Managers en partageant bonnes pratiques et méthodes. REF : EFP/UNXX/ODVB Plus d’offres sur :

Freelance

Mission freelance
QA AUTOMATICIEN - DATABRICKS

K2 Partnering Solutions
Publiée le
Apache Maven
Databricks
Selenium

1 an
100-500 €
Paris, France

Contexte de la mission : Nous recherchons un(e) QA Engineer freelance (niveau avancé à senior) pour rejoindre l'équipe de Test et de Delivery, basée à Paris. Votre mission sera d'assurer la qualité des produits, depuis les tests manuels jusqu'au développement de scripts d'automatisation, en garantissant un niveau de qualité des données conforme aux exigences internes et externes avant chaque livraison. Vous interviendrez dans un environnement technique complexe, sous la supervision d'un Test Manager, et jouerez un rôle clé dans l'atteinte des objectifs du programme en challengeant la qualité à différents niveaux tout en assurant la liaison avec les parties prenantes.

Freelance

Mission freelance
Un Intégrateur Applicatif / Ingénieur de Production Devops

Management Square
Publiée le
CI/CD
Docker
Gitlab

1 an
350-450 €
Paris, France

Contexte Vous intégrerez une équipe dynamique travaillant sur des projets innovants dans un environnement technologique varié et stimulant. Missions principales Automatisation des déploiements (CI/CD) via des outils comme Ansible, Jenkins, GitLab Runner et scripting Bash Résolution d'incidents de niveau 2/3 et assistance à l'équipe d'exploitation Rédaction de documentation technique pour l'équipe de Production Mise en place de tenants dans le cloud (architecture 3 tiers) avec OpenStack et déploiement de containers Docker Configuration de la supervision (CheckMK) et des sauvegardes (BDD/FS) sur le Cloud Déploiements sur les environnements de Qualification/Tests et retour d'expérience aux chefs de projet/développeurs Tâches diverses d'administration BDD et système (migrations, augmentation de FS, etc.)

CDI
Freelance

Offre d'emploi
Développeur / architecte senior Azure et .NET

TRSB
Publiée le
Agile Scrum
Angular
ArcGIS

1 an
50k-70k €
Marseille, Provence-Alpes-Côte d'Azur

Nous recherchons un spécialiste senior Azure et .NET, avec à la fois des capacités d'architecture logicielle et de développement logiciel. Vos missions consisteront notamment à : • Contribuer à la conception et au développement de solutions numériques performantes orientées client : architecture, développement, test, livraison, maintenance et support (DevOps). L'environnement est principalement basé sur le cloud MS Azure, avec de fortes exigences en matière de cybersécurité. • Participer au déploiement de la chaîne d'outils de développement et de maintenance, y compris les pipelines CI/CD, l'évaluation de la qualité, les tests automatisés, le suivi des solutions en production, etc. • Potentiellement, agir en tant que responsable technique pour certains projets impliquant des développeurs. • Participer à la veille technologique …

Freelance

Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri

WorldWide People
Publiée le
Apache Spark
Databricks

12 mois
330-440 €
Montpellier, Occitanie

Ingénieur MLOPS Montpellier (1 Senior et 1 Junior) DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

CDI
Freelance

Offre d'emploi
Senior Data Scientist

CAPEST conseils
Publiée le
AWS Cloud
Databricks
HDFS (Hadoop Distributed File System)

6 mois
10k-196k €
Croix, Hauts-de-France

Skills Méthodes d'inférences statistiques Modélisation et développement d'un framework de mesure de la performance. Expertise approfondie du Machine Learning et en particuliers des statistiques Production de code “robuste” permettant l’industrialisation, le passage à l’échelle et le maintien de la solution IA Maîtrise indispensable de Python et de ses librairies Data Science Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. Maîtrise de l’Anglais indispensable.

Freelance

Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka

Signe +
Publiée le
Apache Hive
Apache Kafka
Big Data

24 mois
175-200 €
Nantes, Pays de la Loire

Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi

Freelance
CDI

Offre d'emploi
Développeur Python / FastAPI

VISIAN
Publiée le
AWS Cloud
Databricks
Javascript

3 ans
10k-50k €
Paris, France

VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit, le développement et la data. Dans le cadre de nos projets clients, nous recherchons un développeur Python / FastAPI L'entité du client est responsable de la conception, du développement et de la production du système d’information et des infrastructures. Il conçoit et met à disposition des Lignes Métiers et des Fonctions Supports Back Office et Risques les systèmes informatiques nécessaires à l’exercice de leurs missions. Il est également en charge du bon fonctionnement et du support opérationnel de ces systèmes.

Freelance
CDI

Offre d'emploi
Data Analyst (H/F)

CITECH
Publiée le
Databricks
Microsoft Power BI
MySQL

12 mois
60k-80k €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst (H/F) 🚀 💡 Votre mission est pour un client reconnu dans le secteur de l’énergie, comptabilisant plus d’un million de clients, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. ⚡️ 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développer des modèles de données et des tableaux de bord Power BI intuitifs ; 🔸 Gérer la collecte, le nettoyage, le traitement et la modélisation des données ; 🔸 Assurer la qualité et l'intégrité des analyses et dashboards ; 🔸 Optimiser les processus décisionnels.

Freelance

Mission freelance
Senior Data Engineer

KatchMe Consulting
Publiée le
Databricks

3 mois
100-500 €
Paris, France

• Mise en place et exécution du framework et des pipelines de traitement de données : o Connectez-vous à diverses sources de données brutes (API internes/externes, lacs de données cloud, bases de données) pour ingérer des données dans Databricks o Mettre en œuvre des transformations de données à grande échelle pour automatiser la création de nouvelles données à des fins d'analyse o Créer et gérer des bases de données et des solutions de stockage de données efficaces (SQL/NoSQL) pour organiser les données structurées et non structurées. o Exposition de données via des API, Datamarts, SQL Endpoints, solutions de Dashboarding o Assurer la qualité, la cohérence et la sécurité des données, conformément aux normes de l'industrie. • Développer des API REST à l'aide d'un framework Web Python tel que FastAPI • Rejoignez une équipe projet multidisciplinaire et multiculturelle, travaillant en collaboration avec DevOps, Data Scientists, Project Managers • Documentez les flux de travail, les modèles de données et les configurations de pipeline pour garantir la transparence et la facilité d'utilisation pour les analystes et les parties prenantes

Freelance

Mission freelance
Développeur Data

COEXYA
Publiée le
API REST
Azure Data Factory
Databricks

1 an
100-560 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

MISSIONS: Développer et maintenir des pipelines de données avec Azure Data Factory. Créer et gérer des rapports et tableaux de bord avec Power BI. Concevoir et optimiser des bases de données SQL. Travailler avec Databricks pour le traitement et l’analyse des données. Développer des scripts en Python pour automatiser les processus de données. Gérer et intégrer des API REST. Utiliser les services SSIS de SQL pour les processus ETL. COMPETENCES: Expérience avec les technologies Azure Data (Data Factory, Power BI, SQL, Databricks). Compétences en développement Python. Connaissance des API REST. Expérience avec les services SSIS de SQL.

Freelance
CDI

Offre d'emploi
Devops sénior

Etixway
Publiée le
Ansible
Grafana
Jenkins

3 ans
10k-55k €
Bry-sur-Marne, Île-de-France

Participer au choix de solution et à l'amélioration continue Elaborer les preuves de concepts, les tests et/ou maquettes à vérifier et réaliser l'étude d'impact sur l'architecture existante ou prévisionnelle pour tout nouveau projet ou toute nouvelle technologie Mettre en place la chaine (CI/CD) Implémenter des outils de configuration et d'automatisation pour industrialiser les processus de déploiement Analyser et résoudre les anomalies liées à la performance et à la scalabilité des systèmes Assurer un support sur les anomalies escaladées de l'équipe Exploitation en proposant des correctifs et/ou des solutions de contournements Rédiger et maintenir à jour les livrables Environnement technique : Jenkins, Ansible, yaml, groovy, GIT, Docker, Kubernetes, Maven, Linux, Apache, Nginx, Grafana

Freelance

Mission freelance
Expert Data et BI

SKILLWISE
Publiée le
Azure Data Factory
Databricks
PySpark

3 mois
100-1k €
Paris, France

L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance
CDI

Offre d'emploi
DevOps Transfert de Fichiers

Ecco Technologies
Publiée le
Azure
Github
SFTP (Secure File Transfer Protocol)

2 ans
10k-45k €
Valbonne, Provence-Alpes-Côte d'Azur

Bonjour, Nous sommes actuellement à la recherche de notre prochain DevOps en cette période de pré-rentrée, pour l'un de nos partenaires, leader dans son secteur. Mission de longue durée jusqu'au moins 2027. L’objectif est que vous puissiez rejoindre l'équipe de notre partenaire pour aider l’équipe transfert de fichier (Middleware) à mettre en place une solution en self service pour leur nouvelle solution Secure Transport sur Azure. Missions : Mise en place d’actions github pour permettre aux utilisateurs de créer leurs demandes Mise en place de la gouvernance (via Action Github, Service Now puis appels d’APIs vers Secure Transport / Terraform) Automatisation des actions répétitives identifiées par l’équipe transfert de fichiers Mise en place de la solution Secure Transport dans la compagnie Rythme : 2 jours par semaine à prévoir sur site à Valbonne Poste à pourvoir dès que possible !

967 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous