Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 264 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Chef de Projet Technique Java / Cloud

VISIAN
Publiée le
Apache Kafka
Docker
Java

1 an
10k-38k €
Montreuil, Île-de-France

Le bénéficiaire souhaite une prestation d’accompagnement pour les développements et la maintenance des services de Customer Knowledge, au sein de l'équipe agile en charge de cette mission. Les volumes progressent en fonction de l'intégration qui en est faite par les entités, aussi la notion de service est importante au vu des enjeux par les consomateurs de nos APIs. Participation avec l'équipe au passage dans le Cloud. Le chef de projet doit à la fois etre technique et repondre aux exigence ci dessous

CDI
Freelance

Offre d'emploi
Data Engineer GCP

Hexateam
Publiée le
Apache
Apache Hive
Apache Spark

24 mois
10k-61k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer GCP Le Data Engineer sera chargé des activités de Data Engineering, en particulier sur la plateforme Google Cloud Platform (GCP) . Il devra gérer les données brutes de satisfaction stockées dans le datalake (zone Raw) et transformer ces données pour les rendre accessibles dans une zone Gold, utilisée par d'autres projets. Conception : Analyse des données, définition du modèle de données, conception des chaînes d'ingestion et de préparation. Réalisation : Mise en œuvre, indexation, ordonnancement et tests des jobs, avec documentation. Intégration & Déploiement : Optimisation des performances, résolution de problèmes liés aux jobs et aux données. Documents de modélisation et structuration des données. Règles de gestion et synthèses analytiques. Mise en place des chaînes de traitement de la donnée et des dashboards de monitoring. Maîtrise de Spark , Scala . Pratique confirmée des services GCP : BigQuery, CloudStorage, CloudComposer/Airflow, DataFlow, Dataproc, Terraform, GitLabEE. Expérience en modélisation de données et stratégie de tests. Connaissance des notebooks data, GCP DataStudio, ElasticSearch (atout). Méthodologie Agile . Anglais requis pour la documentation et les échanges internationaux.

CDI

Offre d'emploi
Intégrateur DevOps - F/H - Vitrolles

ENGIT
Publiée le
Apache Kafka
API REST
CI/CD

38k-40k €
Vitrolles, Provence-Alpes-Côte d'Azur

Les principales missions sont : Votre maitrise des chaînes CI/CD contribuera à la qualité de la construction et du déploiement de nos systèmes applicatifs Votre expertise technique vous permettra d’éprouver le système et de participer à son amélioration Vous participerez à l’intégration technique du système applicatif déployé et à la mise en place des bonnes pratiques depuis l'environnement de développement jusqu'à l’exploitation Intégrer, configurer et déployer les applications PSPDV dans un contexte de DEV et Intégration SI Modifier, optimiser les configurations des différents environnements (DEV / INT / PERF) Gérer une dizaine de composants et leurs versions à travers les chaines CI/CD Suivies des anomalies dans l’outil de suivi

Freelance
CDI

Offre d'emploi
Consultant CRM Omnicanal

Actiis IT
Publiée le
Adobe Campaign
Apache Hive
Data analysis

3 ans
10k-65k €
La Défense, Île-de-France

Pour délivrer la roadmap Marketing Relationnel 2020-25 qui se décline en plusieurs chantiers de construction et production des prises de parole omnicanales portant sur l’amélioration et l’optimisation du plan de contact clients, l’entité CRM recherche des expertises qui auront pour objectif(s) : La gestion des projets de mise en place de nouveaux parcours et activations clients Particuliers. Pour ce fait, nous cherchons un Data Analysis Dans ce cadre la prestation consiste à contribuer à/au(x) : - La mise en oeuvre des opérations marketing - La mise en oeuvre des reportings avec leur documentation - Tests de performance et analyse - Mise en place de Dashboard

Freelance
CDI

Offre d'emploi
Data Engineer sénior H/F

GROUPE ALLIANCE
Publiée le
Apache Spark
Python
Scala

36 mois
45k-60k €
Paris, France

SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE … Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras

Freelance

Mission freelance
Data Engineer Senior

Kleever
Publiée le
Apache Airflow
Cloud
Computer vision

12 mois
550-630 €
Paris, France

Bonjour, Nous recherchons pour notre client un.e Data Engineer Senior pour rejoindre une équipe agile composée d’un.e Product Owner, de Data Scientists et d’un.e Data Analyst. ans le cadre d’un projet innovant visant à sécurité à l’aide de la vision computationnelle, Ce projet a pour objectif de détecter et réduire les fraudes tout en offrant une expérience client fluide et efficace. Concevoir, développer et faire évoluer des systèmes de traitement de données robustes et scalables pour industrialiser des solutions intégrant des algorithmes de machine learning et de recherche opérationnelle. Optimiser les performances des systèmes en faisant les bons choix architecturaux dans une approche cloud-first . Participer activement aux revues de code, aux itérations des projets et à la maintenance des solutions déployées. Contribuer à la communauté technique interne en partageant les bonnes pratiques, retours d’expérience, et évolutions des technologies utilisées (présentations, débats, etc.).

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
Apache Kafka
BigQuery
CI/CD

3 ans
350-500 €
Lille, Hauts-de-France

La mission consiste à : - Participer aux rituels agiles - Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprise - Développer les solutions data - Valider la qualité des développements - Améliorer et optimiser le patrimoine actuel - Maintenir les solutions existantes (RUN) - Contribuer à la construction du nouveau socle et des services - Accompagner les métiers sur les bonnes pratiques de l'exploitation de la Data - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Première expérience en Data Engineering indispensable - Expertise SQL, ETL, CI/CD, GIT, Terraform, Kafka, GCP ... - Connaissances sur Power BI, Looker ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +

Freelance

Mission freelance
développeur Big data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Kubernetes

36 mois
310-480 €
Île-de-France, France

Nous recherchons un Développeur Big Data pour intervenir au sein d'une équipe IT spécialisée dans la gestion des données et la Business Intelligence. Vous intégrerez une équipe dédiée à la mise en place et à la gestion d'un datalake qui joue un rôle stratégique dans le développement des projets métiers. Rédaction de spécifications techniques détaillées. Analyse des impacts des nouveaux projets sur les processus existants du système d’information. Développement de requêtes et implémentation de solutions de Data Engineering en environnement Big Data. Réalisation et automatisation de bout en bout des programmes. Planification et suivi de la production. Formation des collaborateurs et mise en place des meilleures pratiques en matière de Data Engineering.

Freelance
CDI

Offre d'emploi
DATA ENGINEER

UCASE CONSULTING
Publiée le
Apache Spark
Databricks
Github

6 mois
10k-175k €
Paris, France

Bonjour à tous, Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer : Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données. Déploiement et gestion des workflows sur Databricks , avec une optimisation continue des performances des pipelines. Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres. Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques. Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées. Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées. Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés. Apache Spark : Expertise dans le traitement de données massives via Spark. GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue. CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents. Expérience d’au moins 3 à 5 ans dans un rôle similaire. Connaissance des architectures de données distribuées et expérience en ETL et transformation de données. Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines. Expérience en méthodologies de travail Agile/Scrum.

Freelance

Mission freelance
data ingénieur

Innov and Co
Publiée le
Apache Hive
AWS Cloud
Dataiku

12 mois
100-540 €
Boulogne-Billancourt, Île-de-France

Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée. CICD Expert AWS Avancé Scheduling Airflow Expert Python Expert kubernetes Expert Stockage S3 Expert PYSPARK Expert SQL Expert Git Expert Dataiku Avancé Hive Expert

Freelance

Mission freelance
Ingénieur Data Senior / Leader Technique (Expert Data Vault)

Phaidon London- Glocomms
Publiée le
Apache Hive
Apache Kafka
ETL (Extract-transform-load)

12 mois
600-700 €
Île-de-France, France

Titre du poste : Ingénieur Data Senior / Leader Technique (Expert Data Vault) Lieu : Paris, France (Hybride : 3 jours de télétravail par semaine) Langue requise : Français courant Nous recherchons un Ingénieur Data Senior / Leader Technique avec une vaste expérience en Data Vault pour diriger un projet de migration de données important à Paris. Le candidat retenu ne se contentera pas de guider les efforts de migration, mais jouera également un rôle clé dans la constitution et le mentorat d'une équipe de data engineers performante. Responsabilités principales : Diriger et exécuter la migration de systèmes de données complexes Concevoir des solutions de données en utilisant la méthodologie Data Vault Construire et gérer une équipe d'ingénieurs de données, en favorisant un environnement collaboratif et innovant Collaborer avec des équipes transversales pour fournir des plateformes de données évolutives et efficaces Superviser et optimiser les flux de données dans Hadoop , HDFS , et Kafka Assurer les meilleures pratiques dans les processus ETL et l'ingénierie des données Exigences : Expérience avérée avec Data Vault Maîtrise de PySpark, Hive, Hadoop, HDFS, Kafka, SQL, outils ETL Français courant (à l'oral et à l'écrit) Expérience dans la gestion de projets de migration de données Compétences solides en constitution et en gestion d'équipe Les entretiens commenceront cette semaine. Postulez dès maintenant pour diriger un projet de migration transformateur et façonner l'avenir de l'ingénierie des données avec nous.

Freelance

Mission freelance
Lead Tech

W Executive France SAS
Publiée le
Ansible
Apache Kafka
Java

6 mois
450-710 €
Lyon, Auvergne-Rhône-Alpes

Vous serez en charge: Assurer la responsabilité d'un ou plusieurs processus sur tout le périmètre technique des composants. Etre le point d'entrée de l'équipe pour les sujets techniques. Assurer le relai entre l'équipe et l'Apps Lead. Animer les équipes techniques du projet. Définir et mettre en place l’architecture technique des projets. Assurer la qualité du code et veiller au respect des bonnes pratiques de développement (tests unitaires, revues de code, intégration continue). Participer activement aux choix technologiques et à la veille technologique.

Freelance
CDI

Offre d'emploi
Data engineer - Databricks/Pyspark/SQL

VISIAN
Publiée le
Apache Spark
AWS Cloud
Databricks

1 an
10k-60k €
Bagneux, Île-de-France

Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer) -Est en relation avec les équipes infrastructure afin d'assurer le cadrage et le déploiement des solutions valides -Support aux équipes consommatrices -Analyse d'anomalie et proposition solution court / moyen terme - Developpement sous Databrick (Python / SQL / Spark / Airflow) -Est force de propositions techniques, en capacité de faire un état des lieux sur les normes et process de devt et faire appliquer les recommandations.

CDI
Freelance

Offre d'emploi
Développeur Java - Angular H/F

SCALIAN
Publiée le
Angular
Apache Struts
Java

3 ans
10k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Projet Vous intervenez sur un projet à très forte valeur ajoutée pour un client dans le domaine du médicale, situé à Aix en Provence. Poste et missions Vous intégrerez notre Squad Software Engineering et travaillerez en étroite collaboration avec nos collaborateurs en accomplissant les activités suivantes : Vous erez en charge des responsabilités suivantes : - Développement de nouvelles features - Maintenance évolutive des applicatifs existants - Implémentation de test unitaire - Test End to End - Test d'intégration - Mise en oeuvre des bonnes pratiques (Clean code /TDD/DDD) - Maintien et amélioration des pipelines de CICD Environnement technique : - Backend : Java 17 - Frontend : anciennement JSP, maintenant VueJS et Angular - BDD : Oracle (1200 tables), Hibernate et HQL - Technos clients : Angular, HTML5, CSS3 - Affinité avec l'écosystème Java : Struts, Spring, (JUnit, WebService RESTful) - Production : Tomcat, Docker - OS : Windows / Linux Micro-services pour certaines fonctions : - Angular 12, VueJS...techno libres - BDD : MongoDB, ElasticSearch Télétravail : 2 jours Vous apportez votre expertise et vos capacités d'analyse à la réalisation de plusieurs projets pour l'évolution de l'entreprise.

CDI

Offre d'emploi
Ingénieur DevOps H/F

NOOEH
Publiée le
Apache Tomcat
Helm
Kubernetes

46k-52k €
Vitrolles, Provence-Alpes-Côte d'Azur

NOOEH, Entreprise de Service du Numérique basée à Aix-en-Provence recherche pour le compte d'un de ses clients situés à Vitrolles un(e) Ingénieur DevOps . Vous serez en charge d’assurer le rôle d’intégrateur technique et coordinateur de tests techniques au sein des activités du client. Déployer des composants dans Rancher / Kubernetes avec une expertise en HELM charts. Créer et administrer des chaînes CI/CD GitLab. Écrire et faire évoluer les scripts de compilation, de déploiement et de configuration. Gérer les secrets/certificats et leur mise en œuvre entre systèmes (notamment pour MTLS). Créer et gérer les environnements (DEV, QA, IQ, Recette, PROD) (Rancher / Kubernetes). Déployer des composants dans des environnements Legacy. Effectuer les montées en version des composants techniques. Fournir du support aux différentes équipes lors des différentes phases (ex : debug DEV, assistance pour les livraisons). Participer à l’amélioration des bonnes pratiques autour de la CI/CD avec les ingénieurs DevOps d'autres domaines. Partager la connaissance et les nouveautés sur les outils et pratiques avec les équipes de développement. Assurer le support technique dans l’équipe de tests transverses. Analyser et résoudre les anomalies techniques. Assister les phases de mise en production des applications.

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

264 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous