Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 338 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data Engineer Spark / Scala

Tenth Revolution Group
Publiée le

40k-45k €
Lyon, Auvergne-Rhône-Alpes

Notre client, expert en services Data, accompagne ses partenaires dans leur transformation numérique. Son équipe d'ingénieurs, chefs de projets et managers de transformation, est passionnée par les évolutions technologiques. L'entreprise valorise l'évolution, l'exigence et la proximité, tout en proposant des missions variées et stimulantes, à forte valeur ajoutée, pour des clients exigeants. Dans le cadre d'une mission spécifique pour un client, cette entreprise recherche un Data Engineer Spark / Scala. Vos missions : Concevoir des solutions fonctionnelles et techniques détaillées Développer des applications avec Spark / Scala Participer à la formalisation des plans de tests, exécuter les tests unitaires et d'intégration Résoudre les anomalies lors des phases d'intégration fonctionnelle et de recette utilisateur Mettre en œuvre des solutions industrielles et accompagner leur déploiement Assurer le suivi des environnements techniques Profil recherché : Minimum 2 ans d'expérience en tant que Data Engineer Maîtrise des technologies Spark et Scala Expérience en contexte Agile/Scrum Vos atouts : Curiosité, adaptabilité et aisance relationnelle Excellent savoir-être et communication efficace Forte capacité d'analyse Ce que l'entreprise offre : Télétravail flexible Participation à des projets diversifiés et enrichissants Montée en compétences sur des outils IT innovants Si vous êtes à la recherche de nouveaux défis et que ce poste vous correspond, postulez dès maintenant pour en savoir plus ! Candidatures confidentielles

Freelance

Mission freelance
Leader administration de message kafka rabbitmq

Innov and Co
Publiée le
Apache Kafka
RabbitMQ

12 mois
100-700 €
Vélizy-Villacoublay, Île-de-France

Dans ce cadre, la Prestation consiste à contribuer à : Ø Être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production, Ø Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Ø Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Ø Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, Ø La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations.

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

Freelance

Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes

Smarteo
Publiée le
Informatique

3 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en oeuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l?équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Freelance
CDI

Offre d'emploi
Tech Lead Java Spark référence

Digistrat consulting
Publiée le
Java

36 mois
10k-60k €
Paris, France

💼 Poste : Tech Lead Java Spark référence 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite mettre en œuvre le volet transformation du système d'information du programme d'amélioration du dispositif de pilotage et de certification de l'assiette risques structurels dont les objectifs sont : Amélioration et accélération de la constitution de l'assiette risques structurels La certification de cette assiette risques structurels cohérente comptable Renforcer la remédiation en termes de qualité de donnée et réduire le nombre d'ajustements manuels Notre client souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre notre client souhaite bénéficier de l'expertise du Prestataire en termes de conception et développement. Dans ce cadre, la prestation consiste à contribuer à/au(x): L’instruction et le cadrage technique des projets, L’implémentation de solutions techniques en méthodologie agile Environnement technique : Java (Spark est un gros plus, Python est un plus) Devops : Ansible, Jenkins, GitHub Actions, Sonar, Artifactory Big Data & Cloud : Cloudera CDP, Apache stack (HDFS, Oozie, Yarn) Data : Oracle DB, PostgreSQL, Hive, Elastic Search, REST APIs Livrables attendus Les livrables attendus sont : Notes de cadrage techniques Spécifications techniques Support et développement sur toutes les releases 2024-2025 🤝 Expertises spécifiques : Agile Scrum Ansible Artifactory Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Elastic Search & Kibana Hive Java Jenkins Oracle Database Enterprise Server PostGreSQL REST Scripting (GuitHub, Ansible, AWX, shell, vba) Sonar

CDI

Offre d'emploi
Dataviz - Tableau - Spark

AGH CONSULTING
Publiée le
Microsoft Power BI

10k-70k €
Fontenay-sous-Bois, Île-de-France

AGH Consulting recherche pour un de ses clients un Data Analyste : La mission vise à : • Conception : Contribution aux ateliers de conception de nos solutions, conseils en vue de la création de la Data Visualisation • Collecte et extraction des données : Collecte et rassemblement des données pertinentes à partir de diverses sources (Datalake Groupe, Référentiels Groupes, autre sources, etc...) • Nettoyage et préparation des données : Gestion des données pour éliminer les erreurs et les redondances, et préparation pour une analyse précise. • Visualisation des données (activité principale) : Création des visualisations claires et informatives pour répondre aux besoins ; Outil utilisé dans notre environnement : Tableau Software (Desktop, Prep) ; (PowerBI en étude) • Traitement et maintenance des dashboards : implémentation et maintien en condition opérationnelle de champs calculés complexes et dashboards associés • Documentation : information sur les avancées en matière d’outils et de techniques d’analyse de données pour améliorer continuellement les méthodes utilisées. Contexte anglophone.

Freelance
CDI

Offre d'emploi
Développeur Big Data Spark

MSI Experts
Publiée le
Apache Spark
Oracle

1 an
10k-55k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un développeur Big Data pour intégrer l'équipe chez notre client afin de : Apporter une expertise en Big Data (Spark) pour améliorer le traitement des données à grande échelle. Gérer la création, la maintenance, l'optimisation et la sécurisation des bases de données. Analyser, proposer et implémenter des optimisations pour les requêtes SQL et PL/SQL afin de maximiser les performances des applications métiers Assurer le support technique aux équipes de développement pour identifier et proposer les solutions SGBD les plus performantes Concevoir et mettre en œuvre des solutions techniques : Assurer le traitement massif des données et l'optimisation des pipelines. Déployer des solutions de stockage de données : Utiliser des technologies SQL et NoSQL pour garantir la performance et la scalabilité des systèmes. Accompagnement des autres développeurs Spark sur le projet Assurer la sécurité et la clarté des pipelines de données : veiller à ce que les données soient sécurisées et facilement exploitables par les équipes d'analyse. Stack technique : o Big Data : Spark, Hive, Indexima. o Stockage : Oracle, CEPH S3 (parquet). o Langages : Java, Python, PL/SQL, Shell. o CI/CD : Ansible, Terraform, Jenkins, GIT. o ETL : Informatica. o Dataviz : Tableau Server. o Ordonnanceur : Control-M.

Freelance

Mission freelance
Développeur Java / Kafka

Kaïbee
Publiée le
Apache Kafka
J2EE / Java EE

1 an
100-550 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Les missions s’articulent autour des axes suivants : - Participer aux phases de Discovery ; - Prendre part dans les analyses techniques et les études d’impacts en amont des développements ; - Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements ; - Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) - Réaliser les développements en suivant les bonnes pratiques de développement - Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe ; - Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette ; - Assurer le support lors des mises en production de chacune des évolutions ; - Assurer le maintien en condition opérationnelle des applications du périmètre. - Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter)

Freelance

Mission freelance
Data Engineer Expérimenté

CAT-AMANIA
Publiée le
Agile Scrum
Apache Hive
Apache Kafka

1 an
100-430 €
Vannes, Bretagne

Dans le cadre de l'intervention pour le compte du Chapitre Data à Vannes : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Vannes mais aussi ceux des autres sites France. Attendu : 1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) 2 - Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées Nous recherchons un Data Engineer expérimenté capable de : - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Freelance

Mission freelance
Data Engineer Expérimenté Nantes – Terradata

Argain Consulting Innovation
Publiée le
Agile Scrum
Data Warehouse
Teradata

2 mois
450-580 €
Nantes, Pays de la Loire

Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe à Nantes et pour le compte de notre client Grand Compte dans le secteur bancaire. Le candidat idéal aura une solide expérience en ingénierie des données et sera capable de gérer des projets complexes dans un environnement dynamique. Responsabilités : Développer des User Story relatifs à la mise en place de solution de changement et de restitution du SGBD Teradata Mettre en œuvre les tests unitaires. Déployer le produit dans les différents environnements. Garantir et assurer le fonctionnement des produits en production Produire la documentation associée à ses développements. Participer à l'affinage et chiffrage des solutions Participer aux cérémonies et démarche agile SCRUM de la Squad. Contexte : Au sein de la tribu Data Hub, vous intégrez la Squad Pilotage Commercial en charge des usages décisionnels pour les domaines Clients, Distribution, Marketing et Régalien. La Squad est responsable des solutions de données modélisées (Datawarehouse), agrégées et optimisées (datamarts) ainsi que des couches d'exposition et des tableaux de bord de pilotage. La Squad contribue également aux besoins transverses pour ces domaines (Ex: reporting réglementaire multi domaine). Attendu : Développer des traitements de chargement, d'extraction et de restitution de données utilisateurs à destination de la plateforme Teradata et des Datawarehouse. Développer des indicateurs de pilotage aux usages métier. Développer des reporting et les moyens de supervision. Suivre les évolutions et être le garant de la cohérence des solutions mises en œuvre. Identifier/proposer des optimisations des traitements dans une démarches d'amélioration continue du plan de production. Le profil devra avoir la capacité de prendre de la hauteur sur les solutions à fournir, avoir la capacité de les expliquer et d'accompagner leur bonne appropriation par les utilisateurs.

CDI
Freelance

Offre d'emploi
Ingenieur développement Java - Kafka

CELAD
Publiée le
Apache Kafka
Java

3 ans
44k-54k €
Nice, Provence-Alpes-Côte d'Azur

Ingénieur Développement JAVA (F/H) Ingénieur(e) JAVA, cette annonce est faite pour vous ! Nous recrutons un ingénieur développement Java (F/H) pour divers clients basés sur Nice, Sophia-Antipolis et Monaco. Vous pouvez notamment rejoindre l’équipe d’un éditeur d’application web/mobile pour la mobilité urbaine ou d’une filiale numérique d’un grand groupe… le choix est large, pour en savoir plus il suffit de nous contacter ! 😉 Pour prendre part à ces projets, voici ce qui est nécessaire : 4 ans d’expérience minimum et les compétences suivantes : Bonne maîtrise du langage Java et des frameworks associés (Hibernate, Spring Boot, …) Utilisation de Kafka Maîtrise des bases de données (idéalement MySQL et MongoDB) Maîtrise des architectures distribuées et microservices Maîtrise des pratiques d’intégration continue (CI/CD), notamment sur Jenkins Maîtrise des tests unitaires et intégration Maîtrise des méthodologies agiles Ces missions sont sur site client, mais vous ferez avant tout partie de la #TeamCELAD donc voici ce qui nous différencie : Ambiance conviviale et un staff à votre écoute Des évènements organisés par l’équipe RH tout au long de l’année (badminton, soirée jeux vidéo/société, bowling, conférence technique …) Une agence en pleine essor qui ne cesse de grandir et qui a de beaux projets en perspectives dans différents secteurs d’activité (automobile, défense, IOT, santé, voyages de luxe, banque…) Prime de participation aux résultats de l’entreprise + PEE Prime de vacances 15 jours de RTT Un peu de contexte : CELAD est une société de conseil et d’ingénierie en informatique de plus de 1500 collaborateurs fondée à Toulouse en 1990 et comptant plus de 250 clients (grands comptes pour des projets internationaux et start-ups). CELAD compte aujourd’hui 11 agences en France. Depuis 2012, CELAD Sophia-Antipolis, qui compte près de 150 collaborateurs , intervient autour de 4 spécialisations dans la région des Alpes-Maritimes et de Monaco : - La Radiofréquence et la Microélectronique - Les technologies web (full stack, front, back) - L’expertise support : Sysadmin, DevOps, CI-CD - L’informatique industrielle et embarquée

Freelance

Mission freelance
Consultant SENIOR IT Quant C# - SPARK & FIRE

NEXORIS
Publiée le
TypeScript

6 mois
570-620 €
Paris, France

Pour le compte d'un de nos clients, une grande banque d'investissement, nous recherchons un Consultant SENIOR IT Quant C# - SPARK & FIRE (H/F). L'objectif de la mission est d'intervenir en tant que développeur Senior IT pour les applications Front-Office Spark et Fire, utilisées pour le calcul de prix indicatifs et de sensibilités sur des produits optionnels, principalement dans le domaine du Fixed Income. Les travaux attendus sont : - Proposer des améliorations sur le projet de refactorisation en architecture Services. - Développer et tester des fonctionnalités pour les applications Spark et Fire. - Déployer les développements en production. - Assurer la maintenance continue des applications. - Fournir un support de proximité aux utilisateurs finaux. - Collaborer avec les ingénieurs quantitatifs pour intégrer les modèles de pricing. Livrables attendus sont : - Fonctionnalités développées et intégrées dans les applications Spark et Fire. - Documentation technique et fonctionnelle des développements réalisés. - Support et résolution des incidents liés aux applications.

Freelance
CDI
CDD

Offre d'emploi
Développeur Fullstack Java / Angular / Kafka

R&S TELECOM
Publiée le
Angular
Apache Kafka
Full stack

12 mois
10k-45k €
Strasbourg, Grand Est

Nous recherchons un Développeur Fullstack pour notre client. Le candidat idéal aura une solide expérience dans les technologies listées ci-dessous et sera capable de travailler de manière autonome tout en collaborant efficacement avec l'équipe de développement. Vous serez impliqué dans toutes les phases du cycle de vie du développement logiciel, de la conception à la mise en production. Responsabilités : Développer des applications web en utilisant Java, Angular et Kafka. Participer à la conception et à l'architecture des solutions logicielles. Écrire et maintenir du code de haute qualité en suivant les meilleures pratiques de développement. Implémenter et exécuter des tests automatiques (JUnit, BDD, TDD). Contribuer à la mise en œuvre des concepts DevOps (CI/CD, Jenkins, pipeline, Sonar). Réaliser des revues de code et appliquer des patterns de développement pour garantir la qualité du code. Gérer les bases de données SQL et intégrer les solutions logicielles avec les systèmes backend. Utiliser les frameworks Spring et Spring Boot pour le développement backend. Développer des interfaces utilisateur en utilisant Angular 14, JSP, Struts, HTML et CSS. Mettre en place des architectures REST pour les services web. Utiliser des scripts Shell pour le déclenchement des batchs. Travailler sur un socle technique On Premise.

Freelance

Mission freelance
Data engineer - GCP BigQuery Spark Scala

NEXORIS
Publiée le
Google Cloud Platform

12 mois
550-600 €
Paris, France

Notre client bancaire recherche un consultant Data engineer - GCP BigQuery Spark Scala (H/F) pour renforcer l'équipe au sein de laquelle preste déjà un consultant de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données. Tâches et activités de la mission : - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels

Freelance

Mission freelance
Profil teradata/BO

MLMCONSEIL
Publiée le
CI/CD
Cloud
IBM DataStage

6 mois
360-500 €
Paris, France

Je suis à la recherche pour une mission à Paris d'un consultant TERADATA / BO ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .......

Freelance
CDI

Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala

Digistrat consulting
Publiée le
Talend

36 mois
10k-65k €
Paris, France

💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)

338 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous