Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 605 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Ingénieur Architecte Java

DSI group
Publiée le
J2EE / Java EE
Java

50k-58k €
Luxembourg

L’agence DSI Luxembourg recherche actuellement un Architecte Java H/F. Vos missions : Analyse fonctionnelle ; Analyse technique et définition d’architectures nécessitant des interactions avec les différentes équipes du client (Sécurité, Infrastructure, …) ; Développement, Implémentation (JavaEE, VueJS) ; Définition et exécutions de tests, plans de tests etc. ; Rédaction de documentation d’analyse fonctionnelle et technique, de documentation technique, de guide utilisateur, etc. La documentation technique sera à rédiger en anglais ; Support aux utilisateurs ; Contrôle de qualité de projets externes ; Gestion de services mis à disposition par le client (p.ex. : repository Maven, Plateforme SonarQube).

Freelance

Mission freelance
dev scala (react/aws) freelance

Gentis Recruitment SAS
Publiée le
AWS Cloud
React
Scala

2 ans
120-600 €
Paris, France

Scala - Freelance - Paris - septembre Je cherche un dev scala d'une 10aine d'années d'xp pour une mission freelance qui vise à travailler sur des problématiques de forecasting et d'optimisation de perf. mission de 2 ans (peut-être 3), 2 jours sur site client final en direct comme d'habitude stack: scala (API, Business rules, data access) postgresql/influxDB react AWS PAS DE SOUS TRAITANCE ! (je ne répond plus) Au plaisir de vous lire! Scala - Freelance - Paris - Août Je cherche un dev scala d'une 10aine d'années d'xp pour une mission freelance qui vise à travailler sur des problématiques de forecasting et d'optimisation de perf. mission de 2 ans (peut-être 3), 2 jours sur site client final en direct comme d'habitude stack: scala (API, Business rules, data access) postgresql/influxDB AWS c'est un plus si la personne a des compétences sur les systèmes embarqués et parle anglais. PAS DE SOUS TRAITANCE ! (je ne répond plus) Au plaisir de vous lire!

Freelance
CDI

Offre d'emploi
Lead Technique

NOSCO
Publiée le
Apache Spark
Java
Spring Batch

6 mois
34k-57k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Co-lead technique et développeur Spring Batch au sein d'une équipe de 3-5 personnes. Transformer des données provenant de différents partenaires et les agglomérer en une banque de donnée partagées via une application Spring Batch. Participation au diagnostic et à la résolution des incidents de production Collaborer avec le reste de l’équipe pour trouver les meilleures solutions aux problématiques techniques rencontrées Développements et revues de code sur des problématiques techniques complexes Support technique de dernier niveau

CDI

Offre d'emploi
Ingénieur Développement JAVA Confirmé H/F

Reactis
Publiée le
Apache Maven
Confluence
Hibernate

42k-48k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Vous intégrez la DSI du client et rejoignez l'équipe afin d'intervenir sur des projets d'envergure en lien avec une application de gestion complexe, riche au niveau fonctionnel/métier et d’utilité publique. Vos principales missions sont notamment : Revue des spécifications fonctionnelles détaillées en collaboration avec les référents métier. Définition des tâches de réalisation et estimation de la charge Développements full-stack (création des objets et méthodes associées, utilisation des webservices des applications du SI, design d’IHM, accès à la BDD PostgreSQL, paramétrages du serveur d’application JBOSS) Ecritures de tests unitaires avec JUnit Déploiement des développements sur l’environnement d’intégration Relecture du code Travail avec l’équipe analystes fonctionnels puis avec celle de qualification pour la résolution d’anomalies Environnement technique : Linux, PostgreSQL JBoss, Java J2EE, Spring, Hibernate, JMS, JUnit, Eclipse, SVN, Jenkins, Maven, Sonar JIRA, Confluence Squirrel, SoapUI

CDI
Freelance

Offre d'emploi
Data Engineer Hadoop SQL Spark

Signe +
Publiée le
Apache Spark
Big Data
engineer

24 mois
45k-50k €
Lille, Hauts-de-France

Site : Lille (2 J / semaine sur site, le reste possible en TT) Nature du besoin : reprise d'un périmètre existant qui était délivré par un autre prestataire. Transition entre l'ESN et le prestataire sortant de 2 mois sur octobre/novembre. Forts enjeux car migration technique en cours avec échéance à fin d'année Date de démarrage : 1/10/2024 Durée mission : 12 mois renouvelables Type de projet : forfait, scrum team avec Tech Lead Process de qualification : Entretien Mission : Réaliser l'intégration des données depuis un Espace Produit basé sur Hadoop et précalculer des indicateurs pour les injecter dans des rapports Power BI Profil : besoin de 2 Data Engineer SQL Spark de 3 à 7 ans d'expérience Compétences techniques: Hadoop / Spark / SQL. Stack technique : Hadoop, HDFS, HIVE, SparkSQL, MS-SQLServer Activités : De conception et de développement en mode Agile

Freelance

Mission freelance
Expert Intégrateur Wonderware (f/h)

ODHCOM - FREELANCEREPUBLIK
Publiée le
SCADA

12 mois
100-790 €
Toulouse, Occitanie

Nous recherchons pour notre client un intégrateur Aveva Wonderware Le profil devra intervenir sur la partie infrastructure de la solution afin de bien l'intégrer au SI du client et rendre cette infrastructure scalable. Compétences requises : InTouch Wonderware Linux Windows Azure (Microsoft) Démarrage 16/09/2024 Durée estimée : 1 an - reconductible Full Remote et possibilité de déplacement sur Toulouse Mission à temps plein Nous recherchons pour notre client un intégrateur Aveva Wonderware Le profil devra intervenir sur la partie infrastructure de la solution afin de bien l'intégrer au SI du client et rendre cette infrastructure scalable. Compétences requises : InTouch Wonderware Linux Windows Azure (Microsoft) Démarrage 16/09/2024 Durée estimée : 1 an - reconductible Full Remote et possibilité de déplacement sur Toulouse Mission à temps plein

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance
CDI

Offre d'emploi
Développeur Java / Big Data H/F

ADATEK
Publiée le
Apache Spark
Azure
Java

3 ans
10k-63k €
Île-de-France, France

Le développeur Java / Big Data intégrera une équipe d'experts Big Data dans un contexte international et aura pour missions : Participer à la conception et à l'architecture des applications, des processus et des workflows. Développement Java et Spark Amélioration et stress test sur des problèmes de performance Performance tuning des jobs Spark Code review des développements Déploiements sur Azure cloud hdi cluster et kubernetes (AKS) Tests unitaires et BDD Support production

Freelance

Mission freelance
Data Engineer Expérimenté

CAT-AMANIA
Publiée le
Agile Scrum
Apache Hive
Apache Kafka

1 an
100-430 €
Vannes, Bretagne

Dans le cadre de l'intervention pour le compte du Chapitre Data à Vannes : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Vannes mais aussi ceux des autres sites France. Attendu : 1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) 2 - Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées Nous recherchons un Data Engineer expérimenté capable de : - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Freelance
CDI

Offre d'emploi
Data Engineer (F/H)

NOSCO
Publiée le
Apache Spark
Java
Oracle

2 ans
10k-50k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : Ses missions tournent autour de 4 axes : o Apporter une expertise en Big Data (Spark) pour faciliter la manipulation des données o Définir les solutions techniques permettant le traitement massif de données o Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.) o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre de sa mission. Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe

Freelance

Mission freelance
Expert Kubernetes

CS Group Solutions
Publiée le
Apache Spark
Gitlab
Java

6 mois
300-3k €
Orléans, Centre-Val de Loire

Nous recherchons un Expert Kubernetes Les livrables sont: Documentation technique - Automatisation des déploiements Dossier d'architecture (infrastructure, applicative, logicielle) Cartographie des compétences et savoir faire nécessaires Compétences techniques: Kubernetes - Expert - Impératif Java 17 - Confirmé - Impératif Spark 3.2.X - Confirmé - Important Maven 3.X.X - Confirmé - Important Description détaillée: L’objectif de cette prestation est de sécuriser un projet important en accompagnant le chef de projet Les attendus de cette prestation sont les suivants : le prestataire ➔ devra remplacer à la demande le chef de projet informatique sur les aspects techniques, notamment dans les réunions du comités technique et du comité stratégique; ➔ prendra en charge l’IAC, l’automatisation des déploiements sur Kubernetes et documenter en vue de faciliter le passage en maintenance à l’automne 2025 ; ➔ sur la base de l’évaluation craft réalisée en juin 2024, prendra en charge le suivi des axes d’améliorations identifiés, éventuellement en proposer de nouveaux, notamment sur l’observabilité ; ➔ documentera l’architecture actuelle via des ADRs et des diagrammes (flux, applicatif, infrastructure) ; ➔ rédigera d’ici fin 2024 une note d’observation critique sur les architectures (infrastructure, applicative, logicielle) mises en œuvre ; ➔ assistera le chef de projet informatique sur les questions de sécurité ; ➔ mettra en place un process efficace de gestion des connaissances, notamment une organisation documentaire. Formera les parties prenantes à son utilisation et sa mise à jour ; ➔ établira une cartographie des compétences et savoir-faire nécessaires pour le MCO-MCS du produit. Les développements sont réalisés en grande partie dans l’écosystème Kubernetes Les versions utilisées sont : - Java : 17 - Maven : 3.X.X - PostgreSQL : 14.X - Spark : 3.2.X - Spring Boot : 3.X.X - Spring Batch : 5.X.X - Hibernate : 6.X.X - Cucumber : 7.X.X La prestation se déroulera dans les locaux d’Orléans. Une organisation du travail en mode hybride est possible après une phase d’intégration : - 3 jours de présence du prestataire - 2 jours de distanciel. Compétences requises - Compétences techniques : Développement java sénior, maîtrise des architectures big data ( spark), applicative ( java et écosystème, postgresql) et infrastructure ( kubernetes et écosystème), gitlab, Notions avancées de sécurité applicative et infrastructure. - compétences humaines : adaptabilité et capacité à collaborer, organisé, capacité à mettre en place un fonctionnement pérenne dans une équipe, esprit critique et argumenté. - connaissances de l’agilité Instances de suivi de la prestation - au sein des cérémonies agile du projet pour les réalisations - point hebdomadaire avec le chef de projet informatique et/ou ses responsables hiérarchique et l’intervenant

Freelance

Mission freelance
architecte pyspark - 3 mois

Innov and Co
Publiée le
Apache Spark
Azure DevOps Services
Databricks

3 mois
100-700 €
Boulogne-Billancourt, Île-de-France

Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
CHEF DE PORJET APPLICATIF JAVA J2EE PL SQL H/F

Cheops Technology
Publiée le
J2EE / Java EE
Oracle
PL/SQL

6 mois
100-580 €
Rouen, Normandie

Pilotage de Projets : - Conduire les projets de bout en bout, de la phase de conception à la mise en production. - Assurer le respect des délais, des coûts et de la qualité. - Animer les comités de pilotage et les réunions de suivi. - Participer au développement quand nécéssaire (Java, J2EE, Oracle, PL/SQL, Springbatch...) Pilotage maintenance Corrective et Évolutive : - Prioriser les tickets, les assigner - S’assurer du respect des échéances pour les différentes phases - Assurer le suivi et la restitution aux responsables Coordination et Communication : - Collaborer avec les équipes techniques et métiers pour assurer une bonne compréhension des besoins. - Communiquer efficacement avec les parties prenantes internes et externes.

Freelance
CDI

Offre d'emploi
Architecte Technique Java-Spark - Sénior

Digistrat consulting
Publiée le
Apache Kafka
Apache Spark
Architecture

3 ans
40k-60k €
Paris, France

Dans le cadre des projets d'évolution de notre banque, l'architecte applicatif a pour mission : d'accompagner opérationnellement les projets pour la définition de l’architecture applicative et défendre les choix opérés lors du passage en Comité d’Architecture et des différentes instances. Il est sollicité sur les nouveaux projets et sur les évolutions significatives des applications existantes (nouveaux flux, nouveaux composants, évolutions du périmètre fonctionnel initial…) • Participer activement à la phase de cadrage projet • Découpage en Services/Microservices • Proposer et accompagner les projets dans l’adoption des technologies de type Spark, Java, Kafka • Accompagner les équipes de développements pour l’application des règles et standards d’architecture. • Répondre aux exigences fonctionnelles et non fonctionnelles demandées dans le cadre de la mise en place de la solution. • Evaluer la pertinence et la cohérence des projets par rapport aux patterns d’architecture technique et aux systèmes existants (par des études d’opportunité, des POC, etc.) • Rédaction des dossiers d’architecture applicative et techniques • Gérer (construction, mise à jour et évolution) la cartographie technique du SI ou du sous-ensemble du SI dont il a la charge • Définir ou contribuer à la définition des patterns d’architecture technique à partir des services d’infrastructure mis à disposition par l’infogéreur du Groupe

Freelance
CDI

Offre d'emploi
skiils se renforce et cherche son Data engineer confirmé

skiils
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
10k-45k €
Hauts-de-France, France

Data Engineer maitrisant(e) pyspark et airflow qui aidera le client à construire de nouveaux indicateurs et à les fiabiliser. L"équipe Forecast a pour mission de mettre à disposition dans le Datalake , les datasets qui concernent les prévisions de ventes. Pour remplir à bien sa mission, le Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Etre capable de transformer une donnée brute en un indicateur

Freelance

Mission freelance
88939/DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes

WorldWide People
Publiée le
Apache Kafka
Hadoop
Spark Streaming

4 mois
390-410 €
Nantes, Pays de la Loire

DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV),

605 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous