Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 224 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Ingénieur Data (H/F)

CITECH
Publiée le
Apache Spark
Dataiku
DevOps

12 mois
50k-70k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur Data (H/F) 🚀 Votre mission est pour un client du secteur social opère sur tout le territoire français . 📝 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Administration de la plateforme Dataiku DSS, gestion des environnements, surveillance des performances, gestion des utilisateurs, et maintenance. 🔸 Support aux utilisateurs, accompagnement sur les projets, bonnes pratiques, et résolution d'incidents. 🔸 Optimisation de l'architecture, collaboration avec l'éditeur pour améliorer et optimiser la plateforme. 🔸 Construction d'une offre de service autour de la plateforme DATA/IA fédérée.

Freelance

Mission freelance
Data Engineer Senior

Kleever
Publiée le
Apache Airflow
Cloud
Computer vision

12 mois
550-630 €
Paris, France

Bonjour, Nous recherchons pour notre client un.e Data Engineer Senior pour rejoindre une équipe agile composée d’un.e Product Owner, de Data Scientists et d’un.e Data Analyst. ans le cadre d’un projet innovant visant à sécurité à l’aide de la vision computationnelle, Ce projet a pour objectif de détecter et réduire les fraudes tout en offrant une expérience client fluide et efficace. Concevoir, développer et faire évoluer des systèmes de traitement de données robustes et scalables pour industrialiser des solutions intégrant des algorithmes de machine learning et de recherche opérationnelle. Optimiser les performances des systèmes en faisant les bons choix architecturaux dans une approche cloud-first . Participer activement aux revues de code, aux itérations des projets et à la maintenance des solutions déployées. Contribuer à la communauté technique interne en partageant les bonnes pratiques, retours d’expérience, et évolutions des technologies utilisées (présentations, débats, etc.).

Freelance

Mission freelance
développeur Big data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Kubernetes

36 mois
310-480 €
Île-de-France, France

Nous recherchons un Développeur Big Data pour intervenir au sein d'une équipe IT spécialisée dans la gestion des données et la Business Intelligence. Vous intégrerez une équipe dédiée à la mise en place et à la gestion d'un datalake qui joue un rôle stratégique dans le développement des projets métiers. Rédaction de spécifications techniques détaillées. Analyse des impacts des nouveaux projets sur les processus existants du système d’information. Développement de requêtes et implémentation de solutions de Data Engineering en environnement Big Data. Réalisation et automatisation de bout en bout des programmes. Planification et suivi de la production. Formation des collaborateurs et mise en place des meilleures pratiques en matière de Data Engineering.

Freelance
CDI

Offre d'emploi
Ingénieur BIGDATA / KAFKA/Flink

AVA2I
Publiée le
Apache Kafka
Mongodb

3 ans
10k-60k €
Vincennes, Île-de-France

Spécialisé dans le secteur bancaire, l'entreprise recherche activement un ingénieur bigdata KAFKA/ MongoDB ou Flink pour renforcer ses effectifs. En tant qu' Ingénieur Big Data , vous serez responsable de la conception, du développement et de la gestion des solutions basées sur Kafka et MongoDB pour les plateformes Big Data de BNP Paribas. Vous interviendrez sur des projets stratégiques nécessitant une gestion efficace des données à grande échelle, tout en garantissant la fiabilité et la performance des systèmes de traitement des flux de données. Concevoir et déployer des architectures distribuées à haute performance pour la gestion de flux de données en temps réel à l’aide de Kafka . Développer et maintenir des bases de données NoSQL, principalement MongoDB , pour stocker et interroger des volumes massifs de données. Optimiser les environnements Kafka pour assurer la scalabilité et la résilience des systèmes. Participer à l'intégration de solutions Big Data dans les pipelines de traitement de données existants et nouveaux. Implémenter et optimiser les flux de données en temps réel avec Kafka Streams , en garantissant la robustesse des pipelines. Superviser les systèmes en place et analyser les performances des flux de données pour assurer leur continuité et leur efficacité. Mettre en place des outils de monitoring et de gestion des erreurs pour garantir une gestion proactive des incidents. Gérer les environnements MongoDB , y compris l’installation, la configuration, les sauvegardes, et la restauration. Optimiser les performances des bases de données en gérant l'indexation, la fragmentation et les partitions pour garantir un accès rapide aux données. Assurer la sécurité des données dans MongoDB en implémentant des contrôles d’accès, des audits et des politiques de chiffrement des données. Travailler en collaboration avec les équipes infrastructure, développement et métier pour comprendre les besoins et proposer des solutions techniques adaptées. Fournir un support technique de niveau 2/3 pour les environnements Kafka et MongoDB, incluant la résolution des incidents critiques. Participer à la rédaction de la documentation technique et au transfert de compétences au sein des équipes.

Freelance

Mission freelance
Expert Kafka (Streams, Connect, ...) - Lausanne (Relocalisation obligatoire) / Nationalité UE

DATSUP
Publiée le
Apache Kafka
Azure
Intégration

1 an
100-3k €
Lausanne, Vaud, Suisse

Assurer la gestion et l'évolution de notre plateforme Kafka en fonction des besoins des applications Contribuer à la résolution des incidents et des problèmes liés à Kafka ; Travailler en étroite collaboration avec les équipes de développement, infrastructure et architecture ; Apporter une expertise technique sur l’architecture et veiller au respect des bonnes pratiques au sein des équipes ; Former et soutenir les équipes internes ; Environnement on-premise et cloud azure ;

CDI

Offre d'emploi
Développeur .net sénior

SII
Publiée le
.NET CORE
Angular
Apache Kafka

35k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

SII Aix Méditerranée, accompagne ses clients dans l’intégration des nouvelles technologies, procédés et méthodes de management de l’innovation pour contribuer au développement de leurs futurs produits ou services et faire évoluer leurs systèmes d’information. Nous conjuguons de manière durable et vertueuse la satisfaction de nos clients avec le bien-être et l’épanouissement de nos collaborateurs tout en délivrant un haut niveau de performance. Au travers de notre entité composée de quatre-vingts consultants et de leurs expertises liées au développement logiciel, au test et à la chefferie de projet , nous intervenons aujourd’hui sur des projets à forte valeur ajoutée, ambitieux et à l’international autour des secteurs du numérique, de l’industrie et des services en assistance technique et/ou en engagement. Nous couvrons un vaste secteur vous permettant de trouver une opportunité proche de chez vous : nous disposons d’opportunités sur Aix-en-Provence, Venelles, Marseille, Gémenos ou encore Avignon. Vous aurez le choix de rejoindre une équipe ambitieuse, talentueuse et engagée sur des sujets tels que : la conception d’une carte à puce implantée dans des documents biométriques, le développement d’une application de livraison de colis, l’innovation dans le suivi de cargos maritimes ou bien encore le développement d’applications de gestions d’évènements autoroutiers ou de plateforme monétique. Rencontrons-nous et valorisons ensemble les métiers de l’ingénieur et son rôle de « Changeur de Monde ». Dans le cadre de l’accompagnement de nos clients grands comptes (logistique, autoroutier, industriel…) nous disposons d’opportunités de Développeurs .net F/H sur Aix-en-Provence et Avignon ! A ce titre, vos principales missions consistent à : Analyser et développer les composants en utilisant les langages et frameworks appropriés : C#, .net et/ou .net Core, Angular... Assurer le développement et la réalisation des applications Collaborer avec les équipes fonctionnelles et définir les spécifications techniques Harmoniser et industrialiser l’ensemble des composants et applications. Documenter les applications pour les développements ultérieurs et la mise en production. Réaliser les tests unitaires

Freelance
CDI

Offre d'emploi
Data Engineer

SARIEL
Publiée le
Agile Scrum
Apache Spark
Big Data

3 ans
10k-62k €
Paris, France

Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance

Mission freelance
Lead Tech

W Executive France SAS
Publiée le
Ansible
Apache Kafka
Java

6 mois
450-710 €
Lyon, Auvergne-Rhône-Alpes

Vous serez en charge: Assurer la responsabilité d'un ou plusieurs processus sur tout le périmètre technique des composants. Etre le point d'entrée de l'équipe pour les sujets techniques. Assurer le relai entre l'équipe et l'Apps Lead. Animer les équipes techniques du projet. Définir et mettre en place l’architecture technique des projets. Assurer la qualité du code et veiller au respect des bonnes pratiques de développement (tests unitaires, revues de code, intégration continue). Participer activement aux choix technologiques et à la veille technologique.

Freelance
CDI
CDD

Offre d'emploi
Développeur Java backend Kafka / RabbitMQ

Lùkla
Publiée le
Ansible
Apache Kafka
Apache Maven

3 ans
55k-70k €
Île-de-France, France

Secteur d'activité : Energie Mission(s) : conception et développement d'applications de gestion et suivi de la distribution d'énergie en Java 8 et versions supérieures Attendu(s) : conception logiciels, développement de tests automatisés, gestion de la chaine d'intégration continue (CI/CD), analyse des anomalies, gestion de la performance, amélioration continue, software craftmanship Profil (s) : développeur backend , pas de front , les compétences Kafka et RabbitMQ (mises en oeuvre dans un cadre professionnel) sont obligatoires , familier l'intégration continue (chaines CI/CD) Méthodologie : agile SAFe, Devops Télétravail : 60%

Freelance
CDI

Offre d'emploi
Data Ingénieur H/F

SCALIAN
Publiée le
Apache Airflow

12 mois
40k-45k €
Lille, Hauts-de-France

Vous intégrerez notre squad Data/IA et travaillerez en étroite collaboration avec les équipes métier en accomplissant les activités suivantes : - Concevoir, développer et maintenir des pipelines de données utilisant Airflow, Pub/Sub, - GCP et MongoDB - En lien avec l’équipe DevOps, construire, maintenir et faire évoluer la plateforme de données - Définir et piloter la cohérence de la collecte, la gestion et l’alimentation des données internes et externes, en différents modes : batch, streaming, API (architecture micro-services) - Préparer et mettre en qualité les données pour les rendre disponibles dans les différents environnements de travail (datalake, datawarehouse, datamart) - Vérifier la qualité des données, de leur bonne et régulière exécution ainsi que de leur utilisation adéquate (gestion des coûts) - Travailler en étroite collaboration avec les data analysts, scientists et data stewards et business de l’entreprise - En lien avec l’IT et la sécurité, veiller aux règles d'intégrité et de sécurité des données - Veiller à la documentation des pipelines et des processus Télétravail : 2j/semaine Vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.

Freelance
CDI

Offre d'emploi
Chef de Projet Technique Java / Cloud

VISIAN
Publiée le
Apache Kafka
Docker
Java

1 an
10k-38k €
Montreuil, Île-de-France

Le bénéficiaire souhaite une prestation d’accompagnement pour les développements et la maintenance des services de Customer Knowledge, au sein de l'équipe agile en charge de cette mission. Les volumes progressent en fonction de l'intégration qui en est faite par les entités, aussi la notion de service est importante au vu des enjeux par les consomateurs de nos APIs. Participation avec l'équipe au passage dans le Cloud. Le chef de projet doit à la fois etre technique et repondre aux exigence ci dessous

Freelance

Mission freelance
DataOps Engineer

Groupe Aptenia
Publiée le
Apache Spark
AWS Cloud
Databricks

1 an
550-600 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un DataOps Engineer confirmé pour renforcer notre équipe de 3 personnes. Ce poste s'inscrit dans un besoin d'industrialisation de nos processus de gestion de données, avec un focus particulier sur l'ingestion de données en temps réel. Responsabilités principales · Concevoir, développer et maintenir des pipelines de données robustes et évolutifs · Implémenter des solutions d'ingestion de données en temps réel · Participer à l'industrialisation des processus DataOps · Appliquer les bonnes pratiques DataOps dans l'ensemble de nos projets · Collaborer étroitement avec les équipes de développement et d'infrastructure

Freelance
CDI

Offre d'emploi
Consultant CRM Omnicanal

Actiis IT
Publiée le
Adobe Campaign
Apache Hive
Data analysis

3 ans
10k-65k €
La Défense, Île-de-France

Pour délivrer la roadmap Marketing Relationnel 2020-25 qui se décline en plusieurs chantiers de construction et production des prises de parole omnicanales portant sur l’amélioration et l’optimisation du plan de contact clients, l’entité CRM recherche des expertises qui auront pour objectif(s) : La gestion des projets de mise en place de nouveaux parcours et activations clients Particuliers. Pour ce fait, nous cherchons un Data Analysis Dans ce cadre la prestation consiste à contribuer à/au(x) : - La mise en oeuvre des opérations marketing - La mise en oeuvre des reportings avec leur documentation - Tests de performance et analyse - Mise en place de Dashboard

CDI
Freelance

Offre d'emploi
Ingénieur DevOps H/F

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache Maven
Apache Tomcat
Gitlab

1 an
65k-85k €
Luxembourg

Nous recherchons pour un de nos clients, spécialisé dans le domaine bancaire un Ingénieur DevOps H/F pour une mission à pourvoir dès que possible sur le secteur du Luxembourg. En tant qu’Ingénieur DevOps, vous interviendrez en mode agile au sein du squad IT-Outils pour : • Analyser la plateforme CI/CD du groupe, définir et effectuer une migration vers cette plateforme. • Participer à la migration des applications dans le cloud en faisant évoluer si nécessaire les plateformes CI/CD. • Faire évoluer les plateformes CI/CD pour améliorer l’identification des vulnérabilités applicatives. • Participer à la définition des standards de migration vers le cloud. • Administrer les outils qui sont sous la responsabilité du squad IT-Outils. • Répondre aux demandes du quotidien. Vous travaillerez en étroitement collaboration avec les autres squads d’infrastructure, avec les équipes de développement et avec le Cloud Competence Center du client. Vos missions seront les suivantes : • Analyser les outils CI/CD du groupe, définir une trajectoire de migration de la plateforme CI/CD vers la plateforme du groupe et réaliser cette migration. • Participer aux déploiements des applications , conteneurisées, websphere, tomcat, java, dotnet dans le cloud en faisant évoluer notre plateforme CI/CD si nécessaire. • Faire évoluer notre plateforme CI/CD pour y intégrer de nouveaux éléments : DDL, PLSQL, éléments Datastage, … • Participer à la définition des standards de migration vers le cloud. • Onboarder les nouveaux composants. • Administrer et assurer le support aux outils : GitLab, Maven, Jenkins, Artifactory, CA Release Automation, SonarQube, Xray, Harvest, Nexus, Jira, Confluence, Quality Center, Microfocus Analyser. • Assurer que ces outils soient stables, performants et sécurisés. • Prendre en charge le backlog du squad IT-Outils. • Rédiger et maintenir la documentation technique afin de garantir la bonne exploitation des solutions mises en place. • Participer à la réalisation des cycles de vie (montées de version) des outils en respectant les procédures de change management.

CDI
Freelance

Offre d'emploi
Big Data Engineer Scala - Spark H/F

STORM GROUP
Publiée le
Apache Hive
Apache Kafka
Apache Spark

3 ans
10k-60k €
Île-de-France, France

[Contexte] La prestation se déroule au sein du pôle Cybersecurity eFraud & Solutions dans lequel sont développés les outils de Maching Learning lutte contre la fraude et de réponse cyber à des recommendations de la BCE en cartographie et microsegmentation réseau (Octoflow) L'outil permet de recenser les échanges entre serveur afin de certifer les logs. Pour cela l'équipe a besoin d'un data engénieur afin de parser les données des différentes sources afin de les restituer à un outil interne. socle technique : Spark, Scala, Hadoop, Hive, Control-M, Starburst, ElasticSearch, Hbase [La prestation consiste à contribuer à/au(x)] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - Examen du code et assurance qualité : respect des normes de codage et mise en œuvre des pratiques d'assurance qualité afin de maintenir un niveau élevé de qualité des logiciels. - L'assistance au Product Owner et aux autres entité dont les architectes, les parties prenantes et les bénéficaires pour définir les exigences du projet et garantir l'alignement sur les objectifs de l'entreprise - Expertise technique : tendances et technologies du secteur dont le domaine DATA, WEB, etc. et assistance à l'entité. - Résolution de problèmes : Défis techniques et contribuer à apporter des moyens innovants à des problèmes complexes. - Gestion des performances : Evaluations des performances, retour d'information et favoriser la croissance et le développement professionnels au sein de l'entité [Les livrables attendus sont] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - veille technologique d'outils contribuant à l'optimisation de la solution

Freelance
CDI

Offre d'emploi
Data Engineer sénior H/F

GROUPE ALLIANCE
Publiée le
Apache Spark
Python
Scala

36 mois
45k-60k €
Paris, France

SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE … Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras

224 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous