Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 290 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Développeur Backend Open - Expérimenté

VPEX-IT
Publiée le
Agile Scrum
Apache Kafka
API REST

1 an
10k-50k €
Montpellier, Occitanie

Taches Concevoir et Développer des programmes en Java pour le produit Participer au projet majeur de l'équipe : automatisation des saisies. Contribuer au maintien en conditions opérationnelles des produits de l'équipe. Attendu Conception et Développement, dans les critères de qualités, de coûts et de délais attendus au sein de l'équipe. Avoir une vision transverse des impacts de ses travaux sur l’écosystème et les environnements de fabrication et de production. En mission secondaire, l'équipier pourrait être amené à prêter assistance lors de la résolution d'incidents en production.

Freelance
CDI

Offre d'emploi
Développeur backend Open

Deodis
Publiée le
Apache Kafka
API REST
Eclipse

6 mois
40k-47k €
Montpellier, Occitanie

Mission au sein d'une tribu de notre client avec une équipe de 70 personnes sur le site de Montpellier. Cette tribu porte les produits cœur du SI bancaire (La Tenue de compte, les Dépôt à Vue, la Facturation, les Obligations Règlementaires (inclusion bancaire, clientèle fragile, déclarations FICOBA…etc) et également des parcours clients et conseillers à forts enjeux (demandes et réclamations clients, découverts, coffres physiques, coffre-fort électronique). Et plus particulièrement au sein de la squad qui gère les produits Saisies sur Compte et Réquisitions. Missions : Concevoir et Développer des programmes en Java pour le produit Saisies sur Compte. Participer au projet majeur de la squad : automatisation des saisies des Commissaires de justice (SecurAct V2). Contribuer au maintien en conditions opérationnelles des produits de la squad. En mission secondaire, l'équipier pourrait être amené à prêter assistance lors de la résolution d'incidents en production sur les 40 CR. Attendus : Conception et Développement, dans les critères de qualités, de coûts et de délais attendus au sein de la squad Saisie sur compte et Réquisitions. Avoir une vision transverse des impacts de ses travaux sur l’écosystème et les environnements de fabrication et de production.

Freelance

Mission freelance
Quality Engineer

CAT-AMANIA
Publiée le
Apache Kafka
Cucumber
Gherkin

6 mois
100-450 €
Lille, Hauts-de-France

Tu évolueras en tant qu' Ingénieur(e) qualité unique et autonome au sein de l'équipe pluridisplinaire. Ta mission consiste à porter la démarche qualité, mettre en œuvre l’industrialisation et l’automatisation des activités de tests, poursuivre la démarche d’autonomisation de l’équipe sur les process qualité et participer à l'amélioration continue de l'équipes. Tu pourras participer et contribuer également à la communauté Quality Engineering du périmètre et de l'entreprise. Les équipes évoluent dans un contexte agile.

Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Git
Microsoft Power BI

12 mois
10k-48k €
Bois-Colombes, Île-de-France

Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. HardSkills DataEngineering obligatoires: Maitrise des process d’ingestion en batch et streaming quel que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, …) et quel que soit le Cloud provider en entrée(AWS/AZURE). • Expertise BDD Snowflake avec minimum 3 ans d’expérience(SQL, Rôle, Virtual Warehouse, Datamodelling) • Parfaite maitrise des modèles de données. Les consultants seront référent technico fonctionnel sur plusieurs domaines métier(2 à 3 domaines suivant la complexité). • Très bonne maitrise des langages Javascript(impératif), SQL, T-SQL, PowerShell, Python. • Création d’app, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy) • Optimisation de requête et performance, factorisation du code, respect de l’état de l’art • Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality. • Développement de cube tabulaire PBI (M et DAX) • Support Niveau 3 sur le périmètre des socles applicatifs et reporting associés • Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops • Mise en place des bonnes pratiques (technique, fonctionnel, corpus documentaire) • Animation de communauté Développeur

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance
CDI

Offre d'emploi
Intégrateur DevOps

NOSCO
Publiée le
Angular
Ansible
Apache Kafka

2 ans
10k-54k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : o Participation à l'amélioration continue de l'infrastructure, diagnostic et résolution des incidents de production et suivi de RUN o Maintenance et évolution de jobs Jenkins et CI/CD o Livraison en recette, production o Amélioration des métriques applicatives et des dashboards en place (Grafana) o Amélioration et exécution des tirs / scénarii de performance o Maintenance et amélioration de l'Infrastructure-as-code o Communication avec les équipes de développement et avec l'exploitant Activité secondaire : o Rédaction et maintien des documentations techniques o Mise en oeuvre des méthodes de modélisation des données et des traitements o Animation de réunions

Freelance
CDI

Offre d'emploi
Data Engineer (F/H)

NOSCO
Publiée le
Apache Spark
Java
Oracle

2 ans
10k-50k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : Ses missions tournent autour de 4 axes : o Apporter une expertise en Big Data (Spark) pour faciliter la manipulation des données o Définir les solutions techniques permettant le traitement massif de données o Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.) o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre de sa mission. Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe

Freelance
CDI

Offre d'emploi
DevSecOps H/F

AMD Blue
Publiée le
Github
Helm
Kubernetes

3 ans
55k-70k €
Pas-de-Calais, France

Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Ops, notre Tribu spécialisée dans le domaine OPS. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Ops. Contexte de la mission : Notre client a à cœur de fournir à ses clients un service de très haute qualité et de répondre à ses enjeux de sécurité PCI-DSS / RGPD Pour ce faire, l’équipe DevSecOps a construit une infrastructure technique hautement disponible,performante et sécurisée en s’appuyant principalement sur Google Cloud, Cloudflare et Kubernetes. L’agilité, l’entraide et le travail main dans la main avec les équipes de développement sont des facteurs clef. Pour relever de nouveaux défis, notre client recherche un coéquipier qui a envie de se dépasser et est animé par l’excellence opérationnelle. Descriptif de la mission : - Maintenir et faire évoluer l’infrastructure cloud as code et la CI-CD dans une démarche DevOps et Security by design - Être en support des équipes de développement, data et QA - Participer à l’évolutions des certifications PCI-DSS, RGPD et ISO27xxx - Animer les opérations de sécurité en lien avec le manager - Participer à la rotation d’astreinte

Freelance

Mission freelance
Developpeur Full Stack JAVA/NUXT/NODE (H/F)

Espace Freelance
Publiée le
Apache Kafka
Java
Nuxt.js

1 an
100-500 €
Lille, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs dans un environnement international : un Developpeur Full Stack JAVA/NUXT/NODE (H/F) – Lille Mission à pourvoir en régie sur Lille Vous possédez plus de cinq ans d'expérience et maîtrisez les compétences suivantes : Développer des interfaces utilisateurs Déployer et maintenir des applications sur une infrastructure cloud (Kubernetes) Organiser le cycle de vie du produit en s'appuyant sur les principes Agile. Assurer la scalabilité, la sécurité, la stabilité et la disponibilité des données. Produire et partager des contenus techniques (GitHub, Confluence, GitBook, etc.) Exploiter des systèmes d'intégration et de déploiement continus Concevoir, intégrer et maintenir des APIs synchrones (REST) et asynchrones (Kafka). Modéliser des processus et rédiger la documentation technique.

Freelance

Mission freelance
Chef de projet applicatif / TMA habilitable H/F

Cheops Technology
Publiée le
Tierce Maintenance Applicative (TMA)

6 mois
100-630 €
Massy, Île-de-France

Les missions sont les suivantes : - Formaliser les besoins métier - Formaliser les spécifications techniques et la cartographie des applications - Développer, paramétrer et/ou configurer les applications en charge - Faire le lien avec les intégrateurs et prestataires extérieurs - Piloter les phases de tests - Assurer le support aux utilisateurs - Suivre la performance des utilisateurs - Assurer la veille technologique De formation Bac +5 Informatique au minimum, vous avez une expérience d'au moins 3 ans sur un poste similaire, dans la gestion de projets contexte applicatif

CDI
Freelance

Offre d'emploi
Business analyst datalake

Lùkla
Publiée le
Apache Hive
SQL

3 ans
45k-56k €
Île-de-France, France

Activité du client : Secteur bancaire Poste : Business analyst datalake Séniorité : à partir de 8 ans d'expériences Bac +5 Maîtrise de l'anglais (aisance orale exigée) Expérience confirmée sur datalake/repository de trades et/ou positions Livrables attendus : - Analyse fonctionnelle des besoins - Rédaction des spécifications fonctionnelles - Tests d'intégration et assistance/cadrage Environnement technique : - Hive - SQL - Suite Office (Exchange OnLine, OneDrive, O365…)

Freelance

Mission freelance
chef de projet applicatif (TMA experience required)

Hanson Regan Limited
Publiée le
Gestion de projet
Tierce Maintenance Applicative (TMA)

6 mois
100-550 €
Paris, France

Hanson Regan recherche actuellement un chef de projet applicatif pour rejoindre une entreprise française réputée à Paris pour une mission à long terme avec un excellent potentiel d'extensions multiples. En collaboration avec une équipe établie, vous définirez le périmètre du projet, produirez la matrice de suivi des livrables du projet, surveillerez les activités hebdomadaires et établirez des rapports et des présentations pour les COPROJ et les COPIL. Le chef de projet applicatif devra avoir une expérience démontrable dans la réalisation réussie de projets axés sur les applications et, idéalement, des connaissances en maintenance applicative (TMA). Vous aurez un bon niveau d'anglais et serez à l'aise pour diriger des flux de travail complexes. En raison des exigences du client, les candidats doivent pouvoir travailler via leur propre entreprise française car nous ne pouvons malheureusement pas accepter les solutions de portage pour cette mission. Pour plus de détails sur cette opportunité, veuillez nous contacter dès que possible avec un CV à jour aux coordonnées ci-dessous.

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

Freelance

Mission freelance
data ingénieur

Innov and Co
Publiée le
Apache Hive
AWS Cloud
Dataiku

12 mois
100-540 €
Boulogne-Billancourt, Île-de-France

Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée. CICD Expert AWS Avancé Scheduling Airflow Expert Python Expert kubernetes Expert Stockage S3 Expert PYSPARK Expert SQL Expert Git Expert Dataiku Avancé Hive Expert

Freelance
CDI

Offre d'emploi
Data engineer PySpark H/F

AMD Blue
Publiée le
Apache Airflow
PySpark

2 ans
50k-55k €
Lille, Hauts-de-France

Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Data, notre Tribu spécialisée dans le domaine de la Data. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Data. Contexte de la mission : L'équipe Data Forecast a pour mission de mettre à disposition dans le Datalake de notre client , les datasets qui concernent les prévisions de ventes. Vous participerez donc au produit Forecast. L'équipe est constituée de Data Engineer. L’équipe travaille avec l'équipe de Data Scientists, afin de calculer les prévisions de ventes dans le but de correctement les réapprovisionner. Les indicateurs sont utilisés par la production, la Supply Chain, le retail ou encore la finance. En lien avec les Data Scientists l’équipe utilise des algorithmes de Machine Learning pour calculer les prévisions. Détail de la mission : Afin de se renforcer, notre client souhaite intégrer un(e) Data Engineer maitrisant(e) qui nous aidera à construire de nouveaux indicateurs et à les fiabiliser. Pour remplir à bien sa mission, le/la Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Être capable de transformer une donnée brute en un indicateur. Stack technique de l’équipe : - Transformation de données : PySpark, Pandas - Langages : Python, SQL - BDD : Databricks SQL Warehouse - Datalake : AWS S3 - Versionning, CI/CD : GitHub, GitHub Actions - Ordonnanceur : Airflow - Cluster : AWS EMR

Freelance

Mission freelance
DATA ENGINEERING SPARK SCALA H/F

SMARTPOINT
Publiée le
Apache Spark
Hadoop
JIRA

1 an
100-600 €
Paris, France

la Prestation consiste à contribuer à/au(x) : - L’architecture avec le reste de l’entité (tech lead, devs, architecture). - Mise en œuvre/Développement des propositions techniques. - Revue de code. - Suivi des méthodologies agiles. - L'industrialisation des développements et des tests sur de l'open source Les livrables attentdus sont: - Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. - PVs techniques - Chiffrage de projets et évolutions - Design de présentation Environnement anglophone.

290 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous