Trouvez votre prochaine offre d’emploi ou de mission freelance DAT

Votre recherche renvoie 739 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance

Mission freelance
Data Architecte

WHEEL OF WORK
Publiée le
Google Cloud Platform
Tableau software

12 mois
370-960 €
Lille, Hauts-de-France

Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de la data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : 3. Gestion des données : 4. Sécurité et conformité : 5. Innovation et veille technologique :

Freelance
CDI

Offre d'emploi
Data Engineer Kafka (production/ Run)

AVA2I
Publiée le
Ansible
Apache
Apache Kafka

3 ans
10k-60k €
Vincennes, Île-de-France

Spécialisé dans le secteur bancaire, l'entreprise recherche un Expert Data Engineer Kafka pour renforcer ses effectifs. . Le rôle consiste à mettre en œuvre des solutions de streaming de données à grande échelle et en temps réel pour répondre aux besoins des différents départements métiers et améliorer la prise de décision grâce à une infrastructure de données solide, évolutive et performante. Architecture et conception : Concevoir et développer des pipelines de données en streaming avec Apache Kafka pour gérer des volumes de données élevés en temps réel. Participer à la définition de l’architecture de la plateforme Kafka et de ses composants (brokers, zookeepers, clusters). Développement de flux de données : Créer, configurer, et maintenir des topics Kafka , des streams et des connecteurs Kafka pour assurer l’ingestion, la transformation et la livraison des données aux consommateurs en temps réel. Optimisation des performances : Surveiller et ajuster les configurations pour optimiser la latence et le débit des flux de données en streaming. Mettre en place des processus de mise à l’échelle et de gestion des performances pour maintenir un haut niveau de fiabilité. Sécurité et conformité : Mettre en œuvre des mesures de sécurité et de gouvernance des données pour protéger les flux de données Kafka en conformité avec les exigences internes et réglementaires (authentification, contrôle d’accès, chiffrement des données en transit). Innovation continue : Mener une veille technologique active sur les évolutions d'Apache Kafka et les nouvelles technologies de streaming, telles que Apache Flink , Kafka Streams , ksqlDB , afin d’améliorer continuellement l’écosystème de données. Maîtrise de Kafka : Expertise approfondie sur Apache Kafka , avec une expérience dans l’implémentation, l’optimisation et le maintien de clusters Kafka en environnement de production. Compétences en programmation : Compétences en Java , Scala , et/ou Python pour la création de flux de données et l’intégration de Kafka avec d’autres systèmes. Traitement des données en temps réel : Connaissance des frameworks de traitement en temps réel et streaming, tels que Apache Flink , Kafka Streams , et Spark Streaming . Architecture de données distribuées : Solide compréhension des architectures de données distribuées, de la gestion des clusters et de l’optimisation des performances des systèmes de streaming. Sécurité des données : Maîtrise des pratiques de sécurité des données, y compris le chiffrement, l'authentification (SASL, SSL) et le contrôle d’accès (ACL) dans les systèmes Kafka. Environnement cloud : Expérience avec les environnements cloud (AWS, GCP, Azure) et familiarité avec les services Kafka managés comme Confluent Cloud ou Amazon MSK . Compétences en DevOps : Connaissance des outils DevOps tels que Docker , Kubernetes , et Terraform pour le déploiement, l’orchestration, et la gestion des clusters Kafka.

CDI

Offre d'emploi
Data Architecte (H/F)

ADSearch
Publiée le

70k €
Saint-Laurent-du-Var, Provence-Alpes-Côte d'Azur

En Bref : Alpes-Maritimes - CDI - Data Architecte (F/H) Adsearch, cabinet de recrutement basé à Nice vous accompagne dans votre carrière pour vous trouver LE poste idéal. Je recrute pour un client, un Data Architecte (F/H) basé dans le 06 au sein dune DSI à taille humaine dans un contexte de luxe. Vos missions : Data Management / Gouvernance Data Construction du Datawarehouse / EDS Architecture data Migration, optimisation, développement Interface éditeurs / métiers Création de tableau de bord Environnement technique : Microsoft 365, MSSQL, Azure Data, PowerBI ou Talend, Microsoft SQL Server Integration Services (SSIS), SQL Serveur Adsearch vous propose des milliers d''opportunités de carrières dans toute la France pour les profils d''experts, cadres et managers. Que ce soit pour un emploi ou pour une mission, Adsearch c''est le cabinet de recrutement qu''il vous faut ! Retrouvez toutes nos offres d'emploi en CDI, CDD, Intérim et Freelance sur notre site internet !

CDI

Offre d'emploi
Ingénieur Data Azure H/F

OZITEM
Publiée le

Paris, France

Chez Ozitem, nous accompagnons les entreprises dans leur transformation digitale, notamment au travers de notre expertise sur les solutions d’infrastructures & de cloud ???????? Entreprise de taille humaine et pérenne depuis plus de 30 ans, l’entreprise affiche une croissance régulière depuis notre création et un chiffre d’affaires de 46 Millions d’euros en 2023. Ce sont 400 Ozitémiens, ingénieurs et consultants qui évoluent sur trois sites en France : Levallois (92), notre siège-social, Toulouse (31) et Lyon (69), ainsi qu’à l’international au Vietnam (Hô Chi Minh). ????? ???? Avantages : • RTT • Tickets restaurants • Participation • CSE • 75% Transport Contrat freelance possible CONTEXTE: Le rôle de l'ingénieur de données Azure Synapse est essentiel pour répondre aux besoins urgents de 2 Business Units au sein de l'organisation. Ce poste sera partagé à parts égales entre l'unité d'affaires A et l'unité d'affaires B, qui ont toutes deux besoins de solutions de données rapides et efficaces pour atteindre des objectifs immédiats de données rapides et efficaces pour atteindre des objectifs immédiats. - L'unité opérationnelle A se concentre sur l'achèvement de projets de données à petite échelle d'ici la fin de l'année fiscale, l'objectif principal étant de concevoir et de mettre en œuvre des flux de données qui améliorent les capacités de reporting et d'analyse. - L'unité opérationnelle B a besoin d'un soutien « Fast Track » pour accélérer les projets en cours, en veillant à ce que les processus de données et les intégrations restent ininterrompus et optimisés. Cela implique des dépannages rapides, l'amélioration du pipeline de données et le soutien de l'architecture Azure Synapse existante. Compte tenu des délais serrés et de la nature partagée de ce rôle, l'ingénieur devra travailler dans un environnement dynamique, en équilibrant les responsabilités de développement et de support entre les deux Units Objectifs: Les principaux objectifs de ce poste sont de fournir des solutions de données efficaces qui soutiennent les objectifs immédiats de chaque Business Unit. Développer et mettre en œuvre des flux de données pour l'unité d'affaires A : • Concevoir, développer et déployer des pipelines de données et des transformations dans Azure Synapse afin de soutenir la réalisation des projets de reporting de fin d'année. • Assurer l'exactitude, la performance et l'évolutivité des données afin de répondre aux besoins croissants de l'unité en matière de données. • Documenter les processus et le code pour faciliter le transfert de connaissances et la maintenance. Fournir un soutien « accéléré » à l'unité opérationnelle B: • Diagnostiquer et résoudre les problèmes liés aux pipelines et structures de données existants, • Diagnostiquer et résoudre les problèmes liés aux pipelines et structures de données existants, en se concentrant sur la réduction des temps d'arrêt et l'intégrité des données. • Améliorer les performances des solutions Azure Synapse existantes, en apportant des correctifs et des améliorations rapides là où c'est nécessaire. • Offrir des conseils sur les meilleures pratiques en matière d'ingénierie des données au sein d'Azure Synapse, en aidant l'équipe à assurer la pérennité de ses activités. Les produits livrables comprendront des pipelines de données entièrement fonctionnels, de la documentation technique et un rapport de synthèse sur les optimisations et les améliorations.

CDI
Freelance

Offre d'emploi
Data Engineer

CHARLI GROUP
Publiée le
API
Azure
Azure Active Directory

3 ans
10k-70k €
Île-de-France, France

Contexte : Le service d'expertise technique Python & Data Bricks collabore sur les applications critiques du périmètre des produits de risques financiers, dans un contexte international. Les produits de risques financiers soutiennent la holding sur la mesure du risque financier de toutes les positions financières pour les actifs et les dérivés. Il fournit à des capacités techniques pour consolider les positions financières via une approche centralisée et optimisée pour le calcul de l'exposition, le ratio Solvabilité 2, etc. Le service d'expertise technique Python & Data Bricks collabore sur des projets et est en contact direct avec les actuaires de GRM (Group Risk Management) avec l'aide d'un chef de produit. Les applications sont développées en Python et Data Bricks s'appuient sur Azure AD. Les rapports sont déployés dans Power BI. Service : Soutenir la création du référentiel de données Analyser les besoins métier et proposer des solutions techniques pour répondre à ces besoins En cas de problèmes : enquêter, proposer des solutions de contournement (si possible) et mettre en œuvre/tester des corrections Participer au comité opérationnel avec les membres de l'équipe GRM Développer, tester, déployer et documenter les solutions mises en œuvre, conformément aux directives er les rapports conformément au cahier des charges métier Collaborer avec les équipes d'architecture et de sécurité pour la définition de nouvelles implémentations Assister les utilisateurs

Freelance

Mission freelance
Product Owner Sénior - BORDEAUX

SURICATE IT
Publiée le
Agile Scrum
Big Data

3 mois
100-2 980 €
Bordeaux, Nouvelle-Aquitaine

Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes.

Freelance

Mission freelance
BI Consultant

Phaidon London- Glocomms
Publiée le
BI
Data management
KPI

6 mois
350-500 €
Provence-Alpes-Côte d'Azur, France

1. Gouvernance et alignement des données o Établir et maintenir un cadre structuré de gouvernance des données au sein du département. o Veiller à l'utilisation cohérente de sources de données alignées dans tous les tableaux de bord pour éviter des analyses contradictoires. o Promouvoir et initier des efforts visant à améliorer la qualité des données et à harmoniser les sources de données à travers les fonctions métier. o Servir de point de contact central pour les questions d'alignement et de gouvernance des données. 2. Définir un plan de rationalisation des dashboards commerciaux : o Evaluer l’existant (recensement / évaluation pertinence) o Formaliser les besoin utilisateurs prioritaires (identifier les key users, comprendre les attentes) o Identifier les redondances et simplifications o Définir la cible et le plan pour atteindre cette cible 3. Gestion du changement et formation o Collaborer avec des équipes internes (y compris l'Académie, l'équipe de gestion du changement de la transformation des lignes & tarification et les réseaux des lignes) pour sensibiliser aux tableaux de bord disponibles et à leurs cas d’usage. o Développer et exécuter un plan de rationalisation pour réduire le nombre de tableaux de bord et améliorer leur accessibilité. o Diriger des sessions de formation des utilisateurs et créer des stratégies d’adoption pour les tableaux de bord nouveaux et existants. o Travailler en partenariat avec les parties prenantes métier pour garantir la bonne mise en œuvre des processus de gestion du changement. 4. Collaboration avec les parties prenantes o Travailler en étroite collaboration avec des équipes transversales, y compris l’équipe IT BI et les unités métiers, afin de garantir un alignement fluide des efforts de gouvernance des données et de formation. o Servir d’intermédiaire entre les utilisateurs métiers et le département BI pour répondre aux préoccupations et aux retours liés aux données.

Freelance

Mission freelance
Data Ingénieur Cloud

CS Group Solutions
Publiée le
AWS Cloud
Databricks
Github

3 mois
300-3k €
Paris, France

Nous recherchons un Data Ingénieur Cloud Compétences techniques: Github - Expert - Impératif AWS - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques: Français Courant Impératif Anglais Courant Impératif Description détaillée: Sur un plateau d'équipe autour de la data, environnement avec des interlocuteurs basés en France au Maroc et en Inde Équipe de Data Engineer à monter avec des seniors et expérimentés les must have: une expérience dans l'utilisation des git hub actions avec des multibranches avec utilisation de triggers, de if conditions, de workflow, de jobs. ET en priorité qui ont une expérience GLUE et ensuite EC2, S3, LAMBDA, STEP FUNCTIONS, CLOUDWATCH Il/elle doit maîtriser python. En plus de cela, il devra pouvoir effectuer les actions suivantes : -Développement des fonctionnalités -Assurer les tests de validation techniques -Livrer la documentation technique -Vérification & validation des nouvelles versions du code (Maîtriser git, avoir vu l’utilisation des branches git dans Databricks serait un plus)

Freelance

Mission freelance
Data Engineer Big Data - Delta Lake / Spark / Cloudera

Intuition IT Solutions Ltd.
Publiée le
Apache Kafka
Apache Spark
Cloudera

2 ans
500-600 €
Vélizy-Villacoublay, Île-de-France

Nous recherchons un développeur Big Data avec un compétence sur l'environnement opensource Delta Lake pour une mission de longue durée à Vélizy. La Prestation s’effectuera au sein de l’équipe « IS Data Factory » du client qui est composée Data Engineer et de Data Architect. Les personnes sont basées entre Vélizy, Boston (USA) et Pune (Inde) Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de la conception et du développement d'un POC pour un Data Lakehouse ouvert en utilisant les dernières technologies (Delta Lake, Cloudera, NoSQL, NiFi, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. o Analyse et optimisation de la performance des flux de données et des requêtes. o Création et maintenance de documents techniques sur les pipelines de données, o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.

Freelance
CDI

Offre d'emploi
Consultant MDM Tibco

Lùkla
Publiée le
Agile Scrum
Data management
Master Data Management (MDM)

2 ans
55k-65k €
Paris, France

En tant que Consultant(e) MDM Tibco EBX Senior, vous serez notamment en charge de : Conception et implémentation : Analyser les besoins métiers et concevoir des modèles de données de référence (MDM) sur la plateforme Tibco EBX. Implémenter des solutions MDM complètes, incluant la capture, la consolidation, la qualité et la distribution des données. Développer des workflows complexes et des règles métier pour assurer l'intégrité des données. Accompagnement des projets : Assurer la conduite technique des projets MDM, de la phase d'analyse jusqu'à la mise en production. Former et accompagner les équipes métiers dans l'utilisation de la solution. Expertise technique : Maîtriser en profondeur la plateforme Tibco EBX (modélisation, workflows, API, etc.). Avoir une bonne connaissance des bases de données relationnelles et des outils d'intégration de données. Être à l'aise avec les langages de programmation (Java, Python, etc.) ...

CDI

Offre d'emploi
Data Architect H/F

FED SAS
Publiée le

60k-70k €
Voisins-le-Bretonneux, Île-de-France

Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Voisins-le-Bretonneux Un Data Architect H/F dans le cadre d'un CDI. Sous la responsabilité du Data Management, vos activités principales seront : Piloter et accompagner les projets selon les besoins métiers Diffuser la culture « data » dans l'entreprise Elaborer et présenter nos retours d'expérience auprès des instances et du Groupe Mettre en place des outils génériques utilisables sur l'ensemble des projets Maintenir la sécurité de la base de données et créer des normes pour garantir la sécurité du système Piloter la mise en œuvre des normes de référencement et d'utilisation des données Documenter cette donnée de façon fonctionnelle (schéma d'architecture, etc.) Assurer une veille technologique, benchmark de solutions Cartographier et évaluer l'architecture des données et les bases de données actuelles Définir l'architecture data-driven de l'entreprise Concevoir, urbaniser et optimiser des infrastructures de stockage et être l'interlocuteur privilégié des métiers en lien avec la donnée (Data Owners, Data Scientist, Développeurs, équipe Cloud…) Animer une communauté d'utilisateurs avertis de « Data Owners » Piloter et accompagner les projets selon les besoins métiers Préconiser les solutions techniques à œuvre dans le stockage des données (en termes de technologie, serveurs, mise à disposition des données, gestion des accès, optimisation des requêtes, etc.) Mettre en place des outils génériques utilisables sur l'ensemble des projets Maintenir la sécurité de la base de données et créer des normes pour garantir la sécurité du système Piloter la mise en œuvre des normes de référencement et d'utilisation des données Vos missions consisteront à : Concevoir, urbaniser et administrer les solutions techniques à mettre en œuvre dans les projets nécessitant la collecte, le stockage ou l'utilisation de données Intervenir sur de nombreux projets pour la mise en place des solutions génériques afin de faciliter le travail des équipes de développeurs et métiers (« data owners ») Avoir une vision globale des données de l'entreprise et faire évoluer l'architecture et les outils d'exploitation de la donnée Assurer la cohérence, la qualité et la sécurité du référentiel de données

CDI

Offre d'emploi
Data Engineer (H/F)

NSI France
Publiée le
Apache Airflow
Google Cloud Platform
Python

50k-60k €
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance
CDI

Offre d'emploi
Data Engineer h/f

HAYS MEDIAS
Publiée le
Python
Scala
SQL

6 mois
10k-70k €
Levallois-Perret, Île-de-France

Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : Conception et Développement de Pipelines de Données : Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. Gestion et Maintenance de l’Infrastructure Data : Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.

Offre premium
Freelance

Mission freelance
Data Engineer / cloud Azure - Distribution - IDF (H/F)

EASY PARTNER
Publiée le
Apache Spark
Azure
Databricks

6 mois
450-470 €
Paris, France

Nous sommes un acteur majeur de la distribution. Au cœur de notre stratégie de transformation numérique, notre département IT déploie un programme ambitieux de rénovation de notre Système d'Information centré sur la data et le cloud (Azure). Cette mission s'inscrit dans une démarche de structuration de notre Big Data et de nos solutions BI répondant aux besoins critiques de nos métiers. ▶️ Missions Développer et mettre en œuvre des solutions d'analyses Big Data. Analyser les besoins, réaliser des études d'impact et concevoir des solutions techniques innovantes. Concevoir et modéliser des données dans un Data Lake utilisant des formats optimisés. Construire et optimiser des pipelines de données. Développer des notebooks avancés pour le traitement des données. Participer au Cloud Datawarehousing, incluant tuning et optimisation SQL. Rédiger des documentations techniques. Être impliqué dans la revue de code et les tests unitaires. Assurer la maintenance et l'évolution des solutions. Contribuer à l'optimisation des processus de livraison en environnement DevOps. 🔦Stack technique À maîtriser Azure Cloud Databricks, Spark Langages : Scala, Python, SQL CI/CD, Azure DevOps Architecture Lakehouse => Environnement technique global Outils Agile, notamment JIRA Environnement DevOps

Freelance

Mission freelance
Data Management/Data Gouvernance

TEOLIA CONSULTING
Publiée le
JIRA
MySQL

36 mois
500-580 €
La Défense, Île-de-France

Je cherche pour l'un de nos clients un consultant Data Management/Data gouvernance pour l'étude et la mise en place d'un catalogue de données? Missions : Gouvernance des données : Mise en place de politiques et de procédures pour assurer la conformité et la sécurité des données. Qualité des données : Mise en place de processus garantissant l’exactitude, la complétude et la fiabilité des données, avec une surveillance continue et une amélioration de la qualité. Catalogue de données : Organisation et gestion des données tout en respectant les règles et les contrats en place. Conformité RGPD : Assurer que les données sont utilisées conformément aux réglementations en vigueur et aux meilleures pratiques en matière de protection des données. l s'agit d'une mission portant sur l’étude et la mise en place d’un catalogue de données, donc un consultant spécialisé en Data Management et Gouvernance.

Freelance
CDI

Offre d'emploi
Data Engineer Scala Spark Hadoop

Digistrat consulting
Publiée le
Scala

36 mois
10k-200k €
Paris, France

💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark

739 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous