Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 368 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data engineer (Snowflake obligatoire) H/F

LeHibou
Publiée le
Snowflake
Talend

3 ans
510-670 €
Guyancourt, Île-de-France

Notre client dans le secteur Infrastructure, BTP et matériaux de construction recherche un data engineer expert de minimum 8 ans d'experience H/F Descriptif de la mission: Le client est un acteur majeur dans le secteur de la construction, vous rejoindrez une équipe de data engineering. Compétences recherchées : - Excellent niveau SQL - Missions précédentes ou certification Snowflake et sont en capacité de développer des procédures snowflake mais également de travailler sur des sujets de modélisations de données (Datamanagement, Datawarehouse). - Des connaissances en Talend sont aussi nécessaires, mais la priorité repose sur de fortes compétences en modélisation et SQL. -Connaissance d'ETL (en particulier Talend) Les Data Engineers vont être amenés à : Réaliser le cadrage technique Créer l’ensemble de la chaine d’ingestion de la donnée, aussi bien sur des sources tabulaires que sur du JSON provenant d’API d’IOT. Travailler à l’amélioration de notre processus de QOS / QOD mais également notre chaine CI/CD Il est important que le consultant soit dynamique et en capacité d’échanger avec des équipes métiers (dimension fonctionnelle de leurs travaux)

Freelance

Mission freelance
Consultant / CDP Talend - Pré embauche possible // 4 jours sur site

Intuition IT Solutions Ltd.
Publiée le
Microsoft Dynamics
Talend

6 mois
150-670 €
Boulogne-Billancourt, Île-de-France

Si pour vous être Consultant Talend Cloud Confirmé / Sénior c’est : Avoir de l’expérience dans la mise en place des outils de DATA Intégration, qualité de données et ESB, Être à l’initiative ou contributeur de projet de mise en place de l’outil TALEND CLOUD , Optimiser les performances des flux déjà en place, Être au centre de tous les échanges du SI, Savoir traduire le besoin métier / utilisateur en réponse technique, Savoir chiffrer de manière réaliste la charge de développement (et la respecter), Et faire grandir des profils juniors en partageant les bonnes pratiques,

CDI

Offre d'emploi
Databricks Architect

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

52k-85k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

CDI

Offre d'emploi
Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

Freelance

Mission freelance
Talend Data Integration Architect

K2 Partnering Solutions
Publiée le
Talend

6 mois
100-720 €
Paris, France

Notre client recherche un Talend Data Integration Architect pour travailler sur un contrat glissant de 6 à 12 mois basé sur les détails ci-dessous : À propos du travail En tant qu'architecte senior Talend Data Integration, vous jouerez un rôle stratégique dans la préparation et la mise en œuvre de nos projets de données. Chez nos clients, vous porterez la vision technique des plateformes Middleware & API Management et serez également responsable de la définition et de la conception des architectures techniques de ces plateformes.

Freelance

Mission freelance
Tech Lead .NET - Talend

SYZAN
Publiée le
.NET
GED (Gestion Électronique des Documents)
Microsoft SSIS

1 an
100-650 €
Hauts-de-Seine, France

Contexte : Dans le cadre de la modernisation de notre pôle éditique et de la gestion de la documentation d'entreprise, nous recherchons un Tech Lead .NET pour piloter les initiatives de développement autour de la GED, des stratégies documentaires et du CCM (Customer Communication Management). Ce poste stratégique vous permettra de travailler sur des projets d’intégration de données et de dématérialisation des documents, en collaboration avec des équipes pluridisciplinaires. Gestion de la documentation et des solutions éditiques : Définir et mettre en œuvre des stratégies documentaires en lien avec les besoins métiers et réglementaires. Piloter les solutions de CCM (Customer Communication Management) pour optimiser la communication client et les processus éditiques. Garantir la performance et la sécurité des outils GED, et assurer leur évolution. Conception et développement en .NET : Définir l’architecture des solutions .NET (C#, ) en accord avec les meilleures pratiques et les standards de l’entreprise. Superviser et encadrer les développeurs .NET dans la conception et le développement des applications GED et de gestion documentaire. Assurer la qualité des livrables par des revues de code et garantir la bonne application des standards de développement. Mise en place et optimisation des flux ETL : Concevoir, développer et maintenir des processus ETL sous Talend et SSIS pour l’intégration des données entre les systèmes GED, CCM et les différentes bases de données. Assurer la qualité des données lors des échanges entre les systèmes, et veiller à la conformité avec les exigences de l’entreprise. Optimiser les flux de données pour garantir une performance et une disponibilité élevées. Encadrement technique et gestion de projet : Apporter un support technique à l’équipe en tant que référent sur les technologies .NET, GED et ETL. Conduire les projets en collaboration avec les chefs de projet pour assurer la planification, le suivi et le respect des délais. Participer aux phases de conception, aux rituels agiles (Scrum), et coordonner les différents acteurs internes et externes. Veille technologique et innovation : Participer à la veille technologique pour rester à jour sur les innovations en GED, CCM, et ETL. Proposer des améliorations ou des technologies innovantes pour répondre aux besoins d’optimisation et de modernisation du SI.

Freelance
CDI

Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala

Digistrat consulting
Publiée le
Talend

36 mois
10k-65k €
Paris, France

💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)

Freelance

Mission freelance
Expert - Dev Talend

TEOLIA CONSULTING
Publiée le
Enterprise Service Bus (ESB)
Talend

12 ans
100-550 €
Hauts-de-Seine, France

Dans le cadre de la modernisation de son système d’information, notre client, un acteur dans le domaine des assurances, recherche un Expert Dev Talend. Le consultant intégrera l’équipe pour participer aux projets de migration, de développement et d’optimisation de flux de données. Client : Société spécialisée dans les assurances, basée dans les Hauts-de-Seine (92) Type de mission : Freelance / Mission longue durée Expérience requise : Minimum 5 ans d’expérience sur Talend Démarrage : ASAP Dans le cadre de la modernisation de son système d’information, notre client, un acteur important dans le domaine des assurances, recherche un Expert Dev Talend. Le consultant intégrera l’équipe Data pour participer aux projets de migration, de développement et d’optimisation de flux de données.

Freelance
CDI

Offre d'emploi
CONSULTANT TALEND

UCASE CONSULTING
Publiée le
Salesforce Sales Cloud
Talend

6 mois
10k-169k €
Paris, France

Dans le cadre de notre développement, nous recherchons un Consultant Talend / Salesforce pour intégrer notre équipe et contribuer à des projets de transformation data et CRM pour nos clients. Vous interviendrez sur des missions variées d’intégration de données, d’optimisation de processus et de gestion des flux de données avec Talend et Salesforce. Analyse des besoins et conception de solutions : Comprendre les besoins métiers de nos clients et concevoir des solutions d’intégration de données et d’automatisation adaptées. Intégration et synchronisation des données : Assurer la connexion et la synchronisation des données entre Salesforce et d'autres systèmes d’information grâce à Talend. Développement et optimisation des workflows : Développer et maintenir des flux de données performants et fiables, et optimiser les processus Salesforce pour répondre aux objectifs métiers. Support et formation des utilisateurs : Accompagner les utilisateurs dans la prise en main de Talend et Salesforce et assurer un support technique de qualité. Expérience confirmée en intégration de données et en développement de solutions avec Talend et Salesforce Bonne compréhension des processus CRM et des flux de données Solides compétences techniques en ETL , modélisation et transformation des données Sens de l’écoute, capacité à travailler en équipe, et aptitude à interagir avec les parties prenantes métiers et techniques Autonomie, rigueur et capacité d’adaptation Des projets ambitieux avec des clients prestigieux qui stimulent l’innovation et l’expertise technique Un environnement collaboratif et axé sur le développement des compétences Des possibilités d’évolution professionnelle et un accompagnement pour atteindre vos objectifs de carrière

Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
Big Data
Consultant

24 mois
275-550 €
Nanterre, Île-de-France

Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)

CDI
Freelance

Offre d'emploi
Développeur Data Engineer - Spécialisé en Databricks et Palantir Foundry

ARDEMIS PARTNERS
Publiée le
API
Big Data

3 mois
40k-50k €
Paris, France

En tant que Data Engineer , vous serez chargé de construire, livrer et maintenir des produits de données, notamment des pipelines de données, des services et des API. Ce poste exige une collaboration étroite avec les équipes produit pour développer de nouvelles fonctionnalités en lien avec l'optimisation des processus de données et l'analytique. Construire et maintenir des pipelines de données : Vous serez responsable de la création et de la gestion des flux de données, en vous assurant qu’ils sont efficaces, évolutifs et bien documentés. Collaborer avec les équipes produits : Vous serez amené à travailler en étroite collaboration avec les équipes produits pour définir et déployer de nouvelles fonctionnalités, en particulier celles qui concernent les processus de gestion des données à travers plusieurs produits. Utilisation des technologies spécifiques : Databricks pour le développement de pipelines de données. Palantir Foundry pour la gestion de l'ontologie et des tableaux de bord. Assurer l'optimisation des données : Vous serez impliqué dans l’analyse des données, la création d’entrepôts de données et la mise en œuvre de calculs parallèles sur de grandes quantités de données. Développement de solutions à grande échelle : Vous serez responsable de la gestion des calculs distribués et de l’application de techniques de parallélisation pour optimiser les traitements de données volumineuses. Documentation des solutions techniques : Vous serez en charge de la documentation des artefacts de données et assurerez un suivi sur les processus d’intégration et de développement des produits de données, en respectant les standards de l’entreprise.

Freelance

Mission freelance
Architecte Décisionnel Data (H/F) – Niort

Espace Freelance
Publiée le
Big Data

12 mois
100-530 €
Niort, Nouvelle-Aquitaine

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Architecte Décisionnel Data (H/F) – Niort Mission à pourvoir en régie sur Niort Présence sur site : 3 jours / semaine Compétences obligatoires : urbanisation SI Data ; data warehouse ; Big Data ; ETL ; modélisation ; compétence dans l’intégration de pratiques de sécurité dans les architectures ; agilité Votre mission : - Qualifier les besoins et assister à la création des produits data - Qualifier les besoins et mettre en œuvre les solutions dans le cadre des patterns définis - Faire évoluer les patterns si besoin - Définir les frameworks d’ingestion pour le SI data REF : EFP/GRNUL/ODVB

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance

Mission freelance
Ingénieur Data gouvernance (H/F) 75

Mindquest
Publiée le
Big Data
PySpark
Python

3 mois
400-500 €
Paris, France

Data quality : - Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. - Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. - Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. - Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) - Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). - Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). - Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » - Définition et mise en place de processus de gestion de la qualité des données. - Identification et résolution des problèmes de qualité de données à travers des analyses régulières. - Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : - Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). - Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) - Mise en place des accès users conformes aux données et aux applications 3. Gouvernance des données : - - Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). - Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).

Freelance

Mission freelance
devOps DATA

ALLEGIS GROUP
Publiée le
Big Data
DevOps

3 mois
100-600 €
Niort, Nouvelle-Aquitaine

Bonjour, je recherche pour l'un de mes clients un(e) devOps DATA. Skills : Linux - Data (KAFKA, Hive, Spark) Tâches : assurer le RUN (incidents de niveau 2 et 3) évolution des socles hébergés garantir le fonctionnement optimal des outils ou systèmes apporter son expertise, conseil et assistance dans l'usage et la mise en oeuvre d'applications Localisation : Niort (2 jours de télétravail par semaine) Démarrage : début janvier Longue visibilité (3 ans de mission) N'hésitez pas à revenir vers moi pour des informations complémentaires.

CDD
Freelance

Offre d'emploi
DATA ENGINEER - TALEND SPARK/SCALA H/F

SMARTPOINT
Publiée le
Apache Spark
Hadoop
Scala

10 mois
10k-40k €
Île-de-France, France

Dans ce cadre, la prestation consiste à contribuer à/au(x) : - Développement de traitements Spark/Scala - Revue de code et re-factoring - Traitement d'un gros volume de données - Développement sur un pipeline CICD - Respect des normes de développements Environnement technique: - Framework Spark - Langage scala - ETL Talend - Talend for BIG DATA - Méthode agile : Scrum - GIT - Ecosystème Hadoop Cloudera Les livrables attendus sont les suivants : - Documentation - Nouvelle version applicativ Cadre international.

368 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous