Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 216 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
data ingénieur

Innov and Co
Publiée le
Apache Hive
AWS Cloud
Dataiku

12 mois
100-540 €
Boulogne-Billancourt, Île-de-France

Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée. CICD Expert AWS Avancé Scheduling Airflow Expert Python Expert kubernetes Expert Stockage S3 Expert PYSPARK Expert SQL Expert Git Expert Dataiku Avancé Hive Expert

Freelance

Mission freelance
Data Ingénieur

Tenth Revolution Group
Publiée le
Git

6 mois
100-800 €
Paris, France

📣 Opportunité Freelance - Data Ingénieur 📣 📣 Opportunité Freelance - Data Analyst📣 Le client est à la recherche de 2 Data Ingénieurs et 2 Data Analyst sur les environnements suivants : 🎯 Data Ingénieur 🗓 Démarrage ASAP 📌 Paris : Rythme Hybride 💥 SQL et T-SQL (SQL server 20217 + et SGBD PaaS : SMI & Synapse Azure) 💥 GIT 💥 Snowflake 💥 Cube tabulaire (PaaS) 💥 MS Azure Data Factory 💥 Power BI (DAX,M) 💥 Power BI Reporting Services / Paginated Reports 💥 Streamlit

CDI

Offre d'emploi
Data Ingénieur H/F

REACTIS
Publiée le
Snowflake

40k-50k €
Lyon, Auvergne-Rhône-Alpes

Nous sommes à la recherche d'un(e) Data Ingénieur talentueux(se) pour rejoindre notre équipe et nous accompagner dans la gestion et l'optimisation de nos environnements de données à grande échelle. Si vous êtes passionné(e) par le Big Data et avez une solide expérience avec des technologies comme Snowflake, Spark, Hadoop, et QlikView, ce poste est fait pour vous ! Vos missions : - Concevoir, déployer et optimiser des pipelines de données robustes et évolutifs. - Gérer l'architecture des données en utilisant Snowflake, Spark et Hadoop. - Travailler sur des volumes importants de données (Big Data) pour extraire des insights actionnables. - Développer et automatiser des processus ETL afin d'améliorer la performance et la fiabilité des flux de données. - Collaborer avec les équipes Data Science et BI pour garantir la qualité, la sécurité et la disponibilité des données. - Créer et maintenir des tableaux de bord et rapports visuels interactifs via QlikView pour soutenir les décisions stratégiques.

CDI
Freelance

Offre d'emploi
Data Ingénieur - SageMaker- H/F

SCALIAN
Publiée le
AWS Cloud
Intelligence artificielle

36 mois
36k-53k €
Paris, France

Développement et maintenance de l’Offre DataScience Cloud : Utiliser Terraform pour gérer l'infrastructure en tant que code (IaC) sur AWS. Automatiser les processus de déploiement via des pipelines CI/CD pour les modèles ML. Assurer une intégration fluide des modèles IA en production en utilisant MLOps. Développer des scripts et des outils en Python pour automatiser diverses tâches. Construction de l'offre d'outillage et de patterns DataScience/MLOps : Concevoir et mettre en œuvre des solutions basées sur les services AWS (SageMaker, Bedrock, S3, Lambda, CloudWatch). Participer au cadrage technique avec le Tech Lead de la squad pour définir les solutions applicatives. Contribuer au développement, à l'intégration, et à la recette technique des solutions. Gérer les incidents et accompagner les utilisateurs dans l'utilisation des patterns DataScience.

CDI
Freelance

Offre d'emploi
DATA INGÉNIEUR - DEVOPS BIG DATA / AWS

Digistrat consulting
Publiée le
AWS Cloud

36 mois
10k-60k €
Paris, France

💼 Poste : DATA INGÉNIEUR - DEVOPS BIG DATA / AWS 🏭 Secteurs stratégiques : Banque 🗓 Démarrage : ASAP 💡 Contexte /Objectifs Digital and Data Services est la DSI transverse au service de la Filière IT et des Métiers. Elle est en charge des fondations digitales : fondations IT (gestion d'identité, outils Filière IT), capacités data (socle Big Data), référentiels Groupe, capacités digitales standards. Au sein de l'entité, le service est en charge de la plateforme et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management, urbanisation des architectures de données. Dans ce cadre, le service avec ses partenaires souhaite développer l'utilisation du datalake sur cloud publique MS Azure (ADLS GEN2 / SYNAPSE) et AWS (S3) et l'interopérabilité avec le datalake On Premise. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La définition des moyens cibles dans le respect des engagements pris suivant respectant le besoin métier et déployable en production - La mise en place et le support des environnements de production et intégration - L'industrialisation (principes d'infra as code) Environnement agile. 🤝 Livrables attendus: - Validation de la faisabilité technique - Mise en œuvre de la solution. - Support des demandes clients sur les environnements de production et integration. - Automatisation des demandes récurrentes et mise à disposition de self service ou API à destination des clients. 🤝 Expertises spécifiques : • Amazon Web Services ( AWS ) • Ansible • Compétences en développement (Shell unix, Perl, PHP, Python, git, github) • Continuous Integration • Docker • Java • Jenkins • JIRA • OpenShift • Spark • Stockage Scality (Ring)

Freelance
CDI

Offre d'emploi
Data ingénieur Terradata / ControlM / Unix / SQL (h/f)

SCALIAN
Publiée le
Control-M
Data analysis
SQL

12 mois
41k-44k €
Paris, France

Nous recherchons un Data Ingénieur expérimenté, spécialisé en Teradata, Control-M, Unix, et SQL, pour rejoindre notre équipe de gestion des données. Vous serez responsable de la conception, de la mise en œuvre et de la maintenance des solutions de traitement de données à grande échelle, tout en assurant la disponibilité et la performance des systèmes. Vos principales missions : Concevoir, développer et optimiser des pipelines de données sur des plateformes Teradata, en utilisant SQL et des scripts Unix. Automatiser les flux de travail de données en utilisant Control-M pour garantir une gestion efficace des processus batch. Assurer la maintenance, l'optimisation et la surveillance des environnements Teradata, en résolvant les problèmes de performance et en améliorant l'efficacité. Collaborer avec les équipes de développement, d'exploitation et d'analytique pour garantir l'intégrité et la disponibilité des données. Participer à la définition des meilleures pratiques pour l'ingénierie des données, y compris la gestion des environnements Unix. Contribuer à l'évolution des architectures de données, en proposant des améliorations et en implémentant des solutions techniques avancées. Rédiger et maintenir la documentation technique des systèmes et des processus mis en place.

Freelance

Mission freelance
Senior Data Ingénieur - Connaissances Risques indispensables

Tekway (Archytas)
Publiée le
ETL (Extract-transform-load)
Microsoft Power BI
Python

12 mois
100-860 €
Île-de-France, France

Pour le compte d'un de nos clients bancaire, le consultant interviendra dans un contexte de projet Socle Data pour améliorer la gestion des données et leur exploitation dans un environnement de plus en plus digitalisé. La mission consiste à intégrer une équipe technique spécialisée dans la gestion des risques et l'ingénierie des données. Le but est de renforcer l’infrastructure de gestion des données du groupe pour garantir une utilisation optimale des outils analytiques et faciliter la prise de décision informée. Le projet vise à la fois l'ingestion, l'agrégation et l'exposition de données provenant de sources multiples afin de produire des rapports métier sur la surveillance des risques. Ce projet s'inscrit dans une logique de transformation continue, avec des livrables sur plusieurs phases jusqu'en mai 2025. Conception et développement : Participer à la conception de la solution technique pour ingérer, agréger et analyser des données à grande échelle. Développer des flux ETL efficaces pour intégrer les données provenant de plusieurs sources internes et externes à BPCE. Collaborer avec les architectes de données pour définir la meilleure approche pour la gestion des volumes de données. Automatisation des processus : Utiliser DBT (Data Build Tool) pour automatiser le traitement des données et permettre une mise à jour en temps réel des rapports de risques. Veiller à l’intégration continue des données dans les systèmes existants en utilisant des pratiques DevOps . Analyse et reporting : Produire des rapports automatisés via PowerBI , permettant une visualisation des données pertinente pour les équipes métiers (notamment les équipes de risques et finance). Collaborer avec les utilisateurs finaux pour comprendre leurs besoins en matière de reporting et ajuster les livrables en conséquence. Optimisation de la performance : Travailler sur l’optimisation des performances des flux de données pour garantir la rapidité et l’efficacité des traitements. Implémenter des solutions de stockage avec Singlestore afin de gérer des volumes importants de données tout en maintenant un haut niveau de performance. Collaboration inter-équipe : Participer aux réunions avec les équipes métier et techniques pour bien comprendre les besoins et s’assurer que les solutions répondent aux attentes. Travailler en étroite collaboration avec les autres développeurs et data engineers pour assurer la fluidité des développements et des mises en production. Documentation et formation : Rédiger des documentations techniques complètes pour les solutions développées. Participer à la formation des équipes internes sur les nouveaux outils et processus mis en place.

Freelance

Mission freelance
Data Ingénieur

Tenth Revolution Group
Publiée le
Azure

1 an
100-870 €
Paris, France

📢 Opportunité Freelance - Data Ingénieur Azure 📢 🗓️ ASAP 📌 Paris 📌 Longue Durée 💢 Rythme Hybride 🌟 ADF, Azure Data Lake Gen2,SQL, Azure Functions, Azure DevOps, 🌟 Azure Key Vault, Power BI Premium, Azure Synapse 🌟 Refonte de l'architecture du système décisionnel 🌟 Conception et développement de cubes multidimensionnels 🌟 Migration des cubes Azure Analysis 🌟 Conception et développement Power BI ⚡ Equipe composée d'un architecte, d'un PO et 2 data ingénieurs 📢 Opportunité Freelance - Data Ingénieur Azure 📢 🗓️ ASAP 📌 Paris 📌 Longue Durée 💢 Rythme Hybride 🌟 ADF, Azure Data Lake Gen2,SQL, Azure Functions, Azure DevOps, 🌟 Azure Key Vault, Power BI Premium, Azure Synapse 🌟 Refonte de l'architecture du système décisionnel 🌟 Conception et développement de cubes multidimensionnels 🌟 Migration des cubes Azure Analysis 🌟 Conception et développement Power BI ⚡ Equipe composée d'un architecte, d'un PO et 2 data ingénieurs

Freelance
CDI

Offre d'emploi
DATA INGÉNIEUR - DEVOPS BIG DATA / AWS

Digistrat consulting
Publiée le
Ansible
AWS Cloud
Jenkins

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre la prestation consiste à contribuer à/au(x) : La définition des moyens cibles dans le respect des engagements pris suivant respectant le besoin métier et déployable en production La mise en place et le support des environnements de production et intégration L'industrialisation (principes d'infra as code) Environnement agile. Livrables : Les livrables attendus sont : Validation de la faisabilité technique Mise en œuvre de la solution. Support des demandes clients sur les environnements de production et intégration. Automatisation des demandes récurrentes et mise à disposition de self-service ou API à destination des clients.

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data
ingenieur

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
200-400 €
Paris, France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

Freelance

Mission freelance
Ingénieur DevOps / BIG DATA

Management Square
Publiée le
Apache Hive
Apache Kafka
Apache Spark

2 ans
100-480 €
Paris, France

Nous recherchons un ingénieur data et intégration pour une mission basée à Paris, France. Le profil recherché doit être orienté data ingénieur avec des compétences réparties de manière à ce que la moitié de ses compétences concerne la data et l'autre moitié concerne les aspects intégration/exploitation/puppet. Maintien en condition opérationnelle de l’environnement BIG DATA d'une application Administration de l’environnement DATA Gestion des mises à jour et évolutions d’architecture applicative Assurer une continuité des activités liées au périmètre en palliant l'absence du data ingénieur déjà en place

Freelance

Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes

Smarteo
Publiée le
Informatique

3 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en oeuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l?équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

CDI

Offre d'emploi
Ingénieur Data Expert Power BI

Management Square
Publiée le
Big Data
Microsoft Power BI

40k-52k €
Arcueil, Île-de-France

Nous recherchons un Data Engineer confirmé, expert en Power BI, pour rejoindre une équipe dynamique au sein d'une grande entreprise. Vous jouerez un rôle clé dans la conception, le développement et l'optimisation de solutions de reporting et de visualisation de données pour répondre aux besoins de nos utilisateurs et parties prenantes. Créer et maintenir des rapports Power BI performants et adaptés aux besoins des utilisateurs Participer activement à la migration des rapports existants de Power BI Report Server vers Power BI Service Concevoir, développer et optimiser des modèles de données et des cubes pour assurer des performances optimales Appliquer les meilleures pratiques en matière de visualisation de données Collaborer étroitement avec les équipes IT et métiers pour une intégration fluide des solutions Sécuriser l'accès et la diffusion des données en conformité avec la politique de sécurité de l'entreprise Comprendre les besoins métiers et proposer des améliorations pour les applications et projets de transformation Se tenir informé des nouvelles fonctionnalités de Power BI et proposer des optimisations

Freelance

Mission freelance
Ingénieur Systeme Senior - Intégration en production des applications

PROPULSE IT
Publiée le
applications
des
en

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Ingénieur Systeme Senior - Intégration en production des applications exploitées. Les projets d'intégration concernent des nouvelles applications, des évolutions d'applications existantes ou des correctifs (patchs). - Mise à disposition des socles techniques de base : o Installation des serveurs (OS, briques techniques), pour les projets basés sur des applications (développement spécifique) ou des progiciels. o Accompagner la MOE à l'installation de la solution applicative, lui assurer une assistance technique selon la complexité des projets auxquels on a à faire face. - Configuration, paramétrage des briques techniques de manière optimisée pour un fonctionnement opérationnel. - Aide à l'installation de la solution logicielle sur les différents environnements. - Aide au débogage dans la configuration applicative des briques techniques ou logicielles. - Analyse de la manière dont on garantit un arrêt/démarrage cohérent de l'application. - Mise à disposition de scripts ad hoc pour répondre à des besoins particuliers en phase projet. - Qualification des applications : installation, packaging, contrôle de conformité aux normes d'exploitation et aux règles d'exploitabilité, tests techniques. - Mise en production : installation des applications packagées en production, paramétrage des outils d'exploitation (surveillance, sauvegarde, automatisation d'exploitation...). - Rédaction des dossiers d'exploitation et d'installation, préparation et installation des patchs applicatifs complexes, transfert de responsabilité à l'exploitant sur les applications intégrées. - Déploiement serveur / Brique techniques / application via usines logicielles.

Freelance

Mission freelance
Un Data Ingénieur Sénior (Cloudera/Hadoop, Spark, Kafka, PySpark, SQL Server) sur Dunkerque ou Metz

Smarteo
Publiée le
Informatique

10 mois
100-400 €
Dunkerque, Hauts-de-France

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur Sénior (Cloudera/Hadoop, Spark, Kafka, PySpark, SQL Server) sur Dunkerque ou Metz Objet de la prestation: Spécifications techniques, développements de solutions d'ingestion de données et de Data Ingénierie Résultats à obtenir (livrables): Spécifications techniques de flux (ingestion, transformation?) Développements de flux (Kafka, Talend, Spark (PySpark) Compétences ou connaissances indispensables : Ecosystème Big Data (Cloudera/Hadoop, Spark, Kafka, PySpark), Bases de données relationnelles (SQL Server?), Adaptabilité, Autonomie, communication. Compétences ou connaissances souhaitées : Talend, Anglais, connaissance du monde de la métallurgie Compétences ou connaissances qui seraient un plus : Datavisualisation Périmètre technique: Big Data : Cloudera, Hive, Spark, Kafka? ETL : Talend Bases données : SQL Server Reporting : Power BI Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

216 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous