Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 310 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Ingénieur Cloud

CS Group Solutions
Publiée le
AWS Cloud
Databricks
Github

3 mois
300-3k €
Paris, France

Nous recherchons un Data Ingénieur Cloud Compétences techniques: Github - Expert - Impératif AWS - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques: Français Courant Impératif Anglais Courant Impératif Description détaillée: Sur un plateau d'équipe autour de la data, environnement avec des interlocuteurs basés en France au Maroc et en Inde Équipe de Data Engineer à monter avec des seniors et expérimentés les must have: une expérience dans l'utilisation des git hub actions avec des multibranches avec utilisation de triggers, de if conditions, de workflow, de jobs. ET en priorité qui ont une expérience GLUE et ensuite EC2, S3, LAMBDA, STEP FUNCTIONS, CLOUDWATCH Il/elle doit maîtriser python. En plus de cela, il devra pouvoir effectuer les actions suivantes : -Développement des fonctionnalités -Assurer les tests de validation techniques -Livrer la documentation technique -Vérification & validation des nouvelles versions du code (Maîtriser git, avoir vu l’utilisation des branches git dans Databricks serait un plus)

Freelance

Mission freelance
data Ingénieur

Etixway
Publiée le
Google Cloud Platform
Python
SQL

1 an
100-450 €
Lille, Hauts-de-France

Contexte international, suivi opérationnel Le livrable est Développement flux Compétences techniques SQL/Python - Confirmé - Impératif GCP - Confirmé - Important Connaissances linguistiques Français Professionnel (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Au sein de la Supply Chain Digital Platform, notre équipe assure les échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Nous avons mis en place un ELT (Gateway) permettant de consolider, transformer et analyser les données nécessaires à l'outil de réappro. Nous utilisons la stack technique BigQuery et Airflow pour déclencher les process de transformation de données et d'échange avec l'outil. Nous souhaitons nous renforcer dans l'équipe de la Gateway d'un ingénieur data afin d'assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la data. Une bonne maîtrise de SQL est nécessaire. (elle sera testée durant l'entretien). (Actuellement l'équipe est composée de 3 ingénieurs data, 1 product owner, 1 scrum master, 1 tech lead, 1 incident manager.)

Freelance

Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes

Smarteo
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Freelance
CDI

Offre d'emploi
Data Ingénieur H/F

SCALIAN
Publiée le
Apache Airflow

12 mois
40k-45k €
Lille, Hauts-de-France

Vous intégrerez notre squad Data/IA et travaillerez en étroite collaboration avec les équipes métier en accomplissant les activités suivantes : - Concevoir, développer et maintenir des pipelines de données utilisant Airflow, Pub/Sub, - GCP et MongoDB - En lien avec l’équipe DevOps, construire, maintenir et faire évoluer la plateforme de données - Définir et piloter la cohérence de la collecte, la gestion et l’alimentation des données internes et externes, en différents modes : batch, streaming, API (architecture micro-services) - Préparer et mettre en qualité les données pour les rendre disponibles dans les différents environnements de travail (datalake, datawarehouse, datamart) - Vérifier la qualité des données, de leur bonne et régulière exécution ainsi que de leur utilisation adéquate (gestion des coûts) - Travailler en étroite collaboration avec les data analysts, scientists et data stewards et business de l’entreprise - En lien avec l’IT et la sécurité, veiller aux règles d'intégrité et de sécurité des données - Veiller à la documentation des pipelines et des processus Télétravail : 2j/semaine Vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.

CDI
CDD

Offre d'emploi
Data Ingénieur Spark/Scala

Lùkla
Publiée le
Apache Airflow
Apache Spark
Databricks

3 ans
50k-60k €
Île-de-France, France

Secteur d'activité : Banque/Finance/Assurance Mission(s) : mise en oeuvre d'un nouveau socle de gestion et traitement de données en masse dans un environnement cloud Attendu(s) : développements (selon préceptes craft), définition de solutions techniques, étude et conception de produits techniques, définition et design d'architectures techniques, développement de solutions de processing, exploitation et restitution de données... Profil (s) : data ingénieur Spark/Scala familier des environnements cloud et devops (CI/CD) Méthodologie : agile SAFe, Devops Télétravail : 60%

CDI

Offre d'emploi
Data Ingénieur Big Data

Crafteam
Publiée le
Apache Airflow
Apache Hive
Apache Spark

10k-63k €
Île-de-France, France

Taches : Travailler avec le PO pour l'alimentation et la gestion du backlog Implémenter les fonctionnalités validées par le métier Revue de code Préparation et déroulement des plans de tests et de recette Réception, validation et intégration des données : Base de données relationnelles Web services Fichiers Analyse et résolution des incidents : Supervision des applications pour s'assurer de ; La bonne exécution des traitement / La complétude et cohérence des données Attendue de la mission : Rédaction et affinage des récits utilisateurs Design et réalisation des applications Big Data Etude de faisabilité et réalisation des POC Chiffrage des évolutions et étude d'impact Participation à des rituels Agile Résolution des incidents Support et Assistance technique des utilisateurs Migrations et montées de version Packaging des versions et déploiement CI / CD Tests unitaires Tests intégration Assistance et accompagnement pour les plans de recette

Freelance
CDI

Offre d'emploi
DATA INGÉNIEUR - DEVOPS BIG DATA / AWS

Digistrat consulting
Publiée le
Ansible
AWS Cloud
Jenkins

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre la prestation consiste à contribuer à/au(x) : La définition des moyens cibles dans le respect des engagements pris suivant respectant le besoin métier et déployable en production La mise en place et le support des environnements de production et intégration L'industrialisation (principes d'infra as code) Environnement agile. Livrables : Les livrables attendus sont : Validation de la faisabilité technique Mise en œuvre de la solution. Support des demandes clients sur les environnements de production et intégration. Automatisation des demandes récurrentes et mise à disposition de self-service ou API à destination des clients.

Freelance

Mission freelance
Data Ingénieur

Tenth Revolution Group
Publiée le
Git

6 mois
100-800 €
Paris, France

📣 Opportunité Freelance - Data Ingénieur 📣 📣 Opportunité Freelance - Data Analyst📣 Le client est à la recherche de 2 Data Ingénieurs et 2 Data Analyst sur les environnements suivants : 🎯 Data Ingénieur 🗓 Démarrage ASAP 📌 Paris : Rythme Hybride 💥 SQL et T-SQL (SQL server 20217 + et SGBD PaaS : SMI & Synapse Azure) 💥 GIT 💥 Snowflake 💥 Cube tabulaire (PaaS) 💥 MS Azure Data Factory 💥 Power BI (DAX,M) 💥 Power BI Reporting Services / Paginated Reports 💥 Streamlit

Freelance

Mission freelance
data ingénieur

Innov and Co
Publiée le
Apache Hive
AWS Cloud
Dataiku

12 mois
100-540 €
Boulogne-Billancourt, Île-de-France

Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée. CICD Expert AWS Avancé Scheduling Airflow Expert Python Expert kubernetes Expert Stockage S3 Expert PYSPARK Expert SQL Expert Git Expert Dataiku Avancé Hive Expert

Freelance

Mission freelance
DATA INGENIEUR / ADMIN DATAIKU (NANTES)

AKERWISE
Publiée le
Dataiku
DevOps
Kanban

1 an
100-2 950 €
Nantes, Pays de la Loire

🔴 Merci de confirmer votre présence à Nantes 🔴 La mission ne peut pas se faire en full Remote (3 jours min sur site / semaine) ✅ Nous apprécions un court message indiquant la raison de votre candidature Dans le cadre du programme DATA/IA et d'une réorganisation d'activité entre les départements DDL et ADS autour de la gestion du lac de données et des produits associés, nous recherchons, au sein de notre département Agence Data Service, un Data ingénieur / Administrateur DataIku pour renforcer notre équipe en gestion du DATALAB. Vous viendrez compléter l'équipe en place composée d'un PO et d'un admin Dataiku pour prendre part aux activités suivantes : - Administration de la plateforme Dataiku DSS - Support aux utilisateurs et accompagner les équipes dans la mise en place de leur projet et des bonnes pratiques associées. - Relations avec l'éditeur pour cadrer et participer aux chantiers techniques, optimiser l'architecture du produit. - Participer à la construction d'une offre de service autour d'une plateforme DATA/IA fédérée Activités Principales : · Administration de la Plateforme DataIku o Configuration et gestion des environnements de production et de développement. o Surveillance des performances de la plateforme et mise en œuvre de mesures d'optimisation. o Gestion des utilisateurs, des permissions et des rôles sur DataIku. o Maintenance des mises à jour et des correctifs de la plateforme. · Ingénierie des Données : o Conception et développement de pipelines de données robustes et évolutifs. o Intégration de diverses sources de données (bases de données SQL/NoSQL, API, fichiers plats, etc.). o Nettoyage, transformation et enrichissement des données pour les rendre exploitables. o Automatisation des processus de traitement de données. · Collaboration et Support : o Collaboration étroite avec les équipes de data pour comprendre leurs besoins et fournir des solutions adaptées. o Support aux utilisateurs de la plateforme DataIku, résolution des incidents et assistance technique. o Formation et mentorat des utilisateurs sur l'utilisation efficace de DataIku.

CDI
Freelance

Offre d'emploi
Ingénieur Data SAP/Snowflake

1G-LINK CONSULTING
Publiée le
Azure Data Factory
Snowflake
Talend

12 mois
10k-64k €
La Défense, Île-de-France

Contexte : Dans le cadre d'un programme de transformation digitale basée sur S4/HANA, mon client, acteur majeur du secteur de l'industrie recherche un Data Engineer Snowflake, ADF, SAP concernant la réalisation de l' intégration des données issues de SAP vers les applications BI.. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.

CDI

Offre d'emploi
Data Ingénieur H/F

REACTIS
Publiée le
Snowflake

40k-50k €
Lyon, Auvergne-Rhône-Alpes

Nous sommes à la recherche d'un(e) Data Ingénieur talentueux(se) pour rejoindre notre équipe et nous accompagner dans la gestion et l'optimisation de nos environnements de données à grande échelle. Si vous êtes passionné(e) par le Big Data et avez une solide expérience avec des technologies comme Snowflake, Spark, Hadoop, et QlikView, ce poste est fait pour vous ! Vos missions : - Concevoir, déployer et optimiser des pipelines de données robustes et évolutifs. - Gérer l'architecture des données en utilisant Snowflake, Spark et Hadoop. - Travailler sur des volumes importants de données (Big Data) pour extraire des insights actionnables. - Développer et automatiser des processus ETL afin d'améliorer la performance et la fiabilité des flux de données. - Collaborer avec les équipes Data Science et BI pour garantir la qualité, la sécurité et la disponibilité des données. - Créer et maintenir des tableaux de bord et rapports visuels interactifs via QlikView pour soutenir les décisions stratégiques.

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data
ingenieur

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
200-400 €
Paris, France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

CDI
Freelance

Offre d'emploi
DATA INGÉNIEUR - DEVOPS BIG DATA / AWS

Digistrat consulting
Publiée le
AWS Cloud

36 mois
10k-60k €
Paris, France

💼 Poste : DATA INGÉNIEUR - DEVOPS BIG DATA / AWS 🏭 Secteurs stratégiques : Banque 🗓 Démarrage : ASAP 💡 Contexte /Objectifs Digital and Data Services est la DSI transverse au service de la Filière IT et des Métiers. Elle est en charge des fondations digitales : fondations IT (gestion d'identité, outils Filière IT), capacités data (socle Big Data), référentiels Groupe, capacités digitales standards. Au sein de l'entité, le service est en charge de la plateforme et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management, urbanisation des architectures de données. Dans ce cadre, le service avec ses partenaires souhaite développer l'utilisation du datalake sur cloud publique MS Azure (ADLS GEN2 / SYNAPSE) et AWS (S3) et l'interopérabilité avec le datalake On Premise. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La définition des moyens cibles dans le respect des engagements pris suivant respectant le besoin métier et déployable en production - La mise en place et le support des environnements de production et intégration - L'industrialisation (principes d'infra as code) Environnement agile. 🤝 Livrables attendus: - Validation de la faisabilité technique - Mise en œuvre de la solution. - Support des demandes clients sur les environnements de production et integration. - Automatisation des demandes récurrentes et mise à disposition de self service ou API à destination des clients. 🤝 Expertises spécifiques : • Amazon Web Services ( AWS ) • Ansible • Compétences en développement (Shell unix, Perl, PHP, Python, git, github) • Continuous Integration • Docker • Java • Jenkins • JIRA • OpenShift • Spark • Stockage Scality (Ring)

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI
Big Data
genio

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

310 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous