Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 409 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur ODI

ICSIS
Publiée le
Méthode Agile
ODI Oracle Data Integrator
Oracle

3 ans
350-500 €
Lille, Hauts-de-France

La mission consiste à : - Assurer la prise en compte et la résolution des incidents en Production - Analyser les incidents, Mettre en place des redressements de données, développer les correctifs. - Maintenance évolutive et des projets : Participer aux cérémonies d’estimation et de planification, réaliser l’analyse technique et les développements, puis les tests. - Analyser les problèmes de performance des traitements actuels et proposer des axes d’optimisation - Mission basée en métropole lilloise avec présence sur site 3j/semaine Compétences demandées : - 5 ans d'expériences minimum en Développement de flux sur ODI - Expertise Oracle ODI, SQL, BDD Oracle - Maîtrise des KM (Knowledge Modules) et des principes de calcul de statistiques sur une base de données Oracle - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +

Freelance
CDI

Offre d'emploi
Data Engineer Scala Spark Hadoop

Digistrat consulting
Publiée le
Scala

36 mois
10k-200k €
Paris, France

💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark

Freelance

Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri

WorldWide People
Publiée le
Apache Spark
Databricks

12 mois
360-440 €
Montpellier, Occitanie

Ingénieur MLOPS Montpellier Senior DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance

Mission freelance
Analyste QA Fonctionnelle (AEM)

MEETSHAKE
Publiée le
Adobe
Postman
Xray

6 mois
100-450 €
Issy-les-Moulineaux, Île-de-France

Nous recherchons un Analyste QA Fonctionnelle pour rejoindre notre équipe chez Meetshake en mission pour un client majeur de l’hôtellerie. Vous serez au cœur de la validation des fonctionnalités de sites web sous Adobe Experience Manager (AEM), assurant que chaque développement réponde aux spécifications et besoins des utilisateurs finaux. Vous participerez activement à toutes les étapes, du prototypage à la production, en menant des tests via Xray, Postman, et BrowserStack pour garantir la compatibilité cross-device et cross-browser.

Freelance

Mission freelance
developpeur Big Data

Intuition IT Solutions Ltd.
Publiée le
Ansible
Apache Spark
Informatica

6 mois
400-520 €
Lyon, Auvergne-Rhône-Alpes

Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe 4 à 5 années d'expérience sont attendues sur le rôle au minimum. Expertise Spark, quelque soit le langage de prédilection (Java, Scala, Python). Défini/challenge les solutions et architectures techniques permettant le traitement de volumes importants de pipelines de données suffisamment sécurisés et lisibles Intervient auprès des architectes et urbanistes pour la préparation des dossiers techniques Anime les équipes Data sur toutes les étapes du traitement de la donnée Assure la bonne prise en compte des recommandations du CTO Nex’Us Maîtrise des solutions de stockage de données Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données Maîtrise des outils de gestion de code et de déploiement projet Maitrise des fondamentaux de l’agilité Maîtrise des solutions de stockage de données Maîtrise avancée des langages structurés Maîtrise avancée des technologies du Big Data permettant le traitement et la manipulation de données Expertise Spark Oracle

CDI

Offre d'emploi
Cloud AWS & DevOps Enginner | Data Engineer

Inventiv IT
Publiée le
AWS Cloud
CI/CD
Databricks

40k-55k €
Paris, France

Au sein de l'unité Plateform Data. Projet : Mise en place des infrastructures et livraison des principales briques techniques nécessaires au fonctionnement d’un cas d’usage dans un environnement cloud Build de l’infrastructure sur la plateforme data Provisionnement des ressources des cas d’usage dans databricks et AWS via Terraform Mise en place des pipelines CI/CD pour le déploiement d’infra Attribution et gestion des habilitations via les groupes dans databricks Assurer le maintien en conditions opérationnelles et l'évolution de l’infrastructure Migration des données depuis le OnPrem vers la zone de landing sur S3 Ingestion des données depuis la landing zone vers les différents coffres data (bronze, silver, gold) dans les catalogues databricks Supervision des jobs d’ingestion à travers les dashboards DataDog Résolution des incidents d’infra et pipelines MCO plateforme On Prem Traitement des demandes ponctuelles concernant l’ajout d’users, d’espace hdfs Maitrise Spark / Scala Rythme Hybride

Freelance
CDI

Offre d'emploi
Data Engineer Azure (H/F)

NSI France
Publiée le
Azure
Databricks
Scala

1 an
10k-60k €
Île-de-France, France

- Contexte Dans le cadre du programme transformation du SI , l'équipe Data intervient sur les périmètres Data du projet. La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. 2 - Description de la mission Nous recherchons un Data Engineer Sénior (H/F) avec une forte expertise sur Azure, Databricks, Spark, Scala. Développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitements avancés des données Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés

CDI

Offre d'emploi
Ingénieur Informatique Industrielle / Automatisme EPR2 H/F

Worldgrid
Publiée le
Interface Homme-Machine (IHM)
SCADA

50k-68k €
Grenoble, Auvergne-Rhône-Alpes

Pour le contexte, le CCS-N1 (Contrôle-Commande Standard) est architecturé autour d'une base système d’automates programmables M580 (gamme nucléaire de Schneider Electric). Le contrat prévoit la livraison de plusieurs plateformes de test avec des systèmes cibles CCS-N1 matériels (API physiques) ou simulés (API PLC-Sim). Ces plateformes servent de moyens de tests pour valider les solutions et systèmes développés pour le CCS-N1. Chaque plateforme intègre des équipements cibles physiques ou simulés, un banc de stimulation des E/S cibles, un Test Pilot (logiciel plateforme) en interface OPC avec les systèmes cibles et le banc d stimulation. L'équipe du Lot "Plateforme" doit spécifier, développer, assembler, intégrer, valider ces plateformes et les livrer, l'une dans les locaux WorldGrid, l'autre chez le client. Au sein de l'équipe Projet Plateformes vous serez responsable de l'organisation des développements des outils logiciels des plateformes jusqu'à leur livraison sur site. Vos missions : Assurer le suivi technique et fonctionnel du projet Participer à la définition fonctionnelle avec le client Participer à la conception, aux développements, à l’intégration et à la validation des applications Etre le référent technique pour ses coéquipiers, les accompagner dans les choix, dans la résolution des problèmes Mettre en place les process de développement et s'assurer de leur bonne application Assurer l'organisation de l'intégration et du montage des plateformes Assurer l'organisation des tests de validation de la plateforme Assurer l'organisation de la livraison et du démarrage en exploitation des plateformes Etre le garant du respect des délais imposés et des temps de développement

Freelance
CDI

Offre d'emploi
Data Engineer sénior H/F

GROUPE ALLIANCE
Publiée le
Apache Spark
Python
Scala

36 mois
45k-60k €
Paris, France

SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE … Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras

Freelance

Mission freelance
Développeur ODI (H/F) - Lille

Espace Freelance
Publiée le
Modélisation
ODI Oracle Data Integrator
Oracle

3 mois
100-550 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Développeur ODI (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - ODI - Modélisation - Knowledge Modules - Oracle Votre mission : · Suivi des traitements, gestion des incidents de production, et support aux utilisateurs. · Maintenance corrective des systèmes. · Prise en charge des fonctionnalités prioritaires (Features) en développement Agile, conformément aux priorités établies par le train SAFE. · Optimisation technique des processus. Vous devez être capable de : Prendre en charge et résoudre les incidents en production, en assurant leur analyse, la mise en œuvre de correctifs et, si nécessaire, des redressements de données. Participer aux cérémonies d'estimation et de planification dans le cadre de la maintenance évolutive et des projets, réaliser l'analyse technique, les développements, et procéder aux tests. Analyser les problèmes de performance des traitements en place et proposer des pistes d'optimisation. Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/DEVODI/110

Freelance
CDI

Offre d'emploi
Data Engineer Python/Spark

VISIAN
Publiée le
Apache Spark
Informatica
PySpark

2 ans
10k-70k €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.

Freelance
CDD

Offre d'emploi
Data Engineer confirmé/sénior H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks

6 mois
10k-55k €
Île-de-France, France

Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL : · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés

CDI

Offre d'emploi
Data Engineer

DPC
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

10k-45k €
Île-de-France, France

Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.

Freelance
CDI

Offre d'emploi
Architecte Data Engineer AWS

Hexateam
Publiée le
Apache Spark
Architecture
AWS Cloud

3 ans
10k-60k €
Paris, France

Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.

Freelance
CDI
CDD

Offre d'emploi
Technicien Informatique Support N2/N3 audiovisuel

Lùkla
Publiée le
Gestion de parc
Support informatique

6 mois
25k-34k €
Paris, France

Nous recherchons un tech proxi N2/N3 audiovisuel basé à Paris 07 Tâches liées à la mission : • Gérer les sollicitations (Incidents/Demandes) • Traiter les Incidents et Demandes à travers l’outil ARIANE • Assurer le support N2 sur les solutions Livestorm, BBB • Assurer le support N2-N3 sur les solutions Zoom, Teams, l’Offre Mercure “Mail Agenda, Skype, SharePoint, Onedrive”, Moodle • Accompagner les Informaticiens de Proximité à appliquer les actions correctives sur les postes de travail permettant l’utilisation des Solutions de communication et collaboratives • Renseigner les documents de suivi & participer à l’enrichissement de la base de connaissance • Aider à l’utilisation du matériel des salles VISIO Durée de la mission : Longue durée

Offre premium
Freelance

Mission freelance
Expert Sharepoint online Spfx, M365 & Power Platform

Montreal Associates
Publiée le
Office 365
Power Apps
Power Automate

1 an
500-650 €
Nanterre, Île-de-France

Bonjour, Nous recherchons pour notre client international, un spécialiste Sharepoint online, expérimenté sur SPFx, et capable de travailler sur la Power Platform. En environnement Azure. Mission longue d'un an. Présentiel partiel sur le 92. Anglais obligatoire. Description de la mission => - Expertise Sharepoint/Azure/M365/PowerPlatform - Participation à l'assestment technique d'un besoin ou change technique (prerequis, recommandation, recensement des impacts) - Tests techniques d'un livrable, nouvelle solution, fonctionnalité - Apport d'expertise et préconisation des solutions - Assurer le prototypage agile (Proof of concept ) permettant la validation des choix structurants de solutions - Faciliter l’intégration des livrables, nouveautés et applications avec les interlocuteurs - Participation à des workshops techniques avec les interlocuteurs internes ou fournisseurs - Participation à des workshops de gouvernance avec l'équipe global - Accompagnement à la préparation des assets pour des formations Autres => - Conseils techniques à l'équipe support offshore pour de nouvelles solutions - Possibilité de participer à la résolution incidents - Coordination avec l'équipe support éditeur -Gouvernance outils et données suivant la gouvernance global R&I - Respect des délais et des engagements qualité de l’ensemble du projet vis-à-vis de l’utilisateur et du chef de projet - Participation à la veille

409 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous