Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 376 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Expert UI Salesforce H/F

NORGAY
Publiée le
Adobe XD
Figma
Salesforce Sales Cloud

6 mois
10k-60k €
Paris, France

Afin d'accompagner l'un de nos clients, Norgay recrute un expert UI Salesforce H/F, dont les missions seront les suivantes : Vous interviendrez au sein de l'équipe afin de concevoir des solutions intuitives et esthétiques sur la plateforme Salesforce en prenant en compte les besoins des utilisateurs finaux. Vous aurez les missions suivantes : -Collaborer avec les équipes techniques fonctionnelles et techniques afin de comprendre les exigences métiers -Concevoir et développer des maquettes, des prototypes et des wireframes pour les solutions Salesforce, en prenant en compte les principes de conception centrée sur l'utilisateur Collaborer avec les développeurs Salesforce pour assurer l'implémentation réussie des conceptions UX/UI dans les solutions Salesforce -Participer à un projet de refonte d'une application full custom vers le standard Salesforce, en alignant les conceptions UX/UI avec les fonctionnalités standard de la plateforme -Effectuer des tests utilisateurs et des itérations pour améliorer en continu l'expérience utilisateur sur Salesforce -Assurer une veille constante sur les tendances et les évolutions en matière de conception UX/UI et les intégrer dans les projets Salesforce

Freelance
CDI

Offre d'emploi
Data Architect

UNITED SOLUTIONS
Publiée le
Big Data
Google Cloud Platform

12 mois
60k-70k €
Lille, Hauts-de-France

Contexte et Enjeux de la Mission : Dans le cadre d’une transformation numérique ambitieuse , une grande entreprise française, leader dans son secteur, recherche un(e) Data Architect pour moderniser et unifier son écosystème de données. Le projet se concentre principalement sur l’implémentation et l’optimisation d’une architecture sur Google Cloud Platform (GCP) , visant à améliorer la gestion des données à grande échelle et la qualité des insights pour les équipes métiers. Basé à Lille , vous interviendrez à un moment clé de ce projet stratégique, avec pour objectif de créer une architecture évolutive, scalable et résiliente, tout en facilitant l'exploitation des données pour l'ensemble des départements. Vos Responsabilités : Conception et mise en place d’une architecture data robuste sur Google Cloud Platform (GCP), en accord avec les meilleures pratiques de gestion des données et de sécurité. Structurer et gérer les pipelines de données pour garantir des flux fluides, fiables et sécurisés. Assurer la qualité et la gouvernance des données via la mise en place de standards, d’outils de monitoring, et de processus de validation. Collaborer de manière étroite avec les équipes Data Engineering et Data Science pour maximiser l’utilisation des données et proposer des améliorations continues. Apporter une vision stratégique à long terme, en anticipant les évolutions nécessaires pour adapter l'architecture aux besoins futurs de l'entreprise. Documenter les solutions et former les équipes internes sur l'utilisation et la maintenance des nouvelles structures.

Freelance

Mission freelance
Développeur BI - Talend cloud / Power BI / Snowflake

COEXYA
Publiée le
Microsoft Power BI
Snowflake
Talend

1 an
450-550 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un(e) Consultant(e) Développeur BI pour participer activement à l'évolution et au développement du Système d'Information Décisionnel de notre client. Le consultant sera en charge de la mise en œuvre de solutions BI sur une nouvelle plateforme Data, reposant sur les technologies Talend Cloud, Snowflake, et Power BI. Vous serez impliqué(e) dans le développement de flux de données, la modélisation BI, ainsi que la création et la maintenance de rapports décisionnels. Vos missions principales incluent : Développement et optimisation des flux de données sur Talend Cloud. Modélisation de DataSet et création de rapports sur Power BI. Rédaction de spécifications techniques pour les solutions développées. Participation aux réunions techniques et aux phases de tests et de recettes. Support et maintenance des solutions BI en production.

Freelance

Mission freelance
SAP expert

Comet
Publiée le
Sap BO
SAP Fiori
SAP HANA

100 jours
150-580 €
Orly, Île-de-France

OBJECTIFS GLOBAUX : La prestation consiste en un renfort des équipes internes de la DSI sur le domaine SAP BC(développement). La prestation attendue portera sur l'ensemble des activités prises en charge par le centre de service SAP (= équipe technique SAP) de la DSI : - Développement et expertise technique forte sur le domaine SAP BC - Projets - MCO - Administration ; Exploitation & SAP CONTEXTE DE LA PRESTATION ATTENDUE : ADP utilise les solutions SAP depuis plus de 25 ans, avec un large périmètre applicatif déployé : - ECC6 (Modules FI, CO, MM, SD, PS, PM, HR, RE-FX) - Un système S/4 HANA (FI, CO, MM, SD) et PS en 2023 - GRC - SOLMAN - BW et BPC - Portails SAP et Content servers - Suite SAP EPM (BFC, DM, PCM,)+ BODS et FIM ainsi que PaPM d'ici fin 2023 - SAP BO Les systèmes SAP sont implémentés sur OS/BD Microsoft. En 2024 va débuter un grand programme de transformation de l'écosystème SAP actuel qui permettra au groupe ADP de définir et mettre en place les meilleurs outils et les meilleures pratiques pour réussir la transformation digitale des processus de gestion et prendre en compte les nouveaux axes stratégiques du groupe sur le moyen terme. Compte tenu du périmètre, il s'agit d'un vaste programme qui s'étalera sur plusieurs années, au moins jusqu'en 2028. La Direction des Systèmes d'Information recherche un consultant technique SAP pour venir renforcer les équipes internes d'ADP sur une mission de longue durée. Missions principales : - Le freelance interviendra en tant que Chef de projet externe rattaché au centre de service SAP (DSIEC) de la Direction des Systèmes d'Information. - Il interviendra en renfort dans le cadre du programme de transformation "NEW ERP" mais également sur l'ensemble des opérations de MCO des solutions SAP et plus spécifiquement des activités de développement SAP. Il aura plus particulièrement en charge les domaines suivants : - Réalisation de développements, habilitations, ... - Les études et l’expertise technique sur l'ensemble du périmètre SAP - Les études et l’expertise autour de nouveaux produits SAP qui seront déployés dans le cadre du programme "NEW ERP" - La gestion de la maintenance sur ces produits et gestion des incidents (End to end Analysis) Il assurera pour les projets et opérations qui lui seront confiés : - La gestion en mode projet, et le suivi de la mise en œuvre des produits et solutions réalisés - Le pilotage de prestataires - La participation au maintien en conditions opérationnelles des environnements en service.

Freelance

Mission freelance
Consultant TMA - SAP APO/BW

Focustribes
Publiée le
APS
SAP
SAP BW

6 mois
600-1 200 €
Île-de-France, France

Projet: En tant que Consultant Senior SAP APO , vous interviendrez sur les responsabilités suivantes : • Participer à la définition de la stratégie Supply Planning en étroite collaboration avec les équipes métier et IT. • Contribuer aux travaux de sélection et à la réalisation de Proofs of Concept (POC) pour les solutions APS identifiées. • Analyser les processus existants et rechercher des opportunités de convergence et d’amélioration. • Assurer la gestion des projets de déploiement SAP APO (planification, suivi budgétaire et livrables). • Être le garant des bonnes pratiques SAP et de l’implémentation des solutions conformes au Core Model. • Proposer des solutions adaptées pour les équipes Supply Chain et documenter les évolutions et les améliorations continues.

Freelance

Mission freelance
Chef de Projet BI - Talend cloud / Power BI / Snowflake

COEXYA
Publiée le
Microsoft Power BI
Snowflake
Talend

1 an
450-600 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un(e) Chef(fe) de projet BI expérimenté(e) pour accompagner notre client dans l'évolution de son Système d'Information Décisionnel. La mission consiste à piloter des projets BI sur une nouvelle plateforme Data, principalement basée sur les technologies Talend Cloud, Snowflake, et Power BI. Le Chef de projet BI sera en charge de la gestion complète des projets, de la conception à la mise en production, en passant par la rédaction de spécifications techniques et fonctionnelles, ainsi que la réalisation de développements et la gestion des tests. Les principales responsabilités incluent : Participation aux réunions avec les métiers pour comprendre les besoins. Pilotage des projets BI, suivi de l’avancement et reporting régulier au responsable Data. Développement de solutions BI sur Talend Cloud et Power BI. Recette, tests et mise en production des solutions développées.

CDI

Offre d'emploi
Ingénieur Data Expert Power BI

Management Square
Publiée le
Big Data
Microsoft Power BI

40k-52k €
Arcueil, Île-de-France

Nous recherchons un Data Engineer confirmé, expert en Power BI, pour rejoindre une équipe dynamique au sein d'une grande entreprise. Vous jouerez un rôle clé dans la conception, le développement et l'optimisation de solutions de reporting et de visualisation de données pour répondre aux besoins de nos utilisateurs et parties prenantes. Créer et maintenir des rapports Power BI performants et adaptés aux besoins des utilisateurs Participer activement à la migration des rapports existants de Power BI Report Server vers Power BI Service Concevoir, développer et optimiser des modèles de données et des cubes pour assurer des performances optimales Appliquer les meilleures pratiques en matière de visualisation de données Collaborer étroitement avec les équipes IT et métiers pour une intégration fluide des solutions Sécuriser l'accès et la diffusion des données en conformité avec la politique de sécurité de l'entreprise Comprendre les besoins métiers et proposer des améliorations pour les applications et projets de transformation Se tenir informé des nouvelles fonctionnalités de Power BI et proposer des optimisations

Freelance
CDI
CDD

Offre d'emploi
CLoud DevOps - GenAI

bdevit
Publiée le
AWS Cloud
CI/CD
Cloud

36 mois
50k-60k €
Île-de-France, France

Dans le cadre de ces développements, le DataLab Groupe souhaite confier à un expert Cloud DevOps/AI Engineer, venant en renforcement de son équipe usine logicielle, la mission suivante : - Travailler sur des sujets de migration de solution « on premise » vers le cloud ; - Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; - Assurer l’intégration dans les architectures cible : Configurer les plateformes, Industrialiser les architectures, Définir les accès aux ressources et les optimiser ; - Assister à l’élaboration de solutions et leurs optimisations ; - Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative ; - Rédiger les documents techniques et des livrables projets ; - Améliorer les architectures actuelles ; - Transférer la connaissance et la compétence aux internes du DataLab Groupe. Résultats Attendus des Livrables : Le consultant sera accompagné par l’équipe usine logicielle. Il devra, par ailleurs, fournir les livrables suivants : - Une documentation conforme aux exigences du DataLab Groupe ; - Un support de l’ensemble des applications gérées en interne ; - Un support de l’ensemble des applications de nos entités et déployés par le DataLab Groupe ; - Codes sources commentés et « reviewés » ; - Intégration de tests unitaires des fonctionnalités développées ; Présentation et partage des travaux.

Freelance

Mission freelance
DEV Vue.JS

KN CONSULTING
Publiée le
Docker
Gitlab
Hadoop

6 mois
100-450 €
Paris, France

Objet de la prestation : développement collaboratif Pour répondre aux besoins métier d’analyse et de restitution de données opérationnelles, certains acteurs métier ont développé des solutions avec des langages informatiques telles que R, Python, Excel Visual Basic. Soucieux de maîtriser les risques inhérents à ces pratiques éparses et tout en souhaitant conserver une dynamique pour améliorer le traitement des données du SI de la DOAAT, le projet Développement Collaboratif alias « DevCo » a été lancé. L’ambition du projet est de définir l’organisation, la gouvernance et les éléments technologiques pour offrir : · un cadre plus maitrisé aux développements métiers · une meilleure capacité d’intégration et d’industrialisation des cœurs de data-science et des développements métiers dans le SI · une capacité à réaliser des développements plus rapides et à coûts réduits sur une plateforme bénéficiant d’un niveau de service moindre. Pour réussir ce projet, une communauté « DevCo » a été constituée avec différents profils: 4 · Un animateur (équivalent « Product Owner ») pour aider à constituer la liste des réalisations prioritaires - Un référent technique / expert développement et déploiement continu · Un architecte d’entreprise pour orienter les choix de conception et accompagner les différentes équipes dans la mise en œuvre (DevCo, équipes de developpment SIME, BigDATA, …) · Des développeurs des équipes métier · Des Data Engineers · Des Data Scientists

Freelance
CDI

Offre d'emploi
Data Engineer

SARIEL
Publiée le
Agile Scrum
Apache Spark
Big Data

3 ans
10k-62k €
Paris, France

Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

CDI

Offre d'emploi
Intégrateur DevOps - F/H - Vitrolles

ENGIT
Publiée le
Apache Kafka
API REST
CI/CD

38k-40k €
Vitrolles, Provence-Alpes-Côte d'Azur

Les principales missions sont : Votre maitrise des chaînes CI/CD contribuera à la qualité de la construction et du déploiement de nos systèmes applicatifs Votre expertise technique vous permettra d’éprouver le système et de participer à son amélioration Vous participerez à l’intégration technique du système applicatif déployé et à la mise en place des bonnes pratiques depuis l'environnement de développement jusqu'à l’exploitation Intégrer, configurer et déployer les applications PSPDV dans un contexte de DEV et Intégration SI Modifier, optimiser les configurations des différents environnements (DEV / INT / PERF) Gérer une dizaine de composants et leurs versions à travers les chaines CI/CD Suivies des anomalies dans l’outil de suivi

Freelance

Mission freelance
Architecte Data

HAYS MEDIAS
Publiée le
CI/CD
Docker
ETL (Extract-transform-load)

6 mois
100-540 €
Lille, Hauts-de-France

Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev

CDI

Offre d'emploi
Profils Data en pré-embauche

SARIEL
Publiée le
Big Data

10k-65k €
Paris, France

Pour un de nos clients situé dans la région parisienne nous cherchons en pré-embauche, les différents profils suivants: Profils Data maitrisant DataLake. La connaissance de l'anglais est un vrai plus. Nous recherchons obligatoirement des profils en CDI et non des indépendants. Le salaire est compris entre 45 et 55 Ke pour les confirmés et entre 55 et 60-65 Ke pour les experts. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance

Mission freelance
Architect data

ESENCA
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
500-600 €
Lille, Hauts-de-France

L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev

CDI

Offre d'emploi
Manager de Projet SI (PMO)

Management Square
Publiée le
Gestion de projet
Microsoft Power BI

50k-67k €
Île-de-France, France

Nous recherchons pour notre client dans le secteur bancaire un expert en Management de Projet SI (PMO) pour rejoindre une équipe en Île-de-France. Missions principales : Analyser en détail les coûts d'infrastructures dans le cadre de projets de transformation (Cloud, sourcing, etc.) Établir et suivre des business cases Exploiter les données de volume d'infrastructure et de coûts des services Modéliser les données dans les outils financiers et les référentiels Projeter les coûts dans le temps selon diverses hypothèses de transformation

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

376 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous