Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 507 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
CDI

Offre d'emploi
Business Analyst H/F

NOOEH
Publiée le
Business Analyst
Business Process Model and Notation (BPMN)
User acceptance testing (UAT)

30k-60k €
Marseille, Provence-Alpes-Côte d'Azur

NOOEH Entreprise de Service du Numérique basée à Aix-en-Provence recherche pour le compte d'un de ses clients situés à Marseille un.e Business Analyst. Vous serez en charge de l’analyse des besoins et de la documentation des exigences pour des projets de solutions de terminaux. En tant qu'analyste d'affaires, votre objectif est de comprendre et d'évaluer les besoins et les procédures du terminal et de documenter les exigences du projet (implémentation, migration ou mise à niveau de la solution de terminal) en coordination avec toutes les parties prenantes concernées en utilisant les normes de diagramme BPMN. En fonction de votre expérience, vous êtes censé fournir des recommandations pour répondre aux besoins. Responsabilités : Définition des besoins commerciaux : comprendre, collecter, analyser et remettre en question les besoins fonctionnels des utilisateurs et traduire les besoins pour la solution de terminal Définition des processus commerciaux tels quels et à venir : définition du nouveau processus commercial, des impacts sur les processus existants et des KPI ciblés Spécifications commerciales Rédaction des spécifications commerciales, intégration des contraintes de mise en œuvre dans le système d'information et accompagnement du déploiement des solutions. Analyse des besoins de l'entreprise et production des modèles de flux de processus requis Identification de toutes les exigences d'interface requises pour la solution de terminal avec des solutions tierces (ERP, EAM/CMMS, PCS, etc.) Processus de sélection des appels d'offres Production de tous les documents d'exigences de la solution de terminal nécessaires au processus de sélection de la solution de terminal Évaluation des propositions de solution de terminal Examen détaillé des spécifications Participation aux ateliers d'analyse des écarts avec l'équipe locale et les fournisseurs Examen des spécifications détaillées et des spécifications de produit fournies par les fournisseurs et les fournisseurs de solutions Définition, exécution et suivi du plan de test Définition du plan de test et des stratégies de migration des données Assurer l'exactitude des plans UAT ainsi que la bonne exécution des activités UAT Interagir avec les experts opérationnels pour fournir un travail testé et de haute qualité qui répond aux exigences convenues S'assurer que les résultats UAT répondent à toutes les exigences opérationnelles et fonctionnelles de la solution de terminal Gestion du changement Soutenir l'équipe locale du terminal dans la mise en œuvre de la gestion du changement (mise en œuvre de nouveaux processus, formation des personnes de l'UAT à la mise en service).

CDI

Offre d'emploi
Analyste Echange Flux Data

AGH CONSULTING
Publiée le
Data analysis
Linux
Microsoft Windows

10k-61k €
Saint-Denis, Île-de-France

AGH Consulting recherche pour un de ses clients un Analyste Echange Flux Data. La mission consiste à : • Rédaction de dossiers d'urbanismes, contrats d'interfaces • Réalisation de recettes techniques sur des traitements de fichiers de données de type XML, JSON, BDD, CVS • Capacité d'analyse et de diagnostic en cas de problème sur des traitements de fichiers de données • Capacité d'animation, à travailler de manière autonome et à rendre compte • Conduite d'ateliers avec des partenaires SI et la TMA • Utilisation des outils permettant d'exploiter des protocoles SFTP, HTTPS, JMS, KAFKA, JDBC, CFT, SMTP

Freelance

Mission freelance
DATA Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le
Azure Data Factory
Git
Snowflake

1 an
100-400 €
Île-de-France, France

Nous recherchons pour un de nos clients basés en IDF, un consultant Data pour une mission freelance (longue visibilité) Notre client recherche des consultants Data expérimenté (Front et Back Office) afin de mener les nouveaux projets de transformations démarrant en T4-2024 : Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. Les environnements techniques et compétences obligatoire pour les 4 profils sont : SQL et T-SQL (SQL server 2017+ et SGBD PaaS : SMI & Synapse Azure) GIT Snowflake Cube tabulaire (PaaS) MS Azure Data Factory (Kafka envisagé aussi à terme pour gérer les flux stream…) Power BI (DAX, M) Power BI Reporting Services / Paginated Reports Streamlit

Freelance

Mission freelance
Data Business Analyst F/H

METSYS
Publiée le
Data management
Data Warehouse

1 an
480-500 €
Courbevoie, Île-de-France

METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur assurantiel un.e Data Business Analyst (F/H) pour une mission de longue durée à Courbevoie (92), pour un démarrage prévu fin octobre. Dans le cadre de cette mission, vous seriez amené.e à concevoir et à modéliser un socle fonctionnel pour permettre l'intégration de données tierces dans la data warehouse de notre Client, et ce au sein d'un environnement international.

Freelance
CDI

Offre d'emploi
Référent Power BI

Lùkla
Publiée le
Agile Scrum
Azure
Azure Data Factory

2 ans
60k-70k €
Paris, France

Expertise technique : Assurer la maîtrise technique de la plateforme Power BI. Être le référent technique pour l'ensemble des utilisateurs. Développer et maintenir des rapports, des tableaux de bord et des visualisations de haute qualité. Optimiser les performances et la scalabilité des modèles de données. Accompagnement des utilisateurs : Former et accompagner les utilisateurs sur les différentes fonctionnalités de Power BI. Recueillir et analyser les besoins des utilisateurs pour adapter les solutions. Assurer un support de niveau 2 et 3. Gouvernance des données : Contribuer à la définition et à la mise en œuvre d'une gouvernance des données cohérente. Garantir la qualité, la fiabilité et la sécurité des données utilisées dans Power BI. Innovation : Être force de proposition pour l'évolution de la plateforme Power BI et l'intégration de nouvelles fonctionnalités. Suivre les évolutions technologiques et les meilleures pratiques en matière de BI.

Freelance
CDI

Offre d'emploi
Business Analyst Technico-Fonctionnel Data

VPEX-IT
Publiée le
Base de données
Business Analyst
Data analysis

1 an
10k-45k €
Île-de-France, France

recrute pour le poste de 𝗕𝘂𝘀𝗶𝗻𝗲𝘀𝘀 𝗔𝗻𝗮𝗹𝘆𝘀𝘁 𝗧𝗲𝗰𝗵𝗻𝗶𝗰𝗼 𝗙𝗼𝗻𝗰𝘁𝗶𝗼𝗻𝗻𝗲𝗹 𝗗𝗮𝘁𝗮 ! 💻 - 𝗜̂𝗹𝗲-𝗱𝗲-𝗙𝗿𝗮𝗻𝗰𝗲 𝗖𝗼𝗺𝗽𝗲́𝘁𝗲𝗻𝗰𝗲𝘀 𝗿𝗲𝗾𝘂𝗶𝘀𝗲𝘀 Maîtrise de SAS et des bases de données Oracle Compétences en analyse de données Bonne communication, capacité d'adaptation rapide Expérience dans la rédaction de spécifications fonctionnelles Validation de tests Quelques avantages : · RTT · Télétravail · Prise en charge des transports en commun à hauteur de 100% · Carte Ticket Restaurant · Management de Proximité de tous nos collaborateurs N'hésitez pas à postuler et rejoindre une équipe dynamique et innovante ! 📍 Localisations : Île-de-France Envoyez nous votre candidature dès maintenant !

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

Offre premium
CDI

Offre d'emploi
Ingénieur d'études en électronique

DATACORP
Publiée le
CAO
I2C
Microsoft Office

10k-45k €
Carros, Provence-Alpes-Côte d'Azur

Au sein d’une équipe de 12 personnes sous la supervision du Responsable R&D, vous êtes chargé de l’étude et de la conception de la partie matériel (hardware) des équipements électroniques des projets et des applications. Vous assurez le cycle complet de réalisation et coordonnez les différentes étapes liées au développement et fabrication de nouveaux produits jusqu’à la livraison et la recette client. Vous participez à la conception et au développement de nouveaux produits, applications ou système dans le cadre d'un projet client ou interne. - Collecter et analyser les besoins du client, vérifier la faisabilité du projet, estimer le délai de réalisation du projet - Traduire techniquement les besoins fonctionnels et rédiger le cahier des charges technique - Définir l'architecture matérielle et fonctionnelle d'un équipement électronique - Réaliser la conception et le développement du produit dans les délais impartis - S’assurer de l’industrialisation et de la testabilité du produit - Identifier et anticiper les approvisionnements de composants critiques - Coordonner et suivre les étapes de CAO et de production en assurant un support technique aux équipes - Mettre en œuvre essais et tests de fonctionnement, corriger et valider le produit - Etablir des rapports de mesure et de validation, piloter le suivi des projets - Assurer une veille technologique et réglementaire - Assurer l’analyse et le bilan technico-économique des projets - Contribuer à l'amélioration des produits du service Vous travaillerez en interface avec le service R&D, le Bureau d’Etudes et la Production et serez en contact direct avec les clients. Permis B OBLIGATOIRE Minimum 2-3 ans d'expérience sur une mission similaire

CDI

Offre d'emploi
Data Engineer Power BI H/F

AMAGO EXPERTISE
Publiée le
Apache Airflow
Azure Data Factory
Databricks

10k-56k €
Saint-Denis, Île-de-France

AMAGO IT recherche dans le cadre d'une mission de longue durée chez un client GC basé en IDF 93 : Data Engineer H/F Missions : · Participation aux ateliers de conception technico-fonctionnels · Prise en charge des activités de développement · Remontée d’informations aux équipes de pilotage · Participation aux daily et autres cérémonies agiles · Chiffrage et réestimation du reste à faire au fil des développements · Développement des fonctionnalités en respectant les bonnes pratiques définies · Développement des tests automatisés · Correction des anomalies fonctionnelles et/ou techniques · Participation aux différentes communautés techniques

Freelance

Mission freelance
Architect Data

VISIAN
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
100-570 €
Boulogne-Billancourt, Île-de-France

L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Data Analyst

ADSearch
Publiée le
Data analysis
DevOps

3 mois
100-500 €
Lyon, Auvergne-Rhône-Alpes

- L’application suit la qualité du service du client à travers l’analyse de son activité. L’application est utilisé dans les cadres contractuels ), dans le cadre d’interventions préventives sur le terrain, dans le cadre d’analyse de situation, dans le cadre de bilan qualité et dans le cadre de la réglementation française. o Analyse qualitatif et quantitatif des données des bases de données, sur les activités suivantes : Analyse des remontés utilisateurs Demandes d’analyse ponctuelle de la direction technique Analyse pour aider la conception des développements Etudes pour améliorer le modèle de données Valider la qualité des données traitées dans l’application Consolider la vision fonctionnelle des données

Freelance

Mission freelance
DATA ENGINEER 5

KEONI CONSULTING
Publiée le
Cycle en V
Data analysis
Méthode Agile

12 mois
100-400 €
Paris, France

Contexte : La Direction Système d’Information (DSI) souhaite se renforcer pour contribuer aux projets (métier, technique, sécurité, poste de travail, hébergement, ...etc.). La DSI est organisée en 4 pôles avec un pôle projets, un pôle développement, un pôle infrastructure et un pôle RSSI. Le SI est un SI B2B organisé pour le métier principalement autour d’un portail client (MonCompte, d’APIs, d’un CRM (MS Dynamics), d’une commande/livraison (système de gestion des dossiers) et d’un datawarehouse. L’environnement de développement est orienté sur les solutions Microsoft et l’hébergement est réalisé par un prestataire en mode IaaS.

Freelance

Mission freelance
Expert Data et BI

SKILLWISE
Publiée le
Azure Data Factory
Databricks
PySpark

3 mois
100-1k €
Paris, France

L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Data Engineer 3

KEONI CONSULTING
Publiée le
Azure Data Factory
Jenkins
Méthode Agile

12 mois
100-400 €
Saint-Denis, Île-de-France

Contexte de la mission : La DSI du client final a mis en place une Data Plateforme pour faciliter la mise en œuvre des projets Data. Elle souhaite aujourd’hui mettre en place en son sein une équipe d’experts compétents pour développer les projets Data et la piloter directement. MISSIONS : Participation aux ateliers de conception technico-fonctionnels Prise en charge des activités de développement, écriture du code Remontée d’informations aux équipes de pilotage Participation aux stand-up daily et autres cérémonies agiles Échanges techniques avec les autres Data engineer et développeurs Chiffrage et réestimation du reste à faire au fil des développements Développement des fonctionnalités en respectant les bonnes pratiques définies Développement des tests automatisés (TU/TI) Correction des anomalies fonctionnelles et/ou techniques Participation aux différentes communautés techniques

Freelance

Mission freelance
Data Analyst Power BI – Lyon (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Data analysis

6 mois
450-550 €
Lyon, Auvergne-Rhône-Alpes

Bonjour, Nous recherchons pour l'un de nos clients basé à Lyon, un(e) Data Analyst spécialisé(e) sur Power BI pour une mission de 6 mois minimum . Vos missions principales : Collecter, analyser et interpréter les données afin d’aider à la prise de décision. Créer et maintenir des tableaux de bord et des rapports via Power BI . Collaborer avec les équipes métiers pour identifier leurs besoins en données et fournir des solutions adaptées. Participer à l'amélioration continue des processus de traitement et d'analyse des données. Assurer la qualité et la fiabilité des données utilisées.

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist (H/F)

Accelite
Publiée le
Alteryx
Apache Maven
Apache Spark

1 an
40k-55k €
Paris, France

En tant que Data Analyst ou Data Scientist (H/F), vous contribuez au sein de grands comptes bancaires, à l’analyse, le traitement et la restitution des données bancaires et financières. A ce titre, vous avez pour missions : Recueil et analyse des besoins Rassemblement et traitement des données chiffrées Nettoyage des données afin de supprimer les doublons Réalisation d’algorithmes pour les exploiter Conception et construction des actifs informatiques dédiés au management des données (Data préparation, Data visualisation) Conception et développement du code ou des scripts qui s’appuient sur des données structurées et non-structurées en provenance de différentes sources et qui alimentent les actifs informatiques dédiés à l’exploitation des données Participation aux campagnes de tests Installation et configuration des logiciels requis dans le respect du cadre de référence Maintenance des solutions et intervention en support lorsque nécessaire Documentation des use cases et des développements effectués

507 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous