Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
CONCEPTEUR-DEVELOPPEUR 2
Contexte : La Direction Système d’Information (DSI) souhaite se renforcer pour contribuer aux projets (métier, technique, sécurité, poste de travail, hébergement, ...etc.). La DSI est organisée en 4 pôles avec un pôle projets, un pôle développement, un pôle infrastructure et un pôle RSSI. Le SI est un SI B2B organisé pour le métier principalement autour d’un portail client (MonCompte, d’APIs, d’un CRM (MS Dynamics), d’une commande/livraison (système de gestion des dossiers) et d’un datawarehouse. L’environnement de développement est orienté sur les solutions Microsoft et l’hébergement est réalisé par un prestataire en mode IaaS. MISSIONS : À la demande de la maîtrise d’oeuvre, et sur la base des spécifications fonctionnelles émises par celle-ci, le concepteur-développeur analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. .
Offre d'emploi
Consultant Qlikview
Nous recherchons un(e) Consultant Junior Qlikview pour rejoindre notre équipe au sein d'un client reconnu pour ses projets Data. Entretien : semaine du 23/09 Démarrage mission : courant Octobre Lieu : Paris TT : 50 % L'objectif général de la mission est de participer à la maintenance évolutive des reporting Qlikview et à la migration des applications vers Power BI. Missions : Maintenance évolutive des reporting Qlik View Participation aux études et à la migration des applications de Qlik vers Power BI Travail en mode agile avec des livrables par sprints de 2 semaines Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation
Offre d'emploi
Data Engineer H/F
Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. HardSkills DataEngineering obligatoires: Maitrise des process d’ingestion en batch et streaming quel que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, …) et quel que soit le Cloud provider en entrée(AWS/AZURE). • Expertise BDD Snowflake avec minimum 3 ans d’expérience(SQL, Rôle, Virtual Warehouse, Datamodelling) • Parfaite maitrise des modèles de données. Les consultants seront référent technico fonctionnel sur plusieurs domaines métier(2 à 3 domaines suivant la complexité). • Très bonne maitrise des langages Javascript(impératif), SQL, T-SQL, PowerShell, Python. • Création d’app, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy) • Optimisation de requête et performance, factorisation du code, respect de l’état de l’art • Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality. • Développement de cube tabulaire PBI (M et DAX) • Support Niveau 3 sur le périmètre des socles applicatifs et reporting associés • Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops • Mise en place des bonnes pratiques (technique, fonctionnel, corpus documentaire) • Animation de communauté Développeur
Offre d'emploi
Data Scientist (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Scientist (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développer et optimiser des modèles de machine learning (prédiction, classification, clustering, etc.) ; 🔸 Collecter, nettoyer, traiter et modéliser les données ; 🔸 Effectuer des analyses exploratoires pour identifier motifs, tendances et anomalies ; 🔸 Assurer la qualité des analyses et des modèles produits ; 🔸 Collaborer avec les équipes techniques et non techniques pour résoudre des problèmes spécifiques ; 🔸 Mettre en production et optimiser les modèles développés ; 🔸 Visualiser les résultats et fournir des insights stratégiques ; 🔸 Accompagner la montée en compétences des équipes internes.
Offre d'emploi
Référent Power BI
Expertise technique : Assurer la maîtrise technique de la plateforme Power BI. Être le référent technique pour l'ensemble des utilisateurs. Développer et maintenir des rapports, des tableaux de bord et des visualisations de haute qualité. Optimiser les performances et la scalabilité des modèles de données. Accompagnement des utilisateurs : Former et accompagner les utilisateurs sur les différentes fonctionnalités de Power BI. Recueillir et analyser les besoins des utilisateurs pour adapter les solutions. Assurer un support de niveau 2 et 3. Gouvernance des données : Contribuer à la définition et à la mise en œuvre d'une gouvernance des données cohérente. Garantir la qualité, la fiabilité et la sécurité des données utilisées dans Power BI. Innovation : Être force de proposition pour l'évolution de la plateforme Power BI et l'intégration de nouvelles fonctionnalités. Suivre les évolutions technologiques et les meilleures pratiques en matière de BI.
Mission freelance
Développeur GO senior - Ressources humaines - Paris - H/F
Nous sommes une entreprise innovante basée en région parisienne, œuvrant dans le secteur du numérique avec une forte orientation vers les solutions cloud et serverless. Actuellement, nous sommes en plein essor et cherchons à renforcer notre équipe technique composée d'ingénieurs hautement qualifiés. Nos projets varient de la construction d'applications web modernes à des solutions d'infrastructure cloud complexes. Ce poste de Développeur Senior Golang avec une spécialisation sur AWS Serverless est ouvert pour répondre à notre besoin croissant en développement de solutions performantes et scalables dans le cloud.
Mission freelance
Developpeur Power Platform sur MBC
Contexte de la mission Pour répondre aux besoins des métiers qui utilisent MBC (EV charging, Renouvelables...), réaliser des développements sur MBC et sur la PowerPlatform en relation avec le tech lead, avec une volonté de rester proche du standard autant que possible. Contexte mondial avec parfois des localisations et des addons sur les environnements MBC. Utilisation de presque tous les domaines fonctionnels couverts par MBC. Présence d'une TMA pour sur support fonctionnel et technique (correctifs).
Mission freelance
Consultant PowerBI pour Projet Supplychain
PROPULSE IT recherche un Consultant Power BI pour développer et déployer un dashboard PowerBI accompagnant le renforcement de la gouvernance d'optimisation des stocks (domaine de la supplyChain et plus particulièrement l'optimisation des valeurs d'exploitation des stocks). Un POC pour l'identification des stocks a été réalisé et nécessite d'être fiabilisé et amélioré. La prestation couvre les activités suivantes : •Traduction des besoins en termes techniques •Développement itératif de l'outil PowerBi (premier MVP sous 3 semaine puis enrichi) •Documentation opérationnelle et technique du livrable •Accompagnement du déploiement donc environnements
Mission freelance
data scientist
Le Data Scientist pourra intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Il travaillera en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, il interviendra sur les différentes étapes clés, y compris : - La compréhension des besoins et des enjeux identifiés et leur traduction en une problématique de data science lorsque c’est pertinent. - L’identification, l’exploration et la préparation de données. - L’identification des algorithmes pertinents - L’entrainement, l’optimisation, l’interprétation et le déploiement de modèles de Machine Learning le cas échéant - La conception d’A/B Tests et d’outils permettant de piloter la performance des modèles et de mesurer leur impact en s’appuyant sur des KPIs pertinents. - La présentation de la démarche et des résultats aux différentes parties prenantes. Livrables Analyses de données Modèles statistiques et machine learning Résultats des modèles Compétences - Modélisation statistique et Machine Learning - Maitrise de Python et des librairies de data science courantes (Pandas, Scikit-learn, XGBoost,..) - Maitrise de SQL et Git - Connaissance de l’environnement cloud GCP - Outil de visualisation de données (PowerBI, Looker Studio, etc.) - Très bon niveau de communication et d’autonomie ainsi qu’une bonne force de proposition et une capacité à prendre des initiatives - La connaissance du monde Retail sera un plus
Offre d'emploi
Dataviz - Tableau - Spark
AGH Consulting recherche pour un de ses clients un Data Analyste : La mission vise à : • Conception : Contribution aux ateliers de conception de nos solutions, conseils en vue de la création de la Data Visualisation • Collecte et extraction des données : Collecte et rassemblement des données pertinentes à partir de diverses sources (Datalake Groupe, Référentiels Groupes, autre sources, etc...) • Nettoyage et préparation des données : Gestion des données pour éliminer les erreurs et les redondances, et préparation pour une analyse précise. • Visualisation des données (activité principale) : Création des visualisations claires et informatives pour répondre aux besoins ; Outil utilisé dans notre environnement : Tableau Software (Desktop, Prep) ; (PowerBI en étude) • Traitement et maintenance des dashboards : implémentation et maintien en condition opérationnelle de champs calculés complexes et dashboards associés • Documentation : information sur les avancées en matière d’outils et de techniques d’analyse de données pour améliorer continuellement les méthodes utilisées. Contexte anglophone.
Mission freelance
Chef de Projet Data Technico fonctionnel
Contexte : Dans le cadre de la mise en place d'un data warehouse (sur les domaines finance, RH, relation client, ...), nous recherchons un chef de projet technico fonctionnel expérimenté. MISSIONS : Pilotage du projet et coordination avec les parties prenantes, reporting Animation d’ateliers sur les besoins avec les métiers Animation d’ateliers avec les responsables applicatifs Pilotage opérationnel de l'équipe Modélisation et spécification fonctionnelles et techniques Capacité à challenger les développements Technologies utilisées : PostgreSQL pour la base de données de l’entrepôt Talend pour l’extraction, la transformation et le stockage des données dans la base Microsoft Power BI pour l’exploitation et la restitution des données de l’entrepôt
Offre d'emploi
Data Analyst (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst (H/F) 🚀 💡 Votre mission est pour un client reconnu dans le secteur de l’énergie, comptabilisant plus d’un million de clients, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. ⚡️ 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développer des modèles de données et des tableaux de bord Power BI intuitifs ; 🔸 Gérer la collecte, le nettoyage, le traitement et la modélisation des données ; 🔸 Assurer la qualité et l'intégrité des analyses et dashboards ; 🔸 Optimiser les processus décisionnels.
Offre d'emploi
SAP BO & Data Stage
Participe aux réunions de préparation des chantiers de prise en compte des demandes utilisateurs - Participe à l'analyse des besoins et à la rédaction des spécifications fonctionnelles - Participe à la sélection de solutions adéquates - Assiste dans la rédaction les spécifications techniques - Participe à la mise en œuvre de la solution - Participe au développement des jobs Datastage et assure les tests unitaires - Participe au développement et à la maintenance des univers et des rapports BO - Participe à la définition du plan de recette - Participe aux phases de tests d'intégration et de recette fonctionnelle - Participe à la livraison des projets et en garantit la conformité - Participe au suivi de production d'un ou plusieurs projets - Maîtrise les questions fonctionnelles d'un ou plusieurs domaines de compétence métiers - Fonctionnement agile (fonctionnement itératif par cycle et fortes interactions avec le métier commanditaire)
Offre d'emploi
Data Analyste - F/H - Lille
Au sein de la direction Retail Data International, nous recherchons un Analytics Engineer afin de renforcer la palette de compétences présentes au sein de nos équipes composées de Product owner, Data Analyst & Data Engineer. Le scope métier couvre l'ensemble des activités du retail (Marketing / Finance / Produit etc). Missions : Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. Assure la maintenance de ce qui a été produit. Réalise des recettes techniques et fonctionnelles. Veille au respect des normes et des pratiques de référence de la Data. Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données Garantit l’alignement et la cohérence des solutions data Travaille en étroite collaboration aussi bien avec les équipes techniques que métier. Livrable : Script SQL Dashboard PV de recette
Mission freelance
Data Engineer
Dans le cadre de la mise en place de Microsoft Fabric, nous recherchons un(e) consultant(e) Microsoft Fabric pour accompagner nos équipes dans l'optimisation de cette solution pour répondre aux besoins en matière de gestion des données et de business intelligence (BI). Missions : Participer à la conception, au déploiement et à la configuration de Microsoft Fabric en fonction des besoins spécifiques du métier. Intégrer les sources de données diverses (ERP, CRM, bases de données, fichiers plats, API, etc.) dans Microsoft Fabric Configurer les pipelines de données, les environnements de stockage (data lakes, entrepôts de données) et les fonctionnalités d'analytique avancée. Fournir un support technique et des recommandations pour résoudre les problèmes de performance ou d’optimisation. Assurer la maintenance des solutions déployées et mettre en œuvre des évolutions selon les besoins. Collaborer avec les équipes métier et les équipes IT pour définir les stratégies de gestion des données.
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes