Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
QA AUTOMATICIEN - DATABRICKS
Contexte de la mission : Nous recherchons un(e) QA Engineer freelance (niveau avancé à senior) pour rejoindre l'équipe de Test et de Delivery, basée à Paris. Votre mission sera d'assurer la qualité des produits, depuis les tests manuels jusqu'au développement de scripts d'automatisation, en garantissant un niveau de qualité des données conforme aux exigences internes et externes avant chaque livraison. Vous interviendrez dans un environnement technique complexe, sous la supervision d'un Test Manager, et jouerez un rôle clé dans l'atteinte des objectifs du programme en challengeant la qualité à différents niveaux tout en assurant la liaison avec les parties prenantes.
Mission freelance
Senior Data Engineer
• Mise en place et exécution du framework et des pipelines de traitement de données : o Connectez-vous à diverses sources de données brutes (API internes/externes, lacs de données cloud, bases de données) pour ingérer des données dans Databricks o Mettre en œuvre des transformations de données à grande échelle pour automatiser la création de nouvelles données à des fins d'analyse o Créer et gérer des bases de données et des solutions de stockage de données efficaces (SQL/NoSQL) pour organiser les données structurées et non structurées. o Exposition de données via des API, Datamarts, SQL Endpoints, solutions de Dashboarding o Assurer la qualité, la cohérence et la sécurité des données, conformément aux normes de l'industrie. • Développer des API REST à l'aide d'un framework Web Python tel que FastAPI • Rejoignez une équipe projet multidisciplinaire et multiculturelle, travaillant en collaboration avec DevOps, Data Scientists, Project Managers • Documentez les flux de travail, les modèles de données et les configurations de pipeline pour garantir la transparence et la facilité d'utilisation pour les analystes et les parties prenantes
Mission freelance
architecte pyspark - 3 mois
Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.
Mission freelance
Architecte IT transverse Infrastructure / Production
PROPULSE IT recherche un ARCHITECTE INFRASTRUCTURE avec une très bonne expertise de la production. - accompagner des experts techniques et des chefs de projet Infrastructure dans la mise en œuvre de projets Build, qui peuvent couvrir l'ensemble de l'environnement technique du client. - Réfléchir aux préconisations, et challenger les différentes options - Communiquer, et accompagner l'adoption des solutions Connaissances et expériences en Architecture, et de projet production de bout en bout, sur les domaines suivants - les technologies en datacenter : • stockage : EMC, Netapp, • sauvegarde : CommVault • Réseau : CISCO, Checkpoint, Fortinet, F5 - les systèmes d'exploitation serveurs : RedHat Linux et Microsoft Windows - les technologies de virtualisation : VMware, OpenStack, Container Docker - les technologies de bases de données : Oracle, PostgreSQL, MongoDB, SQL Server - les technologies de serveurs d'applications : Weblogic, Tomcat, Apache - les technologies d'orchestration et d'ordonnancement : VRO / VRA, Kubernetes, XOS-Axway - les technologies de Devops : GitLab, Gitub, Ansible, Terraform - les technologies de Provider Cloud : Microsoft Azure, AWS - les technologies de gestion de la sécurité : PKI - les technologies de gestion des identités : LDAP, Active Directory, Bastion - les technologies de supervision et de métrologie : BMC Patrol, Centreon, Nagios
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Engineer H/F
Analyser des données en temps réel avec Azure Stream Analytics Collecter des données via des flux entre les bases de référence et Azure Afficher des données entrantes avec Event Hub Développer des programmes en Spark Scala Créer un pipeline Azure Data Factory pour exécuter Databricks notebook afin de traiter les données Traiter en batch des données Stocker des données dans le Datalake Azure Créer des projets et stocker du code sur Azure DevOps Réaliser la documentation avec Confluence (source des données, technos utilisées : Databricks, Azure Data Factory, Azure DevOps..., destination des données, stockage, monitoring…)
Offre d'emploi
DATA ENGINEER AZURE SCALA PYSPARK
Vous rejoindrez une Data Factory, dont l'objectif est de concevoir et déployer des solutions Analytics innovantes pour les magasins, les fonctions support, la logistique, et surtout, les consommateurs. Notre client visent à industrialiser nos pratiques pour accélérer la livraison de nos produits tout en maximisant l'utilisation de notre patrimoine de données. Vous intégrerez une squad dédiée au développement de cas d'usage en BI, Analytics et Data Science, sur leur plateforme Data hébergée sur le Cloud Azure.
Offre d'emploi
skiils se renforce et cherche son Data engineer confirmé
Data Engineer maitrisant(e) pyspark et airflow qui aidera le client à construire de nouveaux indicateurs et à les fiabiliser. L"équipe Forecast a pour mission de mettre à disposition dans le Datalake , les datasets qui concernent les prévisions de ventes. Pour remplir à bien sa mission, le Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Etre capable de transformer une donnée brute en un indicateur
Mission freelance
Architecte cloud azure et Data
Nous recherchons pour notre client un architecte cloud azure et data pour une mission longue a Issy les moulineaux -Réflexion & brain storming sur l’architecture et l’ensemble des composants Azure data à mettre en place pour chaque cas d’usage -Redaction des DAT HLD LLD -Mise en place des PoC -Réalisation des documents d’architecture technique pour chaque région et chaque cas d’usage (Data Science) -Réalisation des architectures de migration de certaines applications vers le cloud Azure (SQL Sever, SSIS, Azure data factory, Azure SQL database, etc…)
Mission freelance
Devops/développeur Java
Contexte L’équipe Infrastructure au sein de la Direction des Systèmes d’Information du client recherche un(e) profil DevOps/Developpeur Full Stack pour la gestion opérationnelle de ses infrastructures. • Une infrastructure MultiCloud (AWS – 90%, Azure, GCP) • L’hébergement de Portails Web (10 portails) et Services Backend (+200 applications dockerisées) • L’hébergement d’une Factory DevOps (CICD/Testing/Monitoring) • L’hébergement d’une plateforme Data Analytics, DataViz, • L’hébergement d’une plafeforme d’Echange (Serveurs de fichiers, ETL, Bases de données) Principaux périmètres pour cette mission : Mise en place d'un portail de Self Service Infrastructure avec API AWS (gestion du frontend et backend) Participation à la mise en place d’une Landing Zone AWS en remplacement de deux comptes historiques Migration/Création de l’infrastructure de micro-services java, nodejs, php vers Landing zone Réalisations de nouvelles infrastructures pour les demandes des équipes applicatives Intégration des applications sur ECS, dockerisation, déploiement Intégration des applications dans l’écosystème DevOps (CI/CD, Monitoring, Testing) Création de pipelines CI/CD sur Jenkins et Gitlab CI Infrastructure as code avec Terraform Provisioning de l’Infrastructure avec Ansible Support aux équipes applicatives et troubleshooting sur les anomalies Gestion du RUN et des incidents de production Environnement technique: • Cloud : AWS (EC2, ECS, RDS, S3, EKS, ELK, …) / Azure / GCP • Langage applicatif : JBOSS, Widlfly, Spring, NodeJS, PHP, • IAC : Docker, Terraform, Ansible, • FACTORY : Jenkins, Okta, Grafana, Splunk, Gitlab, Kubernetes, Jira, Confluence, API Management • DATA : TIDB, Databricks, Informatica, MS-BI, Oracle GoldenGate, Hadoop, Spark, EMR, SAS, • DataBase : MySQL, SQL Server, MariaDB, MongoDB, ORACLE
Mission freelance
DBA - Administrateur base de données
Tâches de la mission : - Intégrer les projets applicatifs - évolutions de version, de migration sur les applications - Proposer des solutions techniques, proposer des architectures data - Réaliser les scripts, participer la mise en œuvre - Former / accompagner les membres de l’équipe à la montée en compétence sur databrick Ex de projet : - Migrer les Databrick en privé - Mettre en place la sécurité à travers Unity Catalogue - Conseil sur le design des catalogues - Le requêtage à travers les EndPoint SQL - Support prod sur des incidents de performance essentiellement (Bases de données classiques et Databrick ) - Savoir trouver la ou les requêtes qui sont longues sur la base - Savoir trouver le plan d’exécution en cours, le comprendre et l’analyser - Bien connaitre le fonctionnement du moteur base de données, la gestion de la mémoire, l’exploitation des tables systèmes - Scripter / automatiser : Powershell ou scripts dans Databrick - Contrôle / supervision / remédiation sur des actions d’administration classique - Rédaction de Roadbook de résolution - Rédaction de procédures (how to do)
Mission freelance
Architecte data azure senior
Bonjour, Pour le compte de notre client, nous recherchons actuellement un Architecte data cloud Azure. Livrable n°1 : Cadrage et chiffrage des projets Accompagnement au cadrage du besoin auprès de nos clients Réalisation d’études et formalisation des architectures envisagées en appui sur les solutions cloud adaptées au besoin Lot 3 : Contribution au chiffrage global du projet Lot 4 : Réalisation éventuelle de Proof Of Technologies le cas échéant Livrable n°2 : Conception technique de la solution Formalisation des documents standards (DAL, DAT) Lot 2 : Veiller à la conformité de la solution sur les plans standards technologiques et en phase à la politique de sécurisation du SI client. Livrable n°3 : Accompagner la prise en charge du build projet Assurer une passation aux équipes de réalisation Le cas échéant, apporter de l’expertise lors de la phase de build (automatisation…). Accompagner à la mise en robustesse et à l’identification des optimisations financières et techniques tout au long du projet.
Mission freelance
Architecte Data / Databricks / PowerBI / Dataiku
VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit, le développement et la data. Dans le cadre de nos projets clients, nous recherchons un Architecte Data avec une bonne connaissance de Databricks. Dans le cadre du développement de leur Data Platform, le client souhaite renforcer son équipe data, challenger son architecture et les aider dans le développement de la plateforme. Il doit également avoir connaissance de tous les aspects de l'architecture type modern data plateform : ingestion, chargement, exposition, visualisation Le profil doit être en mesure d'interagir avec l'architecture d'entreprise du client, cadrer les enablers globaux, définir les scénarios de mise en oeuvre pour les différentes équipes
Mission freelance
Data analyst
Les missions à pourvoir sont multiples : -Challenger les dashboards et les datasources existants. (accompagner du leader et ingénieur DATA) -S’appuyer sur les sources de données déjà existantes -Recueillir le besoin avec les équipes métiers -Construire si nécessaire les maquettes des dashboards pour validation avec nos utilisateurs clés -Construire et mettre à disposition les dashboards -Etre à l’écoute des nos utilisateurs afin d’adapter / corriger les dashboards mis à dispositions au fil du projet
Mission freelance
Ingénieur Technique Data/MLOps
Contexte : Notre plateforme data science sur Azure est en construction, et nous avons besoin d'un renfort sur le rôle de Data/MLOps engineer. Le dataops a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. MISSIONS : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers En tant que data/mlops engineer sur notre plateforme CLAUD.IA.
Offre d'emploi
Data Engineer Python / AWS / Databricks / Spark
Nous recherchons pour l'un de nos clients, une entreprise du CAC 40, un(e) Data Engineer senior pour intégrer une mission longue de 3 ans. Le rôle du Data Engineer senior dans ce projet impliquera la conception et la mise en œuvre des composants de plateforme suivants : • Ingestion de données • Traitement et normalisation des données. • Distribuer les données aux différentes parties prenantes. • Construire et améliorer un cadre commun comprenant la surveillance, le CI/CD, les tests, les performances, la résilience, les pratiques de développement et la qualité du code…
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes