Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Analyst (H/F)
🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Ingénieur Cloud Platform GCP & AWS
Dans le cadre d’un remplacement, notre client recherche un Platform Engineer au sein de l’équipe Cloud Development. Cette équipe est en charge: Du développement d’une API permettant d'orchestrer les interconnexions des nouveaux projets Du développement d’un provider Terraform permettant de consommer l’API De l’accompagnement des équipes sur leur utilisation Du développement d’outils liés : Fronts web, CMDB, … De la mise en place de l’écosystème associé: CI/CD, Monitoring, ... L’équipe est actuellement composée de 4 ingénieurs et d’1 manager. Vos missions : - Vous participez à la conception et au développement de l’orchestrateur - Vous aidez à l’application des bonnes pratiques de développement d’engineering (pratiques de tests, Architecture Decision Record, …) - Vous travaillez en collaboration avec les équipes de la CPE sur le développement des features de notre plateforme - Vous assistez les clients internes à l’utilisation des solutions gérées par l’équipe - Vous participez aux mentoring des collaborateurs (Peer Programming, Peer Review) - Vous assurez le Run et l’astreinte (une semaine toutes les 4 semaines) sur les composants de l’équipe - Vous êtes amené à vous déplacer sur Lille (vie du collectif, évènements d'équipe ou de BU) L'environnement technique : Cloud Service Providers : GCP & AWS Python (FastAPI) Go (Terraform Plugin Framework) Github, Github actions Datadog GCP Cloud Run & GCP Workflows Terraform Processus : 2 entretiens Go - No Go
Offre d'emploi
SysOps H/F
Votre 1er projet : Vous accompagnerez notre client historique de la région, dans le domaine de la supply chain. Votre intégrerez une équipe chargée de développer plateformes et outils digitaux dédié à se contexte particulier. Le Sysops sera chargé de la mise en place des stacks technique (infrastructure, delivery, monitoring, ...) pour les environnements applicatifs tout en ayant la responsabilité de les maintenir. Vos missions : Garantir la disponibilité des applications Garantir la sécurité des infrastructures des applications Donner un maximum d'autonomie aux utilisateurs Analyser et résoudre les incidents Aider à la conception des nouvelles plateformes Cloud pour héberger les applications à venir Améliorer le monitoring Automatiser Contribuer au sein de la communauté d’experts interne Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !
Mission freelance
Développeur Back-end (PYTHON)
Développement en Python En tant Développeur Back-end, vous interviendrez sur le produit Data Pipelines, qui rassemble un ensemble d’outils permettant aux équipes produits de construire et monitorer leurs data pipelines en complète autonomie. À la demande du Métier, vous analysez, paramétrez et codez les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Vous êtes curieux et assurez une veille sur les nouvelles technologies, architecture et pratiques internes Anglais Lu, écrit (Impératif)
Offre d'emploi
Analytics Engineer Looker Sénior | Casablanca 100% REMOTE
Dans le cadre de la mise en œuvre du programme de valorisation de la donnée de notre client, tu devras concevoir, implémenter et livrer les nouvelles fonctionnalités de stockage, de traitement et de visualisation de données intégrées aux produits de notre client qui soient robustes, sécurisées, évolutives, hautement disponibles et dynamiques. ACTIVITÉS PRINCIPALES Concevoir, développer, opérationnaliser, sécuriser et surveiller des systèmes de stockage, de traitement et de visualisation de données sur Looker. Développer et opérationnaliser des systèmes de stockage, de traitement et de visualisation de données Développer une compréhension fine et approfondie des domaines métiers et des modèles de données.
Offre d'emploi
Data Engineer Expert GCP | Casablanca 100% Remote
skiils recrute un Data Engineer Expert GCP (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Python, Spark Kafka & Kafka-stream Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible dans une environnement cloud GCP . Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Mission freelance
Expert Databricks - Développement Python
Conception de solutions azure, optimisation de l'efficacité et de la qualité de la gestion des données en mettant en œuvre des processus automatisés, des normes de sécurité et une collaboration interfonctionnelle pour faciliter l'analyse et la prise de décision Conception et création des chaînes ci/cd pour databricks et data factory Développement des pipelines data ETL, ETL (Azure Data Factory, Databricks) Création des pipelines d’ingestion avec rivery Développement d’une solution Spark SQL pour extraire, copier et anonymiser les données dans un autre environnement Mise en place des solutions de monitoring et d’alerting Développement d’une solution finops sur databricks Participation a l’upgrade de Databricks, metastore vers unity catalog.
Mission freelance
Lead Data GCP Python Power BI
Nous recherchons un(e) Lead Data Engineer expérimenté(e) pour rejoindre une équipe digitale dynamique dédiée à la gestion des données. Vous serez en charge de l’industrialisation de l’infrastructure data, ainsi que de la qualité, de la sécurité, et du respect de la vie privée des données. Vous travaillerez sur des environnements Cloud (GCP et AWS) et piloterez une équipe de 2 Data Engineer . Mise en place d’environnements cloisonnés (Dev, Préprod, Production). Automatisation du déploiement et de la maintenance via des outils Infrastructure as Code (Terraform) . Implémentation de solutions d’observabilité (monitoring, alerting). Maintenance et développement de pipelines de données en Python (batch et streaming). Création de pipelines SQL/SQLX avec Data-Form (similaire à DBT). Déploiement et gestion d’un outil de data quality (ex. Great Expectations). Développement de workers AWS pour gérer les flux entre Kafka et Pub Sub sur GCP. Connaissance de DataFlow (Apache Beam) appréciée. Standardisation du code avec linting, CI/CD et divers tests. Documentation des processus internes et schémas d’architecture. Coopération avec les équipes Data (analystes, SEO/SEA, emailing). Respect du RGPD avec anonymisation et archivage des données. Sécurisation de l’infrastructure, des données et du code
Mission freelance
Développer C# - Python
- Comprendre rapidement l’existant (API cloud, structure SQL, et performances actuelles). - Analyser les choix techniques effectués et proposer des alternatives en accord avec les besoins métiers. - Développer et optimiser des modules en C#, tout en proposant des solutions complémentaires en Python si nécessaire. - Collaborer avec l’équipe pour restructurer la solution en mode Agile, avec une architecture modulaire. - Participer à l’intégration de la supervision des données collectées de 3000 stations, tout en garantissant des temps de réponse optimaux. - Apporter une vision technique sur les technologies à privilégier pour garantir une pérennité des solutions. Pourquoi accepter cette mission ? 1. Projet stratégique : Vous participerez à la refonte d’une solution clé utilisée dans 3 000 stations-service, avec un impact direct et des enjeux techniques stimulants. 2. Polyvalence et défis techniques : Une mission diversifiée touchant au cloud Azure, aux API, et à l’intégration de données, dans un environnement mêlant matériel et logiciel. 3. Rôle clé : Vous serez moteur dans les choix techniques et l’optimisation des performances, avec une autonomie et des responsabilités accrues. 4. Collaboration et flexibilité : Une équipe à taille humaine, jusqu’à 2 jours de télétravail par semaine, et une mission adaptable (2 mois renouvelables).
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Mission freelance
Développeur Senior DJANGO / PYTHON (H/F)
Notre client, un acteur clé dans le secteur de la logistique, recherche un Développeur Python expérimenté, spécialisé dans le framework Django, pour rejoindre son équipe technique. Cette mission est idéale pour les développeurs autonomes, à la recherche d’un environnement flexible et stimulant. Vos missions : En tant que Développeur Python/Django, vous serez chargé de : • Concevoir, développer et maintenir des applications web robustes en Python avec le framework Django. • Participer à l’analyse des besoins fonctionnels et à la rédaction des spécifications techniques. • Optimiser et améliorer les fonctionnalités existantes pour garantir performance et fiabilité. • Assurer les phases de test et de débogage des applications développées. • Collaborer étroitement avec les autres membres de l’équipe pour garantir l’alignement des solutions techniques avec les objectifs métier.
Offre d'emploi
Data Analyst (Exp. Secteur Média OBLIGATOIRE) - Suisse
Intégrer une équipe en charge des problématiques de Data Engineering et Data Analytics. Équipe de 5 personnes. Collecte, Traitement, Nettoyage et Analyse des données (plateforme web / mobile, streaming, ...). Conception et maintenance des dashboards. Requetage des bases SQL. Restitution, exploitation et reporting des données sous Power BI. Solides connaissances en développement (ex : Python) un gros plus. Solides connaissances des concepts d'orchestration des données, GIT, DBT, ... un gros plus.
Offre d'emploi
Data Engineer Python/SQL
Data Engineer Python/SQL Dans le cadre d'une équipe dédiée à la gestion des données globales et transverses pour un acteur majeur de la finance de marché, vous participerez à des projets stratégiques autour de la gestion et de l’analyse des données pre-trade. Vous contribuerez au développement et au maintien d’outils de détection d’abus de marché basés sur des modèles statistiques, en mettant en œuvre des solutions techniques avancées en Python et SQL dans un environnement technico-fonctionnel exigeant.
Mission freelance
Data Engineer - SDDS Finance
Client : Secteur luxe et beauté Mission : Data Engineer - SDDS Finance Expérience : + 5 ans Localisation : Offsite Démarrage : 02/01/2025 Objectifs/Descriptif de mission : Compétences requises: - GCP (focus on BigQuery, Cloud Run, Cloud Build) -SQL -Python -DevOps (Github) -API Development (Flask RestX or FastAPI) -Terraform Contexte de la prestation : Dans le cadre de la transformation Beauty Tech de notre client, l'équipe Engineering de la Data Factory Team à deux missions: 1- Développer la Beauty Tech Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du groupe L'Oréal 2- Développer des use cases Data sur la Beauty Tech Data Platform à l'aide des équipes de la Data Gouvernance.
Mission freelance
Développeur Python Fastapi & angular
Développeur fullstack Python / Angular : ▪ TMA - Développements des corrections et évolutions technico-fonctionnelles sur les produits en responsabilité du service ▪ Projets - Développements des US sur la base des spécifications technicofonctionnelles mises à disposition ▪ Développements des tests unitaires inhérents ▪ Rédaction des documentations techniques ▪ Participation aux codes reviews d’équipes Compétences attendues : -Back : Python 3+ (fastapi, aiohttp, aioredis, aiopika…) -Front : Angular / AngularJS / Javascript / Typescript
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.