Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data engineer AWS
Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais
Offre d'emploi
DATA ENGINEER
Bonjour à tous, Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer : Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données. Déploiement et gestion des workflows sur Databricks , avec une optimisation continue des performances des pipelines. Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres. Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques. Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées. Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées. Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés. Apache Spark : Expertise dans le traitement de données massives via Spark. GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue. CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents. Expérience d’au moins 3 à 5 ans dans un rôle similaire. Connaissance des architectures de données distribuées et expérience en ETL et transformation de données. Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines. Expérience en méthodologies de travail Agile/Scrum.
Mission freelance
Data Scientist (H/F) – Paris
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Scientist (H/F) – Paris Mission à pourvoir en régie sur Paris Présence sur site : 3 jours / semaine Compétences obligatoires : Databricks ; Machine Learning ; Forecast ; Python ; Anglais ; Spark Votre mission : · Concevoir et mettre en œuvre la trajectoire des produits pour de nouveaux usages. · Soutenir la vision globale de l’IAM via une approche user, market, tech et corporate. · Définir la feuille de route des fonctionnalités attendues à court et moyen terme. · Imaginer et prioriser, avec la squad, de nouvelles fonctionnalités et améliorer les existantes. · Co-construire et animer les OKR avec la squad, le Group Product Manager et l'Engineering Manager. · Gérer et piloter le budget du produit. · Raffiner les initiatives produits et rédiger les epics et user stories pour la backlog. · Organiser des sprints pour livrer de la valeur rapidement. · Construire une communauté d’utilisateurs pour recueillir leurs feedbacks. · Accompagner les autres Product Managers en partageant bonnes pratiques et méthodes. REF : EFP/UNXX/ODVB Plus d’offres sur :
Mission freelance
QA AUTOMATICIEN - DATABRICKS
Contexte de la mission : Nous recherchons un(e) QA Engineer freelance (niveau avancé à senior) pour rejoindre l'équipe de Test et de Delivery, basée à Paris. Votre mission sera d'assurer la qualité des produits, depuis les tests manuels jusqu'au développement de scripts d'automatisation, en garantissant un niveau de qualité des données conforme aux exigences internes et externes avant chaque livraison. Vous interviendrez dans un environnement technique complexe, sous la supervision d'un Test Manager, et jouerez un rôle clé dans l'atteinte des objectifs du programme en challengeant la qualité à différents niveaux tout en assurant la liaison avec les parties prenantes.
Mission freelance
Un Intégrateur Applicatif / Ingénieur de Production Devops
Contexte Vous intégrerez une équipe dynamique travaillant sur des projets innovants dans un environnement technologique varié et stimulant. Missions principales Automatisation des déploiements (CI/CD) via des outils comme Ansible, Jenkins, GitLab Runner et scripting Bash Résolution d'incidents de niveau 2/3 et assistance à l'équipe d'exploitation Rédaction de documentation technique pour l'équipe de Production Mise en place de tenants dans le cloud (architecture 3 tiers) avec OpenStack et déploiement de containers Docker Configuration de la supervision (CheckMK) et des sauvegardes (BDD/FS) sur le Cloud Déploiements sur les environnements de Qualification/Tests et retour d'expérience aux chefs de projet/développeurs Tâches diverses d'administration BDD et système (migrations, augmentation de FS, etc.)
Offre d'emploi
Développeur / architecte senior Azure et .NET
Nous recherchons un spécialiste senior Azure et .NET, avec à la fois des capacités d'architecture logicielle et de développement logiciel. Vos missions consisteront notamment à : • Contribuer à la conception et au développement de solutions numériques performantes orientées client : architecture, développement, test, livraison, maintenance et support (DevOps). L'environnement est principalement basé sur le cloud MS Azure, avec de fortes exigences en matière de cybersécurité. • Participer au déploiement de la chaîne d'outils de développement et de maintenance, y compris les pipelines CI/CD, l'évaluation de la qualité, les tests automatisés, le suivi des solutions en production, etc. • Potentiellement, agir en tant que responsable technique pour certains projets impliquant des développeurs. • Participer à la veille technologique …
Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri
Ingénieur MLOPS Montpellier (1 Senior et 1 Junior) DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.
Offre d'emploi
Senior Data Scientist
Skills Méthodes d'inférences statistiques Modélisation et développement d'un framework de mesure de la performance. Expertise approfondie du Machine Learning et en particuliers des statistiques Production de code “robuste” permettant l’industrialisation, le passage à l’échelle et le maintien de la solution IA Maîtrise indispensable de Python et de ses librairies Data Science Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. Maîtrise de l’Anglais indispensable.
Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka
Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi
Offre d'emploi
Développeur Python / FastAPI
VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit, le développement et la data. Dans le cadre de nos projets clients, nous recherchons un développeur Python / FastAPI L'entité du client est responsable de la conception, du développement et de la production du système d’information et des infrastructures. Il conçoit et met à disposition des Lignes Métiers et des Fonctions Supports Back Office et Risques les systèmes informatiques nécessaires à l’exercice de leurs missions. Il est également en charge du bon fonctionnement et du support opérationnel de ces systèmes.
Offre d'emploi
Data Analyst (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst (H/F) 🚀 💡 Votre mission est pour un client reconnu dans le secteur de l’énergie, comptabilisant plus d’un million de clients, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. ⚡️ 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développer des modèles de données et des tableaux de bord Power BI intuitifs ; 🔸 Gérer la collecte, le nettoyage, le traitement et la modélisation des données ; 🔸 Assurer la qualité et l'intégrité des analyses et dashboards ; 🔸 Optimiser les processus décisionnels.
Mission freelance
Senior Data Engineer
• Mise en place et exécution du framework et des pipelines de traitement de données : o Connectez-vous à diverses sources de données brutes (API internes/externes, lacs de données cloud, bases de données) pour ingérer des données dans Databricks o Mettre en œuvre des transformations de données à grande échelle pour automatiser la création de nouvelles données à des fins d'analyse o Créer et gérer des bases de données et des solutions de stockage de données efficaces (SQL/NoSQL) pour organiser les données structurées et non structurées. o Exposition de données via des API, Datamarts, SQL Endpoints, solutions de Dashboarding o Assurer la qualité, la cohérence et la sécurité des données, conformément aux normes de l'industrie. • Développer des API REST à l'aide d'un framework Web Python tel que FastAPI • Rejoignez une équipe projet multidisciplinaire et multiculturelle, travaillant en collaboration avec DevOps, Data Scientists, Project Managers • Documentez les flux de travail, les modèles de données et les configurations de pipeline pour garantir la transparence et la facilité d'utilisation pour les analystes et les parties prenantes
Mission freelance
Développeur Data
MISSIONS: Développer et maintenir des pipelines de données avec Azure Data Factory. Créer et gérer des rapports et tableaux de bord avec Power BI. Concevoir et optimiser des bases de données SQL. Travailler avec Databricks pour le traitement et l’analyse des données. Développer des scripts en Python pour automatiser les processus de données. Gérer et intégrer des API REST. Utiliser les services SSIS de SQL pour les processus ETL. COMPETENCES: Expérience avec les technologies Azure Data (Data Factory, Power BI, SQL, Databricks). Compétences en développement Python. Connaissance des API REST. Expérience avec les services SSIS de SQL.
Offre d'emploi
Devops sénior
Participer au choix de solution et à l'amélioration continue Elaborer les preuves de concepts, les tests et/ou maquettes à vérifier et réaliser l'étude d'impact sur l'architecture existante ou prévisionnelle pour tout nouveau projet ou toute nouvelle technologie Mettre en place la chaine (CI/CD) Implémenter des outils de configuration et d'automatisation pour industrialiser les processus de déploiement Analyser et résoudre les anomalies liées à la performance et à la scalabilité des systèmes Assurer un support sur les anomalies escaladées de l'équipe Exploitation en proposant des correctifs et/ou des solutions de contournements Rédiger et maintenir à jour les livrables Environnement technique : Jenkins, Ansible, yaml, groovy, GIT, Docker, Kubernetes, Maven, Linux, Apache, Nginx, Grafana
Mission freelance
Expert Data et BI
L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.
Offre d'emploi
DevOps Transfert de Fichiers
Bonjour, Nous sommes actuellement à la recherche de notre prochain DevOps en cette période de pré-rentrée, pour l'un de nos partenaires, leader dans son secteur. Mission de longue durée jusqu'au moins 2027. L’objectif est que vous puissiez rejoindre l'équipe de notre partenaire pour aider l’équipe transfert de fichier (Middleware) à mettre en place une solution en self service pour leur nouvelle solution Secure Transport sur Azure. Missions : Mise en place d’actions github pour permettre aux utilisateurs de créer leurs demandes Mise en place de la gouvernance (via Action Github, Service Now puis appels d’APIs vers Secure Transport / Terraform) Automatisation des actions répétitives identifiées par l’équipe transfert de fichiers Mise en place de la solution Secure Transport dans la compagnie Rythme : 2 jours par semaine à prévoir sur site à Valbonne Poste à pourvoir dès que possible !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes