Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri
Ingénieur MLOPS Montpellier Senior DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Mission freelance
Architecte BigData/Hadoop
Contexte : Vous intégrerez le service DBAs & Socles de la direction technique pour une mission de pilotage et de mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop afin de répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Description : Évolution des architectures techniques : - Mise en place des principes directeurs sur l’utilisation du cluster Cloudera; - Vérification de la bonne application des normes et des standards; - Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster; - Étude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop; - Prise en compte de l’écosystème DSI : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; Expertise Hadoop de niveau 3 : - Configuration du cluster Cloudera en fonction des besoins identifiés; - Optimisation des traitements ; Support : - Accompagnement des équipes de développement; - Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances;
Mission freelance
Senior Data Architect (Snowflake)
Je suis à la recherche d'architectes de données seniors pour un projet à long terme de bout en bout. Rôle : Architecte de données senior Durée du contrat : Long terme Lieu : Paris : Paris Travail hybride Date de début : Fin octobre/début novembre Vous rejoindrez une nouvelle mission à long terme pour superviser un projet de transformation complet pour notre client. Vous travaillerez sur la modélisation et l'architecture des données, en partant de zéro. Profile: Vous avez une expérience confirmée de plusieurs projets d'architecture de données, idéalement à partir de zéro. Une solide expérience et connaissance de l'architecture de Snowflake, y compris le partage des données, la mise à l'échelle et les pratiques de sécurité. Compétence dans la conception et l'optimisation des bases de données Snowflake Capacité à créer des modèles de données complexes et à architecturer des pipelines ELT/ETL à l'aide d'outils tels que SNowpipe, Google Dataflow ou d'autres services GCP. Forte compréhension de la confidentialité des données, des normes de sécurité et des meilleures pratiques, y compris la gestion de l'accès, le cryptage et la conformité. Anglais courant
Offre d'emploi
Développeur - Big Data | Spark (H/F)
📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.
Mission freelance
Backlog Manager (H-F)
Principales responsabilités Dans le cadre de sa transformation, la division Data & Regulatory souhaite renforcer ses équipes avec un Backlog Manager , dont les missions seront les suivantes : Construire et gérer un Backlog Global pour la division. Collaborer étroitement avec les leaders de chaque stream et les Product Owners pour livrer la roadmap globale de la division. Assurer la préparation et l'exécution des artefacts Agile clés (planification stratégique, PI planning, Sprint planning...). Animer les scrums et maintenir à jour le tableau de bord Scrum. Garantir un service de haute qualité , en comprenant l'environnement de travail et les attentes métiers. Coordonner avec les leaders IT et les managers de release pour garantir un déploiement fluide en production. Assumer le rôle de Chef de projet global en suivant de près les parties prenantes internes et externes. Superviser la cohérence du Backlog et veiller à son alignement avec les priorités stratégiques. Assurer une communication fluide avec les autres responsables de streams et la direction IT.
Mission freelance
Développeur fullstack (avec culture data, automatisation Machine Learning, IA)
Bonjour, Nous recherchons pour notre client grand compte un Développeur fullstack. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/DEV/4528 en objet de votre message Description du besoin : Le client (secteur médias) recherche un prestataire Développeur Fullstack pour rejoindre son équipe d'innovation. Le prestataire sera rattaché au responsable de l’Innovation au sein de la direction Stratégie Digitale et Innovation (de la DSI). De la conception au développement/déploiement, le prestataire sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes de la DSI de notre client. Tâches principales : Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI du client Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab
Offre d'emploi
Data Engineer Python/Spark
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.
Mission freelance
Product Owner Sénior - BORDEAUX
Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes.
Offre d'alternance
Data Engineer Junior (H/F) - Alternance
L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires une fintech parisienne, un profil Data Engineer Junior (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Développement et Maintenance des Pipelines de Données : Concevoir, développer et optimiser des pipelines de données pour extraire, transformer et charger (ETL) les données Assurer la collecte, le stockage, la transformation et la diffusion des données provenant de diverses sources internes et externes Gestion des Bases de Données : Participer à la gestion et à l’optimisation des bases de données relationnelles et non relationnelles Collaborer à la modélisation des données et à la création de schémas de bases de données adaptés aux besoins de l’entreprise Qualité et Intégrité des Données : Mettre en place des processus de contrôle de la qualité des données Identifier et résoudre les problèmes de qualité des données, et proposer des améliorations continues Collaboration et Support : Travailler en étroite collaboration avec les data scientists, data analysts et autres équipes métiers pour comprendre leurs besoins en données et y répondre efficacement Fournir un support technique et résoudre les incidents liés aux pipelines de données Conditions de l'offre : Une opportunité unique de travailler sur des projets innovants et à fort impact Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise. Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP
Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes
Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Offre d'emploi
Data Architect
Contexte et Enjeux de la Mission : Dans le cadre d’une transformation numérique ambitieuse , une grande entreprise française, leader dans son secteur, recherche un(e) Data Architect pour moderniser et unifier son écosystème de données. Le projet se concentre principalement sur l’implémentation et l’optimisation d’une architecture sur Google Cloud Platform (GCP) , visant à améliorer la gestion des données à grande échelle et la qualité des insights pour les équipes métiers. Basé à Lille , vous interviendrez à un moment clé de ce projet stratégique, avec pour objectif de créer une architecture évolutive, scalable et résiliente, tout en facilitant l'exploitation des données pour l'ensemble des départements. Vos Responsabilités : Conception et mise en place d’une architecture data robuste sur Google Cloud Platform (GCP), en accord avec les meilleures pratiques de gestion des données et de sécurité. Structurer et gérer les pipelines de données pour garantir des flux fluides, fiables et sécurisés. Assurer la qualité et la gouvernance des données via la mise en place de standards, d’outils de monitoring, et de processus de validation. Collaborer de manière étroite avec les équipes Data Engineering et Data Science pour maximiser l’utilisation des données et proposer des améliorations continues. Apporter une vision stratégique à long terme, en anticipant les évolutions nécessaires pour adapter l'architecture aux besoins futurs de l'entreprise. Documenter les solutions et former les équipes internes sur l'utilisation et la maintenance des nouvelles structures.
Offre d'emploi
Data Engineer Sénior
Missions: · Développement Scala/Spark · Maîtrise de l’environnement technique (AWS Databricks, AWS S3) · Expériences sur la Qualité logicielle (revue de code ; conformité aux critères de qualité SONAR, tests automatisés) · La connaissance de Power BI (Azure) est un plus -Les compétences fonctionnelles attendues sont les suivantes : · Méthode Agile · Expérience sur des projets de technologies similaires · Connaissance du domaine Data · Expérience de travail sur des projets en équipe, (notamment savoir solliciter son écosystème au bon moment)
Offre d'emploi
Chef de Projet Technique Data – Chaîne Affluence
Contexte Dans le cadre d'un projet d'information voyageurs en Île-de-France, nous recherchons un Chef de Projet Technique Data pour améliorer la disponibilité et la qualité des données d’affluence transmises en temps réel aux usagers des transports. Votre rôle sera essentiel pour garantir la fiabilité et la précision des informations sur les taux d'occupation à bord et en gare. Missions principales En tant que Chef de Projet Technique Data, vous serez responsable de superviser et d’optimiser la chaîne de données d'affluence. Vos missions incluront : Évaluation des données et mise en place des standards de qualité : Réaliser un état des lieux du fonctionnement actuel, définir les indicateurs de qualité et fixer des objectifs de performance. Analyse et amélioration continue : Identifier les sources d'anomalies, proposer des solutions et assurer le suivi des actions correctives. Supervision des données : Développer et utiliser des tableaux de bord pour le suivi en temps réel des indicateurs de qualité tels que la complétude, la cohérence et la fraîcheur des données (outils PowerBI, Kibana, DataDog). Gestion de projet et coordination : Collaborer avec les équipes techniques et fonctionnelles, communiquer les avancées et assurer la coordination avec les différents responsables d'API et d'outils de comptage.
Offre d'emploi
Data Manager – Video - Automobile (F/H)
📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Nous recherchons un Data Manager pour renforcer son équipe dédiée à la validation du système de surveillance des conducteurs . Ce système est basé sur des caméras embarquées dans l'habitacle des véhicules, qui enregistrent des données telles que le niveau de fatigue, de vigilance et de stress du conducteur. L'objectif est de gérer l'ensemble du cycle de vie des données générées, depuis leur collecte jusqu'à leur archivage et leur traitement. Vos responsabilités : Assurer la gestion des données de validation (collecte, traitement, stockage, archivage) pour le système DMS. Tâches principales : Prendre les disques durs contenant les données collectées dans les véhicules. Gérer et stocker ces données (incluant des volumes massifs tels que des vidéos en streaming). Archiver les données et estimer les coûts liés à ce processus. Transférer les données vers les différents sites du client. Assurer la conformité aux exigences RGPD. Injecter les données dans des bancs de tests pour la validation. Étudier des solutions de stockage sur le cloud (GCP et AWS par exemple).
Mission freelance
Azure Data Architect
Nous sommes à la recherche d'un Architecte de données Azure pour l'un de nos principaux clients, spécialisé dans la BI et l'analytique. Il s'agit d'un poste en freelance, le candidat sera donc rémunéré sur une base horaire. Rôle : Architecte de données Azure Lieu de travail : Lyon Durée du contrat : 6 mois (Projet d'un an minimum) Travail hybride Date de début : ASAP (novembre) Freelance : Entreprise propre (SASU, Micro-entreprise) ou Portage Salarial Rôle : Recueillir et comprendre les exigences du projet Réalisation de la preuve de concept Industrialisation des projets BI et intégration des données Travailler sur la migration des solutions BI vers Microsoft BI Participer aux ateliers de conception Suivi technique et documentation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.