Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer confirmé
Mission : En tant que Data Engineer, vous jouerez un rôle central dans la transformation digitale de notre client. Vous concevrez et optimiserez les flux de données en assurant leur ingestion, transformation et modélisation dans un environnement AWS et Snowflake. Vous travaillerez étroitement avec la Data & Tech Factory pour automatiser les processus et assurer l'intégration continue de données fiables et exploitables dans les projets métier de l'entreprise. Compétences : Expérience de 4 à 5 ans en data engineering, idéalement en environnement cloud AWS Maîtrise de Snowflake pour le stockage et la gestion des données, avec des compétences en SQL et Python pour la manipulation et la transformation de données Connaissance des pratiques DevOps et CI/CD pour optimiser les workflows, et expérience en Infrastructure as Code avec Terraform
Mission freelance
Team Lead/ Chef d'équipe
Leadership technique : assumer la responsabilité technique de la plateforme, en se concentrant sur l'ingestion, la transformation, le stockage, l'exposition et l'analyse. Gestion de la plateforme : superviser l'infrastructure en tant que code à l'aide d'outils tels que Terraform et les pipelines CI/CD pour un déploiement et une configuration automatisés. Développement centré sur l'utilisateur : recueillir et documenter les commentaires des utilisateurs pour améliorer l'autonomie dans l'utilisation de la plateforme. Développement front-end : la maîtrise de React est essentielle, ou la volonté de le maîtriser dans les 6 mois. Méthodologie Agile : travailler en mode Agile, en intégrant les meilleures pratiques en matière de mise à l'échelle de la plateforme, de sécurité et d'autonomie du client.
Offre d'emploi
Expert Cloud Infra réseaux
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client banque basé en Région parisienne un profil Expert sur les problématiques Cloud Infra et réseaux : Au sein de DSIO, le programme Grace (Group Acceleration Cloud Excellence) porte la stratégie Cloud et la transformation du modèle de delivery de la DSI. Ce programme s’appuie sur le pôle Cloud Technology Plaƞorm pour gérer la nouvelle landing zone AWS qui hébergera à terme la majorité des workloads cloud d’Hermès. Cette équipe a pour responsabilité de fournir des socles techniques solides qui seront consommés par les équipes Applicative Plaƞorm de la DSI. Cette équipe est composée de 5 personnes (Architectes et builders) qui ont défini l’architecture cible (Account factory, Identité, connectivité, sécurité …) qui a été validée par les différentes parties prenantes (entreprise architecture & sécurité). La LZ EMEA a été ouverte cet été et sera déclinée AMER/APAC en 2025. En complément du socle LZ, d’autres initiatives complémentaires sont en cours telles que l’automatisation de la documentation AWS, un backup centralisé et l’ouverture d’une LZ en chine (AWS China). Déployer et maintenir les différents socles de la landing zone, s'assurer de la cohérence et de l'homogénéité de l'IAS et de sa documentation, veiller à la conformité avec les standards d'architecte et de sécurité, écrire les scripts pour automatiser des opérations courantes, comprendre les besoins des clients et leur proposer des solutions 'en prenant en compte les enjeux sécurité, couts, facilité de déploiement, d'usage et de maintenance.. Minimum 7 ans d'expérience dans l'infrastructure, développement et/ou cloud, au moins une certification AWS associate (Architect serait un plus). aisance à diagnostiquer, facilité les problèmes.. Bonne connaissances des méthodes Devops et agile. Anglais courant Forte expertise dans le déploiement et la gestion des ressources et services Cloud, Excellente connaissance des socles réseau, sécurité et système, bonne compréhension de la gestion de l'identité, maitrise des outils d'automatisation.... Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Développeur Full Stack spécialisé en Kafka/Confluent
Bonjour Nous sommes à la recherche de développeurs Full Stack spécialisés en Kafka/Confluent pour notre client de renom basé en France. Vous interviendrez sur des projets innovants et serez responsable de la conception, du développement et de l'intégration d'architectures distribuées. Vous collaborerez avec des équipes pluridisciplinaires pour implémenter des solutions robustes et scalables en utilisant Kafka et d'autres technologies de pointe. Vos principales responsabilités seront : Conception et développement d'applications full stack (backend et frontend) avec une forte intégration de Kafka/Confluent . Mise en place et gestion des pipelines de streaming de données avec Kafka pour assurer la scalabilité et la robustesse des applications. Collaborer avec les équipes DevOps pour déployer, superviser et optimiser les environnements de production. Analyse et résolution des incidents techniques liés à Kafka et aux microservices. Participer à l'amélioration continue des processus de développement et d'intégration. Documentation technique et partage des meilleures pratiques avec l'équipe.
Mission freelance
Administrateur Linux/AWS
Vos missions : Vous serez en charge de l'administration et du support de niveau 2 et partiellement de niveau 3 de l'environnement Linux / AWS de l'entreprise. La connaissance d' EKS est un véritable plus. Il faudra garantir l' exploitation des applications. Vous administrerez les environnements suivants : Production, Pré-production, Performance, Formation, Recette. Vous serez amené.e à assister et former les utilisateurs. Vous superviserez et mesurerez les performances des différents systèmes d’information (pannes, flux, disponibilité).
Offre d'emploi
Développeur Splunk Confirmé
Nous recherchons un(e) Développeur Splunk pour rejoindre une équipe technique en charge du développement et du support d’infrastructures Splunk. Vous travaillerez au sein d’un environnement agile et collaboratif, avec un focus sur l’amélioration continue des solutions de surveillance et d’analyse de données en temps réel. Missions principales : Développer et maintenir des applications et tableaux de bord sur Splunk. Assurer le support de l’infrastructure Splunk, incluant la résolution d'incidents et le monitoring de la performance. Collaborer avec les équipes DevOps et infrastructure pour l’optimisation des solutions. Participer à l’implémentation et la gestion de la sécurité et de la résilience des données dans un environnement cloud AWS. Documenter les configurations et maintenir à jour les procédures opérationnelles. Compétences techniques requises : Splunk : expertise en développement et administration. Python : pour le développement de scripts d’automatisation. Git : pour la gestion de versions et le suivi des modifications. Cloud AWS : maîtrise des environnements cloud et des services de base. Virtualisation (VMware) : bonne connaissance des environnements virtualisés. Réseau : compréhension des principes et protocoles réseau. Systèmes d'exploitation : expérience avec Linux et Windows.
Mission freelance
Lead dev fullstack Java
En tant que Lead Développeur, vous êtes garant des solutions techniques implémentées et de la qualité des applications. Vos principales missions incluent : Réalisation des Etudes de Cadrage : Effectuer des conceptions techniques détaillées ; Collaborer avec le Lead Tech afin de garder la cohérence transverse des produits ; Estimer les charges et les délais pour les développements en fonction des besoins émanant des clients, de la roadmap produits et sécurité. Collaboration transversale : Travailler sur des projets transverses de rationalisation (monitoring, supervision, purge, sécurité, etc.) et de transformation (move2cloud, stratégie éditeur / intégrateur) ; Intégrer les produits dans le système d’information (architecture orientée micro-service, interopérabilité, etc.) ; Collaborer avec le Product Owner pour optimiser, stabiliser, ajouter des fonctionnalités, effectuer une veille technique et gérer l’obsolescence des composants. Gestion de l’équipe de développement : Répartir les tâches au sein de l’équipe ; Superviser la charge de travail et les délais ; Accompagner l’équipe dans leurs développements. Développement des Solutions : Participer activement au développement de solutions techniques ; Relire le code et valider les merge requests ; Gérer le versionning, les tests unitaires et les tests d’intégration ; Assurer la performance du patrimoine applicatif de la ligne produit ; Prendre en charge le support niveau 3 en appui aux équipes de RUN ; Implémenter les solutions dans le respect des normes et standards qualité / sécurité édictés par le Lead Tech (tests unitaires, tests d’intégration, …) ; Respecter le process de build et de déploiement au travers de la bonne utilisation des outils de la CICD. Gestion du patrimoine documentaire Assister à la rédaction des documents liés à l’exploitation de la solution ; Rédiger et co valider les documents garantissant le partage de connaissance des applications. Respect des bonnes pratiques et engagements : Adhérer aux bonnes pratiques définies dans le framework Software Développement Life Cycle de l'entreprise ; Garantir le respect des engagements. En tant que Lead Développeur, vous jouez un rôle crucial dans la réussite de notre ligne de produit et l’engagement est attendu pour assurer la qualité et la performance des solutions techniques livrées.
Mission freelance
Développeur K8S Terraform
Contexte : Nous recherchons un développeur senior avec de fortes compétences autour de l’administration système, des pratiques devops et surtout une très bonne connaissance de Terraform. MISSIONS La mission consistera à assurer la coordination entre les équipes de développement et les équipes ops. Elle pourra aiguiller les développeurs à mieux mettre en œuvre la configuration Cloud, la CI/CD, les bonnes pratiques de scalabilité et de sécurité pour travailler plus efficacement. Elle consistera également à expliciter, accompagner et documenter les évolutions techniques. PROFIL : Le titulaire devra disposer d’une expérience back (PHP et/ou JS) avec des expertises détaillées, et notamment sur Docker/Kubernetes/Terraform pour le cloud privé et public (Azure, AWS).
Offre d'emploi
Ingénieur Data Confirmé H/F
NOOEH , Entreprise de Service du Numérique basée à Aix-en-Provence, recherche pour le compte d'un de ses clients situés à Marseille un.e Ingénieur Data Confirmé - bras droit du CTO . Vous serez en charge de la refonte et de l'amélioration de l'infrastructure de traitement des données, contribuant à un produit novateur intégrant des technologies de machine learning et deep learning. Refonte et rationalisation de l'ETL, incluant la migration vers une infrastructure plus flexible. Acquisition et intégration de nouvelles sources de données, avec création de pipelines d'ingestion. Construction de jeux de données pour entraîner des modèles d’IA. Gestion et optimisation des bases de données (PostgreSQL et Elasticsearch). Application de techniques de NLP et participation à l'amélioration de modèles. Contribution occasionnelle au développement Full Stack (Vue.js, Vuetify).
Offre d'emploi
Skiils recherche son Expert data quality
Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.
Offre d'emploi
Ingénieur Devops AWS/Azure/bitbucket
Everlink, société de conseil en recrutement, spécialisée dans le domaine du Système d’Information et de la transformation Digitale de l’Entreprise, recherche actuellement pour son client un Ingénieur Devops (H/F) . L'Ingénieur DevOps est responsable de la gestion, du développement et de la maintenance de l'infrastructure informatique en utilisant des méthodologies DevOps. Il assure l'intégration connue et le déploiement connu (CI intégration connue/CD déploiement connus) pour optimiser et automatiser les processus de développement et de production.
Offre d'emploi
Business Analyst - F/H - Lille
Missions Le Data Business analyst accompagne le métier dans le recensement des données utiles à son besoin exprimé. A partir d'une expression de besoin métier, il traduit le souhait en besoins datas. Pour ce, il doit : animer des ateliers métier, comprendre les besoins métier, les challenger identifier les données nécessaires à la réalisation de ces besoins, en consolidant l'ensemble des besoins Modéliser les données (modèle métier entreprise), en assurant une cohérence globale de ce modèle (consolidation des différents projets) Travailler en binôme avec l'architecte de données pour sourcer les données dans le SIO, et permettre de décliner un modèle de données technique Travailler avec le data steward pour que celui-ci mette à jour les dictionnaires de données (description, traçabilité, règles de gestion métier), les fiches de données... tous les livrables indispensables à la gouvernance coordonner avec l'équipe informatique la déclinaison technique des données sur la plateforme Data
Mission freelance
Tech Lead AWS (F/H)
Vos missions : Vous serez amené à réaliser le design des features de la plateforme permettant aux métiers de développer et exploiter des Data Products/Data Sets. Vous intègrerez dans vos propositions et conceptions les enjeux de mise à l’échelle des services plateforme et considérerez comme fondamentaux la nécessité de construction de la plateforme en infra-as-code, les exigences d’autonomie des clients de la plateforme et les exigences des autres parties prenantes de la Compagnie (Architecture et Cyber). Vous serez à l’écoute de vos utilisateurs et rechercherez les feedbacks Vous serez amené à rédiger de manière précise les user stories du backlog en vue de leur refinement par l’équipe de Platform Engineer. Vous serez amené à épauler les autres membres de l’équipe dans la gestion du RUN et du Build.
Offre d'emploi
Directeur de projet migration Data - snowflake
🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management
Offre d'emploi
Data Base Administrator Talend (H/F)
Nous recherchons pour le compte de notre client spécialité dans l'énergie un Data Base Administrator Talend (H/F) habilitable secret défense en CDI à Marseille. Conception de bases de données : - Effectuer les choix d'implémentation des bases de données dans le respect du cahier des charges et en collaboration avec les différents acteurs du projet (chef de projet, architectes, consultants ERP, experts « décisionnels » ...) - Concevoir, réaliser et optimiser l'architecture de la donnée du système d'information opérationnel - Participer à la conception et au développement de l'architecture de l'entrepôt de données décisionnel - Maintenir la documentation des schémas relationnels et non relationnels - Proposer et suivre les optimisations des requêtes SQL et no SQL afin de garantir les meilleures performances de nos applications métier - Assurer le support aux équipes de développement afin d'identifier et proposer des solutions performantes Gestion de la donnée : - Concevoir, développer et maintenir les flux de synchronisation entre nos différents systèmes avec notre outil ETL - Définir les templates, concevoir et réaliser les opérations d'import de données en masse - Support technique, assistance et observabilité - Participer aux corrections d'incidents, demandes d'évolutions des chefs de projet métier et assurer l'assistance utilisateurs de niveau 3 - Participer au déploiement de l'architecture applicative de microservices en adaptant le modèle de données historique - Suivre et gérer les performances des Bases Oracle et mongoDB - Assurer la veille technologique et traiter l'obsolescence technique
Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75
Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.