Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
CLoud DevOps - GenAI
Dans le cadre de ces développements, le DataLab Groupe souhaite confier à un expert Cloud DevOps/AI Engineer, venant en renforcement de son équipe usine logicielle, la mission suivante : - Travailler sur des sujets de migration de solution « on premise » vers le cloud ; - Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; - Assurer l’intégration dans les architectures cible : Configurer les plateformes, Industrialiser les architectures, Définir les accès aux ressources et les optimiser ; - Assister à l’élaboration de solutions et leurs optimisations ; - Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative ; - Rédiger les documents techniques et des livrables projets ; - Améliorer les architectures actuelles ; - Transférer la connaissance et la compétence aux internes du DataLab Groupe. Résultats Attendus des Livrables : Le consultant sera accompagné par l’équipe usine logicielle. Il devra, par ailleurs, fournir les livrables suivants : - Une documentation conforme aux exigences du DataLab Groupe ; - Un support de l’ensemble des applications gérées en interne ; - Un support de l’ensemble des applications de nos entités et déployés par le DataLab Groupe ; - Codes sources commentés et « reviewés » ; - Intégration de tests unitaires des fonctionnalités développées ; Présentation et partage des travaux.
Offre d'emploi
Tech Lead GCP Bigquery Looker
Nous recherchons un Tech Lead Data expérimenté pour rejoindre l'équipe client et piloter des projets data stratégiques. Vous aurez un rôle clé dans la conception et la mise en œuvre de solutions de data pipeline, d’analytique et de reporting, tout en accompagnant une équipe d’ingénieurs data. Vous interviendrez principalement sur des technologies telles que BigQuery , DBT , Looker , SQL et Airflow . Vous justifiez d’au moins 8 ans d’expérience en tant qu’ingénieur data ou Tech Lead, avec une expertise démontrée sur l'environnement technique. Une expérience dans le retail est un plus.
Mission freelance
Architecte cloud GCP (H/F)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Architecte cloud GCP (H/F) Conception et mise en œuvre d'architectures Cloud : Vous serez responsable de concevoir des solutions robustes, évolutives et sécurisées sur la plateforme Google Cloud Platform (GCP) . Migration vers le Cloud : Accompagnement des entreprises dans leur transition vers GCP, en veillant à la continuité des opérations et à l'optimisation des coûts. Collaboration avec les équipes techniques : Travailler en étroite collaboration avec des équipes DevOps, de sécurité et d'infrastructure pour intégrer et maintenir les solutions cloud. Gestion de la sécurité et conformité : Mettre en place des mesures de sécurité pour protéger les données tout en garantissant que les architectures respectent les normes de conformité, comme le RGPD. Automatisation et orchestration : Utiliser des outils comme Terraform, Kubernetes, et Ansible pour automatiser les tâches et optimiser la gestion des infrastructures.
Mission freelance
Senior Data Architect (Snowflake)
Je suis à la recherche d'architectes de données seniors pour un projet à long terme de bout en bout. Rôle : Architecte de données senior Durée du contrat : Long terme Lieu : Paris : Paris Travail hybride Date de début : Fin octobre/début novembre Vous rejoindrez une nouvelle mission à long terme pour superviser un projet de transformation complet pour notre client. Vous travaillerez sur la modélisation et l'architecture des données, en partant de zéro. Profile: Vous avez une expérience confirmée de plusieurs projets d'architecture de données, idéalement à partir de zéro. Une solide expérience et connaissance de l'architecture de Snowflake, y compris le partage des données, la mise à l'échelle et les pratiques de sécurité. Compétence dans la conception et l'optimisation des bases de données Snowflake Capacité à créer des modèles de données complexes et à architecturer des pipelines ELT/ETL à l'aide d'outils tels que SNowpipe, Google Dataflow ou d'autres services GCP. Forte compréhension de la confidentialité des données, des normes de sécurité et des meilleures pratiques, y compris la gestion de l'accès, le cryptage et la conformité. Anglais courant
Offre d'emploi
Data Analyst F/H
🤝ET SI VOUS DEVENIEZ CONSULTANT CHEZ NOUS ? Mais d’abord, c’est quoi un consultant ? Evidemment, c’est un collaborateur qui accompagnera nos clients dans la réalisation de leurs projets innovants. Mais être consultant chez OTTEO, c’est aussi être un ambassadeur, qui participera à l’évolution et à la croissance de la société ! ▶ Votre 1er projet : Vous accompagnerez notre client, grand compte historique de la région. Votre intégrerez une équipe composée de Data engineer et de Data analyst dédié à identifier, structurer, et enrichir les données disponibles . (Open data, données partenaires, données collectées sur les points de contact digitaux et phygitaux). Pour ce projet vous devriez allier compétence de Data analyse, mais également avoir des connaissances côte Data engineering. ▶ Vos missions : Maintenir à jour une connaissance des sources de données du secteur d’activité ; à ce titre, vous êtes capable de présenter des opportunités en réponse aux besoins exprimés. Participer activement aux phases d'analyse, de nettoyage, de modélisation et de mise à disposition des données. Assurer la qualité et l'intégrité des données en effectuant des contrôles réguliers et en mettant en place des processus de validation. Être à l'aise avec les principes de la data ingénierie et prêt à contribuer à cette activité. Développer et maintenir des tableaux de bord et des rapports réguliers pour surveiller les indicateurs clés de performance (KPI). Être capable de communiquer les résultats de vos analyses de manière claire et compréhensible pour des publics non techniques. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !
Offre d'emploi
Infrastructure Architect (Ref : AG)
Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)
Offre d'emploi
Développeur Full Stack spécialisé en Kafka/Confluent
Bonjour Nous sommes à la recherche de développeurs Full Stack spécialisés en Kafka/Confluent pour notre client de renom basé en France. Vous interviendrez sur des projets innovants et serez responsable de la conception, du développement et de l'intégration d'architectures distribuées. Vous collaborerez avec des équipes pluridisciplinaires pour implémenter des solutions robustes et scalables en utilisant Kafka et d'autres technologies de pointe. Vos principales responsabilités seront : Conception et développement d'applications full stack (backend et frontend) avec une forte intégration de Kafka/Confluent . Mise en place et gestion des pipelines de streaming de données avec Kafka pour assurer la scalabilité et la robustesse des applications. Collaborer avec les équipes DevOps pour déployer, superviser et optimiser les environnements de production. Analyse et résolution des incidents techniques liés à Kafka et aux microservices. Participer à l'amélioration continue des processus de développement et d'intégration. Documentation technique et partage des meilleures pratiques avec l'équipe.
Mission freelance
Consultant BI
Intégré dans une équipe projet transverse aux équipes Enjeux Digital Data, ayant pour objectif de décommissionner l’outil Business Object, la mission sera de: - Préparer et réaliser les tests des tableaux de bord (y compris la pertinence des données) - Analyser les résultats et rédiger le rapport de tests - Identifier et traiter les dysfonctionnements éventuels - Identifier les opportunités d'amélioration et formuler des recommandations pour optimiser les tableaux de bord - Accompagner les métiers dans leur montée en compétence sur l’outil
Mission freelance
Consultant SecOps (H/F)
Notre client recherche un freelance avec une forte connaissance GCP pour travailler sur le backlog Secops des équipes devops. Dans le cadre de sa recherche, notre client souhaite une prestation d’expertise cloud GCP (LandingZone notamment) pour réaliser les activités suivantes : - Travail en agilité (Scrum, Kanban) - Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO - Relation de proximité et en binôme avec un membre de l'équipe - Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plate-forme Cloud - Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6) Livrables : Module Terraform Document de formation/accompagnement pour les équipiers Documentations techniques formalisée dans les outils internes (Jira / confluence)
Mission freelance
Data Ops Engineer
Pour notre client, nous recherchons un(e) Data Ops Engineer pour les tâches suivantes: Accompagnement et l’acculturation des bonnes pratiques de la Data Engineering au travers de l'approche Data Driven Validation de la qualité des développement de l'équipe Acculturation de la philosophie DevSecOps Suivi de la qualité de code Organiser et animer les ateliers d’amélioration continue Définition de la roadmap technique Être garant du cycle de delivery, de la qualité des livrables et l’encadrement & animation des équipes en environnement Agile / DevOps Estimer la charge du Backlog et déterminer le périmètre des sprints en collaboration avec les experts métiers Superviser la qualité des livrables Participation aux entretiens de suivi des Data Engineer S’assurer que le processus de MCO soit correctement adopté Formation des nouveaux arrivants Support pour résoudre des problèmes complexes
Mission freelance
Ingénieur réseau (PRTG/SPLUNK)
Ingénieur réseau Lieu : Lyon Horaires de travail : Sur site + astreinte Durée : 2-3 ans Début : Dès que possible J'aide actuellement une société de logiciels de premier plan à trouver un ingénieur réseau indépendant en raison du départ de membres de son équipe pour différentes opportunités, laissant un vide à combler. Vous serez en charge du support opérationnel et de la maintenance de l'infrastructure réseau de mon client. Glocomms est un fournisseur de recrutement de confiance pour cette organisation depuis quelques années et a été responsable du placement de nombreux consultants dans leurs rangs Responsabilités : Être responsable et en charge de la maintenance opérationnelle du réseau de l'organisation via des tickets ServiceNow Résoudre les problèmes, soutenir et exécuter les opérations RUN sur le réseau de l'organisation Avoir une bonne endurance pour de nombreux problèmes techniques et problèmes de différentes gravités, en commençant par une priorité élevée sur le réseau de l'organisation Quelqu'un prêt à faire un effort supplémentaire pour maintenir le réseau opérationnel en étant de garde pour les pannes de réseau pendant le week-end Proposer des solutions aux problèmes au sein du réseau de l'organisation Travailler également sur des projets d'opérations RUN Compétences et qualifications: 5 à 10 ans d'expérience dans les opérations réseau Des certifications réseau/sécurité seraient souhaitées Forte expérience dans PRTG et Splunk Expérience des opérations réseau autour de Cisco et Palo Alto Expérience avec les systèmes d'administration Expérience dans IT4IT Expérience dans les technologies Cloud telles que comme Azure et AWS
Mission freelance
SecOps - Expertise cloud GCP (NANTES - Présence Hebdo obligatoire)
🔴 Merci de confirmer votre présence à Nantes 🔴 La mission ne peut pas se faire en full Remote (3 jours min sur site / semaine) ✅ Nous apprécions un court message indiquant la raison de votre candidature Intégrer une équipe plateforme (LandingZone) sur GCP avec un fonctionnement agile (PO, Agile Master, Leadtech) qui a en charge le Build / Run / MCO / Astreinte. Nous recherchons un consultant avec une expertise cloud GCP (Landing Zone notamment)pour réaliser les activités suivantes : - Travail en agilité (Scrum, Kanban) - Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO - Relation de proximité et en binôme avec un membre de l'équipe - Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plate-forme Cloud - Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6)
Offre d'emploi
Data Engineer
Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.
Offre d'emploi
EXPERT CLOUD H/F
Au sein du département Infrastructure & cloud, nous recherchons pour l’un de nos clients grands comptes à Niort un "Expert Cloud H/F" . AWS GCP & S3NS Azure Nous recherchons pour l’un de nos clients grands comptes à Niort un "Expert Cloud H/F" . Vous aurez pour missions : L'expertise et le traitement des incidents N3 dans le respect des SLA La participation aux choix d'architecture L'acculturation et la documentation L'automatisation des déploiements (CI/CD ; Terraform ; Ansible) Des connaissances de l'écosystème DevOpS (Kubernetes, Linux...) et de l'infrastructure en général est un plus pour la mission.
Offre d'emploi
skiils recrute son (sa) Senior Data Analyst Retail
skiils recherche son/sa futur(e) Senior Data Analyst pour renforcer ses équipes Notre client vit actuellement une transformation d’envergure en adaptant son modèle et son organisation. Nous investissons à grande échelle sur des projets innovants transformant notre approche du digital pour nos consommateurs, nos partenaires et nos collaborateurs. Au cœur de ce projet, l’exploitation des données, la valorisation des données et l’utilisation massive des techniques analytiques sont des leviers importants pour notre transformation. Description du poste Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique des produits data en environnement Agile : ● Explorer et analyser les données du Data Lake ; ● Participer au cadrage des nouvelles fonctionnalités ; ● Designer les nouveaux dashboards de nos produits insights ; ● Ecrire les spécifications des nouvelles fonctionnalités ; ● Réaliser les tests post développement, puis automatiser les recettes ; ● Être force de proposition pour améliorer les solutions développées et identifier des opportunités de nouvelles analyses, pour répondre aux besoins de nos utilisateurs
Mission freelance
Administrateur LINUX/UNIX et AIX (H/F)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Administrateur LINUX/UNIX et AIX (H/F) expert technique N3 Linux pour participer aux activités de RUN (80%) et de BUILD (20%) au sein des datacenters et environnements Cloud. Vous serez amené à travailler sur des systèmes Linux (RHEL, CentOS, Rocky Linux) et AIX (un atout), avec des outils tels que Red Hat Satellite, Puppet, Ansible, jFrog, tout en maîtrisant les techniques de masterisation et de hardening d'OS. Une appétence pour l'automatisation (Terraform, Packer, Python, API, GitHub) est indispensable, ainsi qu'une capacité à intervenir sur des plateformes legacy.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.