Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
DATA ENGINEER GCP DBT
Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
Devops GCP H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un DEVOPS GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Offre d'emploi
SYSOPS H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Sysops H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Mission freelance
Développeur Back Expert
Java Spring MongoDB Kafka Kubernetes (GKE) Terraform Compétences techniques JAVA/Spring - Expert - Impératif GCP - Expert - Impératif Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée Développeur JAVA GCP. Dans le cadre du développement et du déploiement d'une application de gestion backoffice dans plusieurs pays européens SA MISSION : À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures.
Mission freelance
Expert(e) CloudOps
Expert(e) CloudOps Contexte : Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise Compétence recherchée : GKE/GCP - Confirmé - Impératif Ansible (Tower) - Confirmé - Impératif GitlabCI - Confirmé - Impératif Helm - Confirmé – Important
Offre d'emploi
Manager de transition Data Science
Vous interviendrez en tant que Manager de transition pour piloter des projets à fort impact et ancrer une culture data driven au sein des équipes. Votre rôle Définition et mise en œuvre de la stratégie Data Élaborer et piloter la feuille de route pour les usages avancés de la data et de l'IA dans l’entreprise Intégrer une approche data product pour assurer une gestion complète du cycle de vie des outils développés, depuis leur conception jusqu'à leur déploiement et leur évolution Contribuer de manière proactive au développement de la culture Data dans l'entreprise Collaboration Collaborer avec l'ensemble des directions afin de comprendre leurs besoins, les traduire en « data » et livrer des outils d'aide à la décision adaptés Travailler en étroite collaboration avec les interlocuteurs techniques afin de faire évoluer les outils en adéquation avec les besoins et usages futurs Pilotage et accompagnement des équipes Animer et manager l'équipe dans la réalisation d'analyses et de modélisations pour répondre à des problématiques métier, et assurer la direction des projets Contribuer avec un regard expert aux projets possédant des composantes data et IA afin d’optimiser les dispositifs business, réduire les irritants clients et améliorer l'efficacité des processus
Mission freelance
Développeur fullstack PHP/Symfony & angular
Un développeur back au sein du service Applications GP et Licenciés composé de 6 développeurs prestataires en régie. Profil recherché Responsabilités • Concevoir, développer et maintenir des API REST. • Assurer la performance, la sécurité et la scalabilité des applications backend. • Collaborer avec le DevOps pour assurer une livraison continue des fonctionnalités. • Implémenter et maintenir des tests unitaires, d’intégration et fonctionnels. • Participer aux revues de code et garantir la qualité du code selon les bonnes pratiques. • Documenter les processus techniques et les API développées.
Mission freelance
Développeur Back-end Salesforce Commerce Cloud (Demandware)
Pour l'un de nos clients nous sommes à la recherche d'un Développeur ou Développeuse Salesforce Commerce Cloud B2C (Confirmé / 5 ans). VOS PRINCIPALES MISSIONS Assurer les développements backend d’évolutions fonctionnelles ou techniques diverses (Core model / Enhancements) dans le produit Back E-commerce Engine. Assurer les développements et évolutions des SCAPI/OCAPI dans notre contexte et architecture Headless. Participer à la maintenance corrective (Support de dernier niveau). Effectuer les tests techniques ou débug lors des phases de qualification / recette projet. Participer au cadrage et à la conception des projets qui vous seront confiés. Rédiger les documentations techniques. TECHNOS ET COMPETANCES Vous êtes passionné de développement et justifiez d’une expérience significative en développement SFCC (Back-end, Jobs, OCAPI/SCAPI, maitrise de l'ensemble des modules Business Manager...) Sur un périmètre transverse e-commerce). Vous connaissez les technos Postman, Swager, XML, JSON, SOAP, Restfull, SQL, HTML/CSS, Bitbucket/Git, Jenkins, Jira/Confluence. Vous avez déjà travaillé sur Sales Force Commerce Cloud B2C (Sitegenesis ou SFRA), Hybris ou autre plateforme e-commerce… Vous êtes sensibilisé aux méthodologies Agiles (Scrum/SAFe), à la culture DEVOPS. Vous êtes en perpétuelle veille technologique. Vous êtes doté d’un excellent sens analytique et de synthèse.
Mission freelance
Ingénieur Data Senior
Contexte de la mission : Le département Data IA (DaIA) est chargé de fournir aux différents métiers un socle technologique transversal visant à mettre en production et à industrialiser les cas d’usage liés à la Data. Cela inclut le développement d’une plateforme dédiée à l’enrichissement des métadonnées des contenus, intégrant des technologies d’intelligence artificielle et de génération IA (GenAI). Description du besoin : Le département DaIA recherche une prestation en ingénierie des données pour assurer la conception, la mise en place et la gestion de l’infrastructure AWS. Principales activités de la mission : Développement d’une plateforme de microservices sur AWS. Industrialisation des cas d’usage métiers liés aux médias. Gestion de la qualité, fiabilité et accessibilité des données. Développement de pipelines de traitement de données orientés média. Collaboration avec les équipes Data Science pour identifier les besoins et concevoir des solutions adaptées. Maintenance et optimisation des systèmes de données existants.
Offre d'emploi
Ingénieur Système GCP H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur système GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Offre d'emploi
DevOps AWS
Nous recherchons un profil qualifié et motivé pour une mission de longue durée dans un contexte stimulant et innovant. La mission démarrera dès le début du mois de janvier et vise à renforcer les équipes d’un grand acteur du secteur BtoC. En intégrant cette mission, vous travaillerez sur des problématiques stratégiques et opérationnelles liées à la gestion des performances et à l’optimisation des systèmes en environnement de production. Votre rôle sera de contribuer activement à l’amélioration continue des systèmes en étant confronté à des défis techniques tels que la gestion des pics de charge, l’optimisation des caches et l’élasticité en production. Vous collaborerez avec des équipes multidisciplinaires pour assurer la résilience et la performance des solutions mises en place, tout en apportant une expertise précise sur les enjeux spécifiques aux environnements BtoC. L'environnement technique est sur : Cloudfront / Redis / Varnish Le poste implique une approche analytique et pragmatique pour identifier et résoudre des problèmes complexes. Vous serez amené à : Diagnostiquer et anticiper les problèmes liés aux variations de charge et assurer une adaptabilité optimale des systèmes. Implémenter des stratégies d’amélioration des performances applicatives. Gérer des projets techniques visant à garantir une expérience utilisateur fluide et performante. Collaborer avec les équipes techniques pour concevoir des solutions innovantes et fiables. Participer à des revues régulières pour évaluer les résultats et définir les axes d’amélioration. Cette mission s’adresse à un profil DevOps spécialisé dans AWS, avec une expertise sur les services cloud, les outils de déploiement et les solutions scalables. Elle ne concerne pas les profils indépendants mais uniquement les candidats pouvant être intégrés sous un contrat CDI dans notre société de conseil.
Mission freelance
Développeur Data/IA : Python & JS - mission longue - Anglophone
Bonjour, Nous recherchons un développeur fullstack pour des projets Data/IA ambitieux. L'objectif du projet est de construire une application web pour libérer la créativité de l'équipe Marketing, accélérer la campagne de communication digitale et améliorer la qualité et la performance de leur campagne de communication. Le projet se concentre sur le développement de l'application web, toutes les capacités génératives seront disponibles à travers l'API (Ex : Firefly, Gemini ou une API construite en interne) Description du poste : - Front end : 1. Collaboration avec les designers UI/UX pour mettre en œuvre des designs visuellement attrayants et conviviaux. 2. Conception et développement d'interfaces utilisateur réactives. - Back end : 1. Développement de fonctionnalités robustes et évolutives côté serveur sur la base de l'histoire de l'utilisateur. 2. Mise en œuvre et exposition d'API pour permettre la communication entre le front-end et le back-end. 3. Conception et maintenance de la base de données (Firestore) et optimisation des performances des requêtes. Fonctions transversales : 1. Assurer les meilleures pratiques de développement (tests unitaires, documentation). 2. Collaboration avec les autres membres de l'équipe. - Environnement technique : 1. Environnement GCP lié au développement : Cloudrun, Firestore, CloudStorage etc... 2. Back-end : Python, fastapi 3. Front-end : React, Typescript, ViteJS, Material UI - Expertise supplémentaire : L'expertise du modèle de génération d'images est un plus
Mission freelance
Développeur Java Cloud AWS Sénior (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Java Cloud AWS Sénior (H/F) à Lyon, France. Contexte : La plateforme est un point d'entrée pour les données des objets connectés. L’application s'inscrit dans la trajectoire des différents SI métiers de l’Entreprise afin de les alimenter avec les données des objets communicants. Aujourd’hui, près de 17 000 objets sont connectés. L’équipe est actuellement composée d’une dizaine de compétences. Les missions attendues par le Développeur Java Cloud AWS Sénior (H/F) : Cette personne travaillerait principalement sur l’implémentation du backend de la plateforme IoT et sur les outils associés à la plateforme (tests/déploiements continus). La plateforme évolue dans un contexte AGILE, sur une méthodologie KANBAN. L’infrastructure est hébergée sous une souscription AWS. Adaptation, organisation, rigueur et bonne communication seront essentielles afin d’appréhender les différents chantiers qui lui seront confiés. Le profil sera a mener à travailler sur la conception et le Build de nouveaux chantiers dans une démarche CRAFT. Même si le profil reste essentiellement orienté backend, le profil pourra être amené à développer sur d'autres composants (front, infra, recette), il doit être curieux et s’intéresser aux différentes étapes de la construction de la solution. Activité principale : - Participer à la conception ainsi qu'à la mise en œuvre des développements de l’application back à partir des spécifications fonctionnelles - Développer en respectant les bonnes pratiques définies (Clean Code, Clean Architecture, Architecture Hexagonale ...), de manière robuste et performante - Participer à la correction des anomalies fonctionnelles et/ou techniques - Communiquer et remonter les alertes ou points de blocages aux compétences concernées - Participer aux différentes réunions/ateliers de l'équipe - Challenger le besoin vis-à-vis des bonnes pratiques et contraintes techniques (Domain Driven Development) - Proposer des orientations et solutions techniques dans le cadre de nouveaux chantiers (à la fois sur l'application et celle à construire pour le remplacement du legacy) - Mettre une politique de tests en respectant la pyramide des tests Stack technique de l'équipe : Amazon webservices, Docker, Atlassian, Kafka, Kubernetes, Java, Postgre SQL, Elasticsearch, Zookeeper, Jenkins, Gatling, Kibana, Angular, Datadog, GitLab
Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris
Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP
Mission freelance
Data Steward
En tant que Data Steward pour le domaine, vous dirigerez les initiatives de modélisation des données et d'amélioration de la qualité, en travaillant en étroite collaboration avec les équipes métiers, produit et techniques pour garantir une gouvernance des données appropriée et une conformité aux normes. Qualité des données & Modélisation : Piloter les initiatives de modélisation des données en suivant les exigences internes. Garantir l'utilisation sémantique appropriée et la cardinalité dans les modèles de données. Valider les structures de données avec l'équipe d'architecture. Maintenir les standards de qualité des données dans le domaine concerné. Animation des parties prenantes : Coordonner avec les Chefs de Projet (propriétaires des données). Faciliter les discussions entre les équipes métiers et techniques. Guider les équipes techniques dans l'amélioration des structures API/événements. Travailler en étroite collaboration avec les équipes produit pour intégrer les sujets de données dans la feuille de route. Collaborer avec l'équipe d'architecture pour la validation des modèles. Compréhension des processus métier : Analyser les processus métier existants. Proposer des recommandations initiales pour l'architecture des données. Garantir l'alignement entre les besoins métiers et les structures de données. Documenter les flux de données et les dépendances. Support à la mise en œuvre technique (20%) : Guider l’exposition des données selon les modèles validés. Supporter la restructuration des sujets Kafka et des API de points de terminaison. Superviser la mise en œuvre de la qualité des données. Valider les solutions techniques.
Offre d'emploi
Data engineer (F/H) - Lille
Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD Interlocuteur lors de la contribution à des projets dans le domaine de la Supply Conception de solutions en respectant les normes et framework data Développement, Modélisation sous la gouvernance de l'architecture data Contribution au développement d'appli Tests Reporting RUN : Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) gestion des incidents mise en production (via Git) suivi de flux EXPERTISE : Montée en compétence sur notre SI et notre domaine de responsabilité Documentation si nécessaire
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.