Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur CloudOPS GCP
Dans le cadre du renforcement de son équipe infra cloud, notre client recherche un nouveau profil orienté cloud GCP afin de prendre part au maintien et à l'évolution de l'infra des projets du client. En ce sens, vos missions seront : Analyse et veille technologique Recueillir et analyser les besoins techniques en collaboration avec les équipes d’architectes et métiers. Préconiser les meilleures solutions cloud pour répondre aux exigences de performance et de fiabilité. Participer à la rédaction des spécifications techniques et appels d’offre. Assurer une veille active pour rester à la pointe des innovations technologiques. Déploiement et intégration Déployer, configurer et automatiser les solutions sur des environnements cloud (GKE/GCP). Utiliser Helm pour la gestion des déploiements Kubernetes. Mettre en place et optimiser des pipelines CI/CD avec GitLab CI . Automatiser les configurations d’infrastructure avec Ansible (Tower) . Exploitation et amélioration continue Gérer les incidents techniques : diagnostic, résolution et suivi. Participer aux phases de validation et aux mises en production. Proposer des optimisations pour améliorer la performance, la scalabilité et la sécurité des environnements existants. Rédiger et maintenir la documentation technique. Sécurité des systèmes Appliquer les règles de sécurité et les plans de sauvegarde définis par l’entreprise. Garantir l’intégrité et la disponibilité des données. Processus : 2 entretiens Go - No Go
Mission freelance
Tech Lead / Architecte Looker
Dans le cadre du déploiement de Looker comme solution de Data Visualization, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide du groupe.
Mission freelance
Product Owner Big Data
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique
Offre d'emploi
Offre de mission : Profil DevOps CloudOps - Freelance
Pixie Services recrute un(e) DevOps CloudOps confirmé Mission : Pixie Services, spécialiste dans le staffing IT, recherche un(e) expert(e) DevOps pour une mission de longue durée. Compétences techniques requises : GKE/GCP : Confirmé (impératif) Ansible : Confirmé (impératif) GitlabCI : Confirmé Helm : + Français courant Anglais professionnel Description de la mission : Intégration de solutions logicielles et matérielles dans un environnement Cloud (GCP/OpenShift) Déploiement des applications via CICD Support d'incidents en production Mise en exploitation de nouvelles applications ou versions Expertise des technologies Cloud et des services des grands Cloud providers Maîtrise de la conteneurisation, de l'automatisation et de la CI/CD Accompagnement des développeurs et mise en place d'une démarche DevOps Missions principales : Analyse des besoins et veille technologique : Recueillir l'information nécessaire Préconiser des solutions Rédiger des cahiers des charges et assurer une veille technologique continue. Mise en place et intégration : Concevoir et adapter les logiciels Configurer et dimensionner les solutions Tester les systèmes et assurer la validation technique. Exploitation : Valider l'intégration des nouveaux outils Traiter les incidents et anomalies Participer à la maintenance corrective et améliorer les ressources existantes. Sécurité : Assurer le respect des règles de sécurité Gérer les sauvegardes et la sécurité physique des données. Type de contrat : Mission freelance, longue durée Si cette mission vous intéresse, merci de postuler avec votre Cv à jour.
Offre d'emploi
DATA ENGINEER GCP DBT
Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
Developpeur AWS Lambda/Python
En tant que Développeur AWS Lambda/Python, vous assurez les missions suivantes : - Concevoir et implémenter des algorithmes & nouvelles fonctionnalités du logiciel ; - Maintenir et améliorer l'architecture ainsi que les fonctionnalités existantes ; - Gérer et réaliser toutes les phases de développement logiciel de l'architecture à la mise en production ; - Réaliser des tests unitaires. La Stack Technique: - Python - AWS Lambda - Connaissances en Angular Alors ? Prêt à devenir Amiltonien ? N'hésitez pas à postuler si vous vous reconnaissez : - Diplômé Bac+4/5 (Master ou école d'ingénieur), vous disposez d'une belle expérience en Développement Python. - Vous aimez découvrir de nouveaux contextes fonctionnels et comprendre les objectifs des applications que vous développez. - A l'aise dans une organisation agile, vous faites preuve de rigueur et appliquez les standards de qualité Amiltone durant toute la durée des développements. Outre vos compétences techniques, nous nous intéressons aussi à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Mission freelance
Architecte Technique Cloud Expert
Vous intégrerez l'équipe Architecte Cloud , en charge de l'évolution des Plateformes d'Échanges , afin de : Participer à la transformation des échanges sur Kafka et Apigee. Renforcer la résilience des plateformes existantes. Participer à la conception, au cadrage, et au suivi de l’implémentation des solutions choisies. Participation aux cérémonies agiles : Collaborer avec l’équipe architecte Cloud dans un cadre Agile. Conception et documentation : Rédiger un dossier de choix pour sélectionner une solution adaptée. Produire la documentation nécessaire au cadrage et à la validation de la solution. Accompagnement de la mise en œuvre : Travailler en étroite collaboration avec l’équipe Plateforme Échange PDV & Partenaires pour implémenter la solution. Dossier de choix de la solution d'échange. Documents de cadrage et d'architecture. Suivi et accompagnement de la mise en production.
Offre d'emploi
Devops GCP H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un DEVOPS GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Offre d'emploi
Ingénieur devops cloud aws : aws, devops
DÉBUT DE MISSION : 02/01/2025 DURÉE : 24 mois LIEU : Île-de-France – Hybride TJM : 420€HT Nous recherchons pour l’un de nos clients un Ingénieur Cloud orienté DevOps dans le cadre d’une mission de longue durée, pour accompagner la modernisation et l’optimisation des infrastructures Cloud basées sur Amazon Web Services (AWS) . Descriptif de la mission : Vous intégrerez le service Cloud Opérations et interviendrez sur des projets stratégiques visant à automatiser, sécuriser et optimiser les plateformes AWS tout en participant à une transformation orientée NoOps et FinOps. Vos principales responsabilités : Apporter votre expertise sur les opérations AWS et contribuer au développement des services cloud. Créer et améliorer les processus de MCO (Maintien en Conditions Opérationnelles) des plateformes AWS via des pratiques d’automatisation (IaC). Exploiter et tirer parti des services managés AWS (Lambda, API Gateway, DynamoDB, Step Functions, etc.). Automatiser les processus, notamment le patch management et l’inventaire via AWS SSM. Être le référent des systèmes Windows sur AWS. Participer à l’amélioration continue dans une démarche LEAN (suivi via Kanban). Contribuer à l’évolution de la culture FinOps et à l’optimisation des coûts liés au Cloud. Livrer des documents techniques (DAT, normes, propositions d’évolutions, supports de présentation). Compétences techniques requises : AWS (SSM, EFS/FSX, EC2, ELB/ALB, RDS, Lambda, S3, DynamoDB, IAM, ASG, VPC/subnet) : Confirmé Powershell : Avancé Linux : Avancé Terraform : Avancé Python : Avancé Windows : Confirmé ServiceNow, SQL, Bitbucket : Élémentaire Nuggets Chocolatey : Avancé Profil recherché : Minimum 8 ans d’expérience en infrastructure Cloud et DevOps. Maîtrise des environnements AWS avec une expertise sur les services managés et les outils d’automatisation. Solides compétences en systèmes Windows et Linux, et une forte appétence pour l’amélioration des processus via des solutions cloud modernes. Excellentes capacités en communication, esprit d’équipe, rédaction et esprit d’analyse.
Offre d'emploi
SYSOPS H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Sysops H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Mission freelance
Développeur Back Expert
Java Spring MongoDB Kafka Kubernetes (GKE) Terraform Compétences techniques JAVA/Spring - Expert - Impératif GCP - Expert - Impératif Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée Développeur JAVA GCP. Dans le cadre du développement et du déploiement d'une application de gestion backoffice dans plusieurs pays européens SA MISSION : À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures.
Mission freelance
Expert(e) CloudOps
Expert(e) CloudOps Contexte : Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise Compétence recherchée : GKE/GCP - Confirmé - Impératif Ansible (Tower) - Confirmé - Impératif GitlabCI - Confirmé - Impératif Helm - Confirmé – Important
Offre d'emploi
Manager de transition Data Science
Vous interviendrez en tant que Manager de transition pour piloter des projets à fort impact et ancrer une culture data driven au sein des équipes. Votre rôle Définition et mise en œuvre de la stratégie Data Élaborer et piloter la feuille de route pour les usages avancés de la data et de l'IA dans l’entreprise Intégrer une approche data product pour assurer une gestion complète du cycle de vie des outils développés, depuis leur conception jusqu'à leur déploiement et leur évolution Contribuer de manière proactive au développement de la culture Data dans l'entreprise Collaboration Collaborer avec l'ensemble des directions afin de comprendre leurs besoins, les traduire en « data » et livrer des outils d'aide à la décision adaptés Travailler en étroite collaboration avec les interlocuteurs techniques afin de faire évoluer les outils en adéquation avec les besoins et usages futurs Pilotage et accompagnement des équipes Animer et manager l'équipe dans la réalisation d'analyses et de modélisations pour répondre à des problématiques métier, et assurer la direction des projets Contribuer avec un regard expert aux projets possédant des composantes data et IA afin d’optimiser les dispositifs business, réduire les irritants clients et améliorer l'efficacité des processus
Mission freelance
Ingénieur Data Senior
Contexte de la mission : Le département Data IA (DaIA) est chargé de fournir aux différents métiers un socle technologique transversal visant à mettre en production et à industrialiser les cas d’usage liés à la Data. Cela inclut le développement d’une plateforme dédiée à l’enrichissement des métadonnées des contenus, intégrant des technologies d’intelligence artificielle et de génération IA (GenAI). Description du besoin : Le département DaIA recherche une prestation en ingénierie des données pour assurer la conception, la mise en place et la gestion de l’infrastructure AWS. Principales activités de la mission : Développement d’une plateforme de microservices sur AWS. Industrialisation des cas d’usage métiers liés aux médias. Gestion de la qualité, fiabilité et accessibilité des données. Développement de pipelines de traitement de données orientés média. Collaboration avec les équipes Data Science pour identifier les besoins et concevoir des solutions adaptées. Maintenance et optimisation des systèmes de données existants.
Mission freelance
DEVIENS #AUTEUR Développer avec AWS et l'IA
Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur le développement avec AWS et l'intelligence artificielle. "Pourquoi pas moi ? Je suis formateur(trice), consultant(e), développeur(euse), expert(e) en intelligence artificielle... et AWS n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.
Mission freelance
Développeur Back-end Salesforce Commerce Cloud (Demandware)
Pour l'un de nos clients nous sommes à la recherche d'un Développeur ou Développeuse Salesforce Commerce Cloud B2C (Confirmé / 5 ans). VOS PRINCIPALES MISSIONS Assurer les développements backend d’évolutions fonctionnelles ou techniques diverses (Core model / Enhancements) dans le produit Back E-commerce Engine. Assurer les développements et évolutions des SCAPI/OCAPI dans notre contexte et architecture Headless. Participer à la maintenance corrective (Support de dernier niveau). Effectuer les tests techniques ou débug lors des phases de qualification / recette projet. Participer au cadrage et à la conception des projets qui vous seront confiés. Rédiger les documentations techniques. TECHNOS ET COMPETANCES Vous êtes passionné de développement et justifiez d’une expérience significative en développement SFCC (Back-end, Jobs, OCAPI/SCAPI, maitrise de l'ensemble des modules Business Manager...) Sur un périmètre transverse e-commerce). Vous connaissez les technos Postman, Swager, XML, JSON, SOAP, Restfull, SQL, HTML/CSS, Bitbucket/Git, Jenkins, Jira/Confluence. Vous avez déjà travaillé sur Sales Force Commerce Cloud B2C (Sitegenesis ou SFRA), Hybris ou autre plateforme e-commerce… Vous êtes sensibilisé aux méthodologies Agiles (Scrum/SAFe), à la culture DEVOPS. Vous êtes en perpétuelle veille technologique. Vous êtes doté d’un excellent sens analytique et de synthèse.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.