Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur Cloud GCP H/F
Dans le cadre de notre croissance, nous recrutons un(e) Ingénieur Cloud GCP. Le poste est basé à Paris (possibilité de télétravail selon la mission). Votre rôle s'articule autour de différents axes : En tant qu'Ingénieur Cloud GCP, vous serez responsable de la migration et de l'optimisation des applications vers l'environnement cloud Google Cloud Platform (GCP). Vous rejoindrez une équipe dédiée au projet Move-to-cloud, en charge du build et de la migration des applications critiques pour les clients internes et externes. Vous jouerez un rôle clé dans l'automatisation des infrastructures, la conception des architectures et l'intégration des solutions cloud. Missions principales : - Infrastructure as Code (IAAC) : Développer et maintenir des modules Terraform pour automatiser le déploiement des infrastructures sur GCP via des pipelines de déploiement. - Migration Cloud : Gérer la migration des applications vers les services cloud, incluant des services tels que GCP App Engine, GCP Compute Engine, et d'autres services GCP pertinents. - Architecture Cloud : Participer à la conception des architectures cloud, en assurant une intégration fluide des applications et des bases de données dans les environnements GCP. - Provisioning : Déployer et configurer les infrastructures cloud, incluant les services réseau, les composants de sécurité et les services de bases de données sur GCP. - Automatisation et CI/CD : Intégrer des pipelines CI/CD pour assurer des déploiements continus et fiables, en utilisant des outils d'intégration comme Cloud Build ou GitHub Actions. - Kubernetes : Administrer des clusters Kubernetes sur GCP, en assurant une orchestration efficace des conteneurs et une gestion des applications déployées. - Collaboration Agile : Travailler en étroite collaboration avec les équipes de développement et les parties prenantes en suivant les méthodologies agiles pour assurer la réussite du projet.
Mission freelance
Data engineer senior (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior (H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer senior (H/F) : BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité - Documentation si nécessaire Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts)
Mission freelance
Chef de projet technique Data / IA (H/F)
Notre client dans le secteur Santé et pharma recherche un/une Chef de projet Technique Data / IA H/F Description de la mission: Dans le cadre du renfort de ses activités, notre client souhaite faire appel à un freelance expérimenté en gestion de projet technique. Au sein du Service Data Intégration (SDI) de notre client. Vous interviendrez en tant que Chef de projet, vous serez en charge des activités suivantes : 1. Gérer le support des sujets transverses Data multi contexte de référence Produits, client/sectorisation et axes analytiques, de la prise d’appel/ticket, de la spécification des besoins fonctionnels à la fourniture des corrections 2. Cadrer sur cette fonction support : - La définition du périmètre fonctionnel par l’animation d’ateliers avec les métiers et les CP/experts inter programmes - L’identification de la gouvernance de données à partager avec la cellule Data Architecture 3. Analyser sur des tâches liées au support Data transverse : - La qualité de données : savoir la manipuler, l’agréger, la « faire parler» - Les impacts fonctionnels au sein du MDM et informer les SI sources et consommateurs connectés au MDM, - Les impacts techniques au niveau du middleware (bus temps réel et batch). - Les workflows simples de reprise de données ou utiliser et comprendre des workflows existants - Les chargements de données - La qualification des données 5. Suivre / Communiquer : - L’avancement des travaux en remontant régulièrement auprès du Product Owner les indicateurs clés et les alertes - Les équipes techniques au sein des MDM - Les experts technico fonctionnels des SI fournisseur de données, des SI consommateur de données et des flux de données (interface) IA : Accompagner les équipes métier IA : - Définir les fonctionnalités et les exigences des différentes applications. - Communiquer les besoins technico/fonctionnels à l'équipe de développement. - Planifier et prioriser les backlog des produits : Responsable de la planification et de la priorisation des backlog des produits. - Collaborer étroitement avec le Service Manager IA et l'équipe de développement pour assurer la cohérence et la qualité du produit final. - Paramétrer les chatbots pour répondre au mieux aux demandes métier : Configurer et optimiser les chatbots pour qu'ils répondent efficacement aux besoins des équipes métier. - Assurer une intégration fluide des chatbots avec les systèmes existants pour améliorer l'expérience utilisateur. - Rédaction de fiches de tests et test des développements : Rédiger des fiches de tests détaillées pour s'assurer que les développements répondent aux exigences fonctionnelles et techniques. - Effectuer des tests rigoureux des développements pour identifier et corriger les bugs ou les problèmes de performance. consommateurs de données et des flux de données (interface). Mission avec un démarrage ASAP, prévoir des déplacements sur site clients 3 jours / semaine.
Offre d'emploi
Architecte Infra Cloud
1 - Contexte et objectifs de la prestation : La vision de GCOO (Group Chief Operating Office) est de permettre une excellence opérationnelle de premier ordre dans l’ensemble du Groupe en s’appuyant sur la Technologie (digital, données et IA) et les Talents. (Platform As A Service) est le département en charge d’opérer l’ensemble des domaine techniques Bases de Données, BigData, Middleware & Containers au sein de la production informatique du Groupe. Le client a pour mission de définir l’architecture des services délivrés et opérés par le département en lien avec les Opérations ainsi que la définition et le pilotage de la roadmap de transformation et initiatives transverses. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Architecture technique. Dans ce cadre, la prestation consiste à contribuer à/au(x) : - La définition des architectures et des Services associés - L'assistance aux entités (architecture Technique Infrastructure. - Assistance aux architectures en respectant les principes de sécurité mis en place - La documentation des architectures, principes et bonnes pratiques - Déploiement des architectures 2 - Livrables attendus Les livrables attendus sont : - Etudes d'Architectures - Roadmap des Services - Principes de sécurité - Documentation des architectures (DAT), HLD - Document de bonnes pratiques 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Amazon Web Services ( AWS ) • Docker • Kubernetes • MS Azure • Open source • Oracle • PostGreSQL • Rabbit MQ • SQL Server Database • TOGAF • Airflow • Red Hat Enterprise Linux
Mission freelance
ingénieur cloud azure et GCP - 550€ max
Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent. Vous avez un bon niveau d'anglais. Environnement: • OS: 90% Windows servers, 5% Linux servers, 5% PaaS • Cloud: 85% Azure, 10% GCP, 5% Aliyun
Mission freelance
Data Modeler - Industrie
Concevoir et maintenir des modèles de données conceptuels, logiques et physiques adaptés aux besoins métiers. Collaborer avec les équipes techniques et métiers pour identifier et formaliser les besoins en données. Définir les relations entre les différentes entités et structurer les bases de données relationnelles et NoSQL. Optimiser la performance des bases de données (indexation, partitionnement, etc.) en fonction des volumes et types de données. Garantir l'intégrité et la qualité des données via la mise en place de règles de gestion et de validation. Documenter les modèles de données et fournir des schémas et rapports techniques détaillés. Assurer une veille technologique sur les nouvelles méthodes et outils de modélisation des données.
Mission freelance
Développeur Back
Python - Expert - Impératif GCP - Confirmé - Important Java - Junior - Souhaitable Terraform - Junior - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée En tant Développeur Back-end, vous interviendrez sur le produit Data Pipelines, qui rassemble un ensemble d’outils permettant aux équipes produits d’Adeo de construire et monitorer leurs data pipelines en complète autonomie. A ce titre, voici vos missions : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review
Mission freelance
Ingénieur Azure Data
Opportunité Freelance - Ingénieur Azure Data/Python - IDF Je recherche un Ingénieur Azure Data/Python Démarrage ASAP Localisé en IDF, 50% sur site Je recherche un Ingénieur Azure Data/Python pour un de mes clients en IDF Le client souhaite réaliser une migration de son DataLake. Le but est de réinitialiser et purger l'ancien DataLake vers le nouveau DataLake en passant par l'ETL et les deux cubes SSAS. Ils vont donc créer deux nouveaux cubes SSAS. Il y a également tout un sujet de " Data Quality " que le client ne gère pas pour le moment Compétences obligatoire : Azure Data Factory Python SQL Server Idéalement : Azure DataBricks PowerBI Je suis disponible pour discuter avec vous et échanger sur cette proposition, Sandro Curcio.
Mission freelance
System Architect - Lead Cloud Transformation - Remote - 6 Months
Principales responsabilités : • Diriger l'ART (Agile Release Train) : superviser le processus de bout en bout de la migration DIGIT services d'hébergement cloud au sein du Scaled Agile Framework (SAFe). • Architecture et stratégie cloud : développer et mettre en œuvre une feuille de route d'architecture cloud qui prend en charge les besoins de l'entreprise, en mettant l'accent sur l'évolutivité, la sécurité et les performances. • Conception et mise en œuvre : Concevoir des architectures cloud de haut niveau (AWS, Azure, GCP, etc.) et superviser leur intégration avec les services existants. Assurez-vous que les décisions architecturales sont aligné sur les meilleures pratiques pour les services cloud natifs. • Collaboration : travailler en étroite collaboration avec les équipes Agile, les chefs de produit et les propriétaires d'entreprise pour décomposer le travail d'architecture en fonctionnalités exécutables et en histoires dans PI (Program Planification incrémentale. • Amélioration continue : Favoriser les améliorations continues de la stratégie et de l'exécution du cloud en évaluant les technologies émergentes, les meilleures pratiques et les outils de gestion du cloud. • Conformité et sécurité : Assurez-vous que les environnements cloud sont conformes, sécurisés et normes de gouvernance. • Mentorat et leadership : fournir des conseils architecturaux et un leadership pour le développement équipes, en veillant à ce que la conception et la mise en œuvre des services cloud soient conformes aux stratégie globale de transformation du cloud. • Communication avec les parties prenantes : dialoguer avec les principales parties prenantes, en fournissant des éclaircissements communication sur l'avancement de la transformation du cloud et sur la manière dont l'architecture soutient des objectifs organisationnels plus larges.
Mission freelance
Développeur Python (F/H) - 59
Notre client est un groupe international leader dans la distribution de produits pour l’amélioration de l’habitat, le bricolage et le jardinage recherche un(e) Développeur Python Mission : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review
Offre d'emploi
Expert Cloud (H/F)
Nous recherchons un Expert Cloud avec une expérience approfondie dans les environnements AWS, GCP et Azure pour intégrer notre équipe. Vous jouerez un rôle clé dans la conception, le déploiement, et la gestion de solutions cloud à grande échelle. Votre expertise dans ces trois principales plateformes de cloud computing sera essentielle pour guider les choix technologiques de nos clients et assurer une transition fluide vers le cloud. Responsabilités : - Concevoir et mettre en place des architectures cloud sécurisées, évolutives et performantes sur AWS, GCP, et Azure. - Superviser la migration d'infrastructures traditionnelles vers le cloud, tout en garantissant la continuité de service. - Automatiser et optimiser les processus de déploiement, de gestion des configurations et de surveillance sur différentes plateformes cloud. - Assurer la sécurité et la conformité des systèmes cloud en accord avec les meilleures pratiques. - Gérer et résoudre les incidents liés aux environnements cloud en collaboration avec les équipes d'ingénierie. - Fournir un soutien technique avancé et former les équipes internes aux bonnes pratiques d'utilisation des solutions cloud. - Élaborer des stratégies multicloud pour optimiser l'utilisation des différentes plateformes en fonction des besoins spécifiques des projets. - Participer aux audits de performance et de sécurité des infrastructures cloud.
Offre d'emploi
Cloud Architect (DataOPS/MLOPS)
Dans le cadre de son désir de développer de nouveaux cas d'usage de l'IA dans le cloud, le DataLab Group souhaite exploiter toute la puissance du cloud pour tirer parti des capacités des modèles d'IA propriétaires et open-source. Objectif : - Aborder les sujets liés à l'IA générative en lien avec les offres AWS (Bedrock, SageMaker, etc.), en mettant l'accent sur les concepts clés (LLM, RAG) et les défis actuels tels que la scalabilité, les coûts et les optimisations ; - Superviser l'intégration fluide de ces modèles d'IA avancés dans notre infrastructure cloud ; - Optimiser l'utilisation des ressources, l'assurance de l'évolutivité et la promotion de la collaboration entre les équipes de développement et d'exploitation. Responsabilités : - Accompagner l'équipe technique dans les meilleures pratiques de développement et d'intégration continue ; - Collaboration avec les parties prenantes : Établir et maintenir des canaux de communication efficaces avec divers acteurs, y compris les dirigeants, les clients et les équipes internes ; - Mise en place d'une architecture permettant le déploiement continu de modèles d'apprentissage automatique ; - Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de développement ; - Créer des POC (Proof of Concept) de tests d'intégration dans Kubernetes, démontrant le potentiel des pipelines de déploiement automatisés et efficaces ; - Concevoir l'architecture des composants AWS responsables du stockage et de l'intégration des données ; - Gérer et maintenir l'infrastructure as code, en utilisant des outils tels que Docker, Kubernetes et Terraform ; - Optimiser les flux de travail existants en identifiant les goulets d'étranglement et en proposant des solutions d'amélioration ; - Surveiller les performances du système, l'efficacité des processus et la disponibilité des services en implémentant des métriques et des outils de monitoring.
Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure
Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible
Mission freelance
Expert Ingenieur Cloud FinOps
Bonjour, je recherche un expert cloud Fin Ops pour venir accompagner mon client dans la stratégie de la réduction des couts cloud public AWS AZURE GCP, tout en maintenant les performances Il faudra participer au cadrage du besoin client et réaliser les ateliers Faire les soutenances et proposition commerciale Les taches afférentes : - Accompagner les architectes SI pour l'estimation des coûts des solutions envisagées, - Maintenir et optimiser le fonctionnement des outils de suivi des coûts Cloud (de la collecte des données FinOps jusqu'à la production des tableaux de bord financiers) - Audit d'optimisation de facture, analyse les données financières, identifier les opportunités d'économies - Implémentation d'optimisation - Formation - Déployer des outils de "reporting" - Développer des scripts de contrôle des couts, Automatiser - Animation de COPIL
Mission freelance
developpeur Full Stack
Dev (python, GO) - Confirmé - Impératif Devops (GCP, Kubernetes, Agile) - Confirmé - Important CI/CD (github/ github actions) - Confirmé - Important Monitoring (datadog, pagerduty, promotheus) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée Au sein de notre équipe Cloud Databases, tu seras un renfort dans notre équipe en charge du Build de notre solution de déploiement et de management de base de données dans le Cloud. Tu es un développeur full stack confirmé, Curieux, force de proposition, tu souhaites t'investir au sein d 'une équipe de qualité. Alors rejoins-nous !
Mission freelance
Développeur Full Stack Python et Go
Nous recherchons un Développeur Full Stack confirmé pour rejoindre notre équipe Cloud Databases. Si vous êtes passionné par le développement et l'optimisation de solutions de gestion de bases de données dans le Cloud, cette opportunité est faite pour vous. La mission est basée à Ronchin (59) Vos principales missions seront les suivantes : · Participer activement à la conception, au développement et au déploiement de solutions en Python et GO . · Collaborer avec l'équipe DevOps pour gérer les infrastructures sur GCP et Kubernetes en suivant une approche Agile . · Implémenter et maintenir des pipelines CI/CD (via GitHub / GitHub Actions ) pour automatiser les déploiements. · Assurer la surveillance de l'infrastructure et des applications avec des outils tels que Datadog , PagerDuty , et Prometheus . · Travailler au sein d'une équipe dynamique et proactive, en étant force de proposition.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.