Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Architecte Cloud Azure (H/F)
Nous recherchons pour l'un de nos clients basés à Paris : Un(e) Architecte Cloud Azure (H/F) L'Architecte Cloud Azure a pour mission de concevoir et d'implémenter l'architecture technique de l'ensemble ou d'une partie du système d'information de l'entreprise. Il assure la cohérence et la durabilité des infrastructures informatiques, en tirant pleinement parti des meilleures pratiques et technologies disponibles, tout en respectant le plan d'urbanisme de l'entreprise. Responsabilités : Cadrages techniques et budgétaires : Collaborer avec les chefs de projet pour définir les cadrages techniques et budgétaires des projets. Définition des best practices d’architecture : Établir et promouvoir les meilleures pratiques d'architecture pour les solutions cloud. Documentation : Rédiger et maintenir la documentation technique (DAT, HLD, etc.). Accompagnement de la stratégie Move2Cloud : Soutenir et guider la stratégie de migration vers le cloud. Accompagnement des équipes : Assister les équipes d’exploitation et de développement dans l'implémentation des solutions cloud. Veille technologique : Effectuer une veille technologique pour rester à jour avec les dernières innovations et tendances du marché.
ARCHITECTE SOLUTION H/F
Axone by Synapse, cabinet de conseil IT innovant, recherche un ARCHITECTE SOLUTION H/F pour une mission passionnante de 6 à 12 mois mois renouvelable chez l'un de nos clients majeurs. En tant qu'Architecte Solution, vous serez en charge de : Concevoir et architecturer des solutions techniques sur la plateforme Centric Software, en alignement avec les besoins métier et les contraintes techniques du client. Piloter l'intégration de nouveaux modules et fonctionnalités, en veillant à la cohérence et à la performance globale du système. Collaborer avec les équipes techniques et fonctionnelles pour garantir la qualité des livrables et le respect des délais. Assurer la veille technologique et proposer des évolutions innovantes pour optimiser l'utilisation de Centric Software. Documenter les architectures et les processus mis en place pour assurer la maintenabilité et l'évolutivité des solutions. Pour cette mission, une connaissance ou une expérience sur les technologies suivantes serait un atout : Intégration de systèmes : API REST, SOAP, middleware (MuleSoft, Dell Boomi, etc.). Bases de données : SQL Server, Oracle, ou autres SGBD relationnels. Environnements cloud : AWS, Azure, ou Google Cloud Platform. Outils de gestion de données : ETL (Talend, Informatica), data lakes, ou entrepôts de données. Frameworks de développement : .NET, Java, ou Python pour les extensions et personnalisations. Gestion de projets et collaboration : Jira, Confluence, ou outils similaires. Sécurité informatique : connaissances en cybersécurité et conformité (RGPD, etc.). N'hésitez pas à m'envoyer votre CV!
Data engineer Sénior
Nous sommes à la recherche d'un data engineer sénior pour une mission longue durée pour un client de grand compte dans le secteur de la grande distribution. Contexte et missions : Conception et optimisation de pipelines de données sur GCP (BigQuery, Cloud Functions). Modélisation des données et optimisation des requêtes SQL. Mise en place de solutions de monitoring et maintenance des pipelines. Encadrement d'une petite équipe et collaboration avec les équipes métiers. Compétences requises : Maîtrise de GCP, SQL, Python. Connaissances Kafka, Airflow/Composer. Sens de la qualité des données et de la sécurité. Plus de 5 ans d'expérience autant que data engineer Connaissance Data Studio, Looker
DevOps GCP
Vous intégrerez une petite structure innovante, éditeur de logiciels spécialisé dans la data, pour intervenir sur des problématiques d'infrastructure et d'automatisation. En tant que DevOps GCP , vous serez en charge de : Concevoir et déployer des infrastructures cloud sur Google Cloud Platform . Mettre en place et optimiser des pipelines CI/CD. Superviser les environnements avec des outils adaptés Garantir la sécurité, la performance et la disponibilité des systèmes. Collaborer avec les équipes data et développement pour répondre aux besoins métiers.
Lead FinOps on GCP/ Data Delivery Manager – 92 - Grand compte international
🔎 Recherche Lead FinOps / Data Delivery Manager – 92 Description de la mission => Nous recherchons un Lead FinOps / Delivery Manager pour accompagner un client de renom dans le secteur de la grande consommation sur un projet stratégique de gestion et d’optimisation des coûts liés à Google Cloud Platform (GCP). Vos missions principales : 1. Delivery Leader (60%) Superviser les équipes pour garantir l’utilisation des bonnes pratiques d’ingénierie ; Assurer la qualité technique des livrables et leur conformité avec le cadre technique défini ; Gérer l’assignation des ingénieurs aux équipes Scrum en fonction des besoins et des compétences ; Maintenir la cohérence technique globale des solutions mises en œuvre. 2. Innovator (20%) Proposer des améliorations continues pour aligner la plateforme avec un environnement en constante évolution ; Participer activement à la communauté d’ingénieurs pour promouvoir et intégrer des innovations. 3. Anticipator (20%) Comprendre et challenger les besoins métier en collaboration avec les Product Owners (PO) ; Planifier la taille et les compétences nécessaires des équipes pour répondre aux objectifs ; Gérer le cadrage et les estimations des efforts nécessaires. Informations : Lieu : Mission hybride (remote + présentiel) sur Nanterre. Durée : 12 mois renouvelables. Démarrage : ASAP. TJM : À définir selon profil.
Data Architect
Missions Pour l’un de nos clients du secteur du luxe, vous intervenez sur des missions à forte valeur ajoutée en tant que Architecte Data. En étroite collaboration avec vos interlocuteurs, vous accompagnez et conseillez notre client dans le cadre de la gestion du cycle de vie de ses infrastructures actuelles et participez au projet d’évolution et au maintien en condition opérationnelle. Vos tâches seront les suivantes : Conception de l’architecture et vérification de l’implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Responsable du suivi des principes établis au niveau du groupe (architecture, sécurité et confidentialité des données) dans les plateformes de données. Soutien à la stratégie NFR en lien avec le Data Tech Lead de chaque équipe Data Product. Support à la stratégie de données définie par l’équipe Data (fondations techniques : GCP, Google Big Query, DBT et Airflow/Composer). Conduire et prendre en charge la feuille de route technique des plateformes de données. Apporter une expertise sur les architectures et les plateformes de données pour aider les différents acteurs à suivre la stratégie de données. Piloter l’évaluation et l’optimisation des architectures de données. Documenter l’architecture (Confluence) et assurer le suivi des actions d’implémentation (Jira).
Achitect Infrastructure
JCW est à la recherche d'un Architect infrastructure pour l'un de ces clients. Profil recherché: Au moins 7-8 ans d'expérience en tant qu'architecte Expertise sur VMware - Kubertnestes/Redhat Openshift - GCP sera impératif Expertise sur Big Data et C4 Model sera également impératif Connaissance de d'autres outils sera appréciée La Mission: Démarrage ASAP Localisation: Ile-de-France Durée: 1 an renouvelable Fréquence: 3 jours sur site et deux jours de remote Langues: Francais et anglais impératif Si vous êtes intéressées, ou connaissez des personnes qui pourraient l'être, merci de m'envoyer vos/ leur CV à pour une considération immédiate.
Data engineer GCP - H/F
Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Data Engineer GCP & Dbt
Nous recherchons pour le compte de notre client, une entreprise de premier plan reconnue pour son innovation et son excellence, un Lead Data Engineer expérimenté doté d’une expertise en environnement Google Cloud Platform ( GCP ). Ce rôle stratégique s’adresse à un professionnel qui saura combiner compétences techniques pointues et compréhension des enjeux métiers pour accompagner notre client dans l’exploitation et l’optimisation de ses données. Expertise en BigQuery Expérience solide avec Apache Airflow Expertise en Dbt Conaissance de la CICD Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform
Expert DevOps Cloud (GKE/OpenShift) - Projet Innovant dans le Secteur Retail - Chatillon (H/F)
Notre entreprise est à la recherche d'un talentueux Expert DevOps Cloud pour accompagner notre pôle DevOps dans une mission clé. Engagés dans une culture DevOps, Cloud, CICD et automatisation forte, nous visons à optimiser nos processus de déploiement et d'intégration continue. L'équipe, composée de professionnels passionnés, gère une variété de projets innovants visant l’excellence opérationnelle et la satisfaction client. La création de ce poste répond au besoin d'intégrer des solutions logicielles et matérielles de haute qualité dans notre environnement de production cloud et de renforcer nos capacités d'automatisation et de déploiement continu. ▶️ Missions Principales: Intégrer des solutions dans l'environnement de production Cloud (GCP/OpenShift) et en assurer le déploiement via CICD. Gérer le support nécessaire des applications lors des incidents en production. Intervenir dans la mise en exploitation de nouvelles applications ou la livraison de nouvelles versions. 🛠️ Stack technique À maîtriser: GKE/GCP - Confirmé Ansible (Tower) - Confirmé GitLabCI - Confirmé Helm - Confirmé Environnement technique global: Cloud Providers (GKE/OpenShift) CI/CD Pipelines Automatisation et conteneurisation
Développeur Big Data GCP
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Expert Réseaux Multi Cloud Senior - PARIS
Missions principales Vous serez en charge de la conception, l’optimisation et le déploiement d’architectures réseau dans des environnements multi Cloud (AWS, GCP, Azure, …), en assurant l’alignement avec les meilleures pratiques FinOps et DevOps. Vos principales responsabilités incluent : Définition d’architectures réseau pour des environnements multi Cloud. Optimisation des coûts Cloud dans une approche FinOps. Configuration et gestion des composants Cloud Provider, tels que DirectConnect, VIF, Proxy, Bucket S3, TGW, NLB/ALB, DNS hybride (Route53 / Infoblox), etc. Automatisation des tâches via des outils comme Ansible et Terraform. Intégration avec des environnements DevOps tels que GitLab et Proxmox. Gestion et administration des pare-feu Palo Alto.
Software Engineer IA & Computer Vision | Casablanca 100% Remote
Dans le cadre de l'industrialisation de modèles d'intelligence artificielle basés sur des techniques de computer vision , vous serez intégré(e) au service Data Science pour contribuer à la mise en place et à l’optimisation des pipelines de données et des workflows IA. Vos responsabilités Collaborer avec l’équipe Data Science pour déployer et maintenir des modèles d’IA en production. Concevoir, développer et optimiser des pipelines de données avec Apache Airflow pour garantir une gestion efficace des workflows. Mettre en place des infrastructures cloud sur Google Cloud Platform (GCP) , en utilisant des outils comme Docker et Kubernetes pour une gestion scalable et robuste des environnements. Intégrer les meilleures pratiques DevOps/DataOps (CI/CD, monitoring, automatisation) dans les projets IA. Garantir l’intégration des modèles basés sur des bibliothèques de data science et computer vision dans des systèmes opérationnels. Participer à l’amélioration continue des process d’industrialisation des modèles IA. Environnement technique Outils et technologies : Docker, Kubernetes (expertise requise), Airflow, Git. Cloud : Google Cloud Platform (GCP). Domaines d'application : Intelligence artificielle, Computer Vision, Data Science. Langages et bibliothèques : Python (librairies data science comme TensorFlow, PyTorch, OpenCV, etc.).
Devops GCP
Au sein des équipes opérationnelles, la mission de devops consiste à - assurer l'intégration continue des solutions développées - maintenir les plateformes - Suivre le monitoring de la plateforme - Implémenter des évolutions sur les scripts de fichiers sources de l'usine logicielle (script de packaging/paramétrage, job de build / livraison). - Implémenter les outillages et procédures de répétitions (ex: backup, automatisation, test de paramétrage). - Supporter des équipes de développements et de recette sur les activités de BUILD et de RUN. Le poste requiert des astreintes
Expert réseaux hybrides pour support Niveau 3
Bonjour, Nous recherchons pour notre client grand compte un Expert réseaux hybrides pour support Niveau 3 . Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/ERHN3/4660 dans l’objet de votre message La prestation : Maintenir en condition opérationnelle des réseaux hybrides (support niveau 3 pour le MCO) Supporter l’exploitation (traitement des tickets escaladés) Analyser et proposer des améliorations continues sur le MCO des réseaux hybrides (niveaux 1, 2 et 3) Assurer des interventions ou des astreintes ponctuelles en heures non ouvrées (HNO) Concevoir les changements réseaux hybrides nécessaires pour le MCO Automatiser les déploiements via les outils spécifiques du client Transférer la connaissance aux équipes Ingénierie et Support Livrables attendus : Documents de MCO de l'architecture réseaux hybrides Documents d’automatisation (code source commenté) Documents d’exploitation. Cahier de recette des changements
Engineering Manager Connectivités – Martech – Aix en Provence F/H
Principales missions : Concevoir et développer une architecture de plateforme distribuée et scalable. Intégrer des connecteurs pour les API et services tiers. Optimiser les performances de la plateforme en termes de traitement des données. Missions annexes : Supervision de la sécurité et de la résilience des flux de données. Collaboration avec les équipes interfonctionnelles pour aligner les objectifs techniques et commerciaux. Stack technique À maîtriser : Java, Spring, Quarkus Systèmes distribués, traitement de données à grande échelle Bases de données distribuées (Cassandra, MongoDB) API REST Cloud (AWS, GCP, Azure) Environnement technique global : Agrégateurs (Amadeus Hospitality, Sabre, Travelport, GetYourGuide) Outils de gestion de projets Agile
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.