Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Architecte technique réseau SD-WAN
Nous recherchons en urgence un architecte technique réseau expérimenté pour accompagner notre lead architect sur les activités d'architecture SD-WAN. Il est impératif que la ressource ait déjà contribué à des projet de définition d'architecture et de déploiement SD-WAN, en particulier avec au moins l'une des solutions leaders du marché telles que CISCO Viptela, Palo Alto Cloudgenix ou Fortinet. Vous possédez une expérience de 10 ans minimum en architecture réseau et sécurité et vous êtes confirmé sur la partie SD-WAN en définition d'architecture et de déploiement
Mission freelance
Expert technique Systeme Linux
Propulse IT recherche un Expert technique systeme Linux pour intégrer une équipe en charge de la conception, de la mise en oeuvre et du support des infrastructures Linux. Cette équipe souhaite renforcer et élargir son éventail de compétences en avec une prestation d'expert technique spécialisé dans les technologies RedHat Linux. Cette prestation aura pour mission d'assurer un support de niveau N2/N3 sur cette plateforme. Nous cherchons également à intégrer des compétences DevOps, notamment dans les technologies d'orchestration et d'automatisation, afin de soutenir nos équipes et nos projets en cours. L'un des projets techniques auxquels le prestataire devra contribuer est l'automatisation et l'industrialisation du processus de déploiement, visant à aligner nos environnements applicatifs sur les normes en vigueur et à adopter une approche similaire au Cloud pour le déploiement sur site. Dans ce contexte, nous attendons du prestataire qu'il nous aide a monter en compétence et participe à la conception des images Packer nécessaires ainsi que les Playbooks Ansible associés. Prestations : - Assurer le support N2/N3 des infrastructures, des paliers OS et des middlewares actuellement utilisés auprès des équipes de la production - Force de proposition dans le cas ou des actions de support sont automatisables - Participer aux projets techniques sur des environnements Linux (mise en œuvre de nouveaux paliers OS, middlewares et des évolutions d'infrastructures existantes)
Mission freelance
Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci)
PROPULSE IT recherche un Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci). Dans le cadre du projet « IAC » et de la maintenance évolutive de la chaine de déploiement continue, le client souhaite se renforcer avec une prestation d'expert technique sur l'infra As Code et le CI/CD. La chaîne d'outillage est composée des éléments suivants : Gitlab (repository + pipelines + runners), Hashicorp Vault, Artifactory , Kaniko, Trivy, Grype, Syft, Checkov, Kubernetes, ArgoCd Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». mission : Réaliser et modifier différents rôles et playbooks Ansible - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Mise à jour des documents des normes d'utilisation de la brique technique - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées Réaliser et modifier différents modules Terraform - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Réaliser et modifier différents jobs et pipelines Jenkins - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution Réaliser et modifier différents jobs et pipelines Gitlab-CI - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Assurer le support N3 de la chaîne CI/CD • Suivi, mise à jour et résolution des incidents en respectant les processus définis • Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) • Mode opératoire des actions réalisées
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Offre d'emploi
Développeur Salesforce Commerce Cloud B2C (F/H)
Nous recrutons pour l'un de nos clients dans le secteur du Luxe, un développeur Back-End SFCC Confirmé (5 ans minimum) pour rejoindre un équipe d'une douzaine de personnes. Vos missions : Assurer les développements Back-End d'évolutions fonctionnelles ou techniques diverses dans le produit Back E-Commerce Participer à la maintenance corrective (dernier niveau) Effectuer des tests techniques / débug lors de phases de qualification / recette projet Participer au cadrage et à la conception Rédiger les documentations techniques
Mission freelance
Consultant Vmware / Container
Propulse IT recherche pour un de ses clients un consultant expérimenté Vmware qui a déjà une bonne expérience de la conteneurisation Les compétences techniques attendues sont les suivantes : o VMWare o NSX Network Virtualization and Security Platform o vSphere 7, ESXi, Update Manager o vSan o vRealize Operations vRO, vRealize Log Insight o vRealize Automation vRA • Expérience en conteneurisation : Kubernetes, Openshift et/ou Rancher Les compétences techniques attendues sont les suivantes : o VMWare o NSX Network Virtualization and Security Platform o vSphere 7, ESXi, Update Manager o vSan o vRealize Operations vRO, vRealize Log Insight o vRealize Automation vRA • Expérience en conteneurisation : Kubernetes, Openshift et/ou Rancher
Mission freelance
Développeur Guidewire (100% Télétravail)
Nous recherchons deux (2) Développeurs Guidewire pour rejoindre notre équipe de conseillers du bureau de Québec ou de Montréal. Ce poste est en mode hybride. Nous prenons en charge les procédures de permis de travail pour les non-résidents du Canada, quel que soit leur statut actuel. Tâches en français Dans le contexte de la livraison de notre solution Policy Center, nous avons besoin d'ajouter deux développeurs GW afin d'accélérer la cadence. Actuellement, trois équipes sont déjà en travaux, et l'ajout de ces développeurs permettra d'atteindre nos objectifs de livraison. Dans le cadre du projet Guidewire Commercial (CLOUD) - Développer et adapter des solutions selon les exigences et les normes de GW Cloud - Participer à la mise en place d'une nouvelle ligne de produit - Participer à la conception et/ou à la réalisation de plans de mise en production des solutions - Participer à l'analyse fonctionnelle et technique des solutions. - Concevoir et effectuer des essais unitaires ou intégrés - Produire la documentation technique des solutions développées ou adaptées
Offre d'emploi
Chef de Projet DATA H/F
Mission Descriptif du poste : Vous avez une forte appétence en management des équipes et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de Chef de Projet Data. Votre mission principale consiste à gérer, superviser et contribuer sur tous les aspects des projets data de nos clients, en veillant à ce qu'ils soient livrés dans les délais et respecter les objectifs fixés. Vous serez responsable de la planification, de la coordination et de la mise en œuvre de projets data ; Vous analyserez la performance de votre équipe via plusieurs indicateurs afin de respecter les objectifs fixés ; Vous recommandez des axes d'améliorations en vous appuyant sur la pertinence de vos analyses et votre force de proposition; Vous acculturez les utilisateurs et les clients internes aux outils; Vous accompagnerez les équipes techniques dans l'optimisation des rendus.
Offre d'emploi
Consultant(e) Data (Paris) H/F
Mission Vous êtes Mathematics lover et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de consultant(e) Data Analyst / Data Scientist. * Votre mission principale consiste à intervenir en clientèle sur des demandes d'expertise solution/méthodologie * Vous êtes en charge du recueil & de l'analyse des données de nos clients et vous vous assurez de leur exploitabilité * Vous accompagnez nos clients sur leurs différents besoins de traitements de données, d'analyses et de modélisation
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Offre d'emploi
Expert Infrastructure / Ingénier d'exploitation flux et cloud
Mission Objectifs de la mission : Mettre œuvre et garantir la bonne exécution des transferts de flux nécessaires aux applications métiers dans le respect du budget, des délais impartis et des critères de sécurité de l'entreprise. Une connaissance ou appétence Cloud est indispensable. Garantir la MCO et les évolutions des middlewares de type flux : CFT, SFTP, etc. (sur Windows, linux, AIX), une connaissance de Websphere/MQ et est un plus. Maintien de l'exhaustivité des référentiels et de la cartographie des flux. Principales activités : Architecture / Avant projets Assurer la veille technologique et sécurité des composants Flux (CFT, Websphere MQ ...). Contribuer à la définition et au maintien des normes et standards CFT (STA, revue de patrimoine). Contribuer à la définition des architectures applicatives. Contribuer à la définition de l'infrastructure CFT (On premise / Cloud). Contribuer à la sécurisation du SI sur le périmètre flux. Projets / Réalisation Contribuer à la migration des moteurs CFT et flux applicatifs vers le Cloud Industrialiser l'installation des composants techniques (distributions, instances). Une connaissance d'Ansible serait appréciée. Déployer / mettre en œuvre les composants techniques nécessaires aux applications métiers. Contribuer à la réussite des projets métiers et techniques. Administration / Support Assurer l'administration avancée des infrastructures Flux (CFT, Websphere MQ...). Assurer le support Niv. 2 de l'exploitation, la relation avec le support Groupe Maintenance des versions pour être dans la matrice de maintenance éditeur Etre en conformité avec les demandes de la sécurité (résorber les vulnérabilités dans les délais imparti)
Offre d'emploi
ingénieur de production IT Linux / windows
Dans le cadre de nos activités, nous recherchons un Ingénieur Production linux orienté devops Au sein d'une équipe de Production Applicative, votre fonction consistera à : - Accompagner les MOE en mode projet sur les applications (pré-production et production); - Assurer les mises en production des nouvelles versions d'applications (tests, recettage, industrialisation en pré-production); - Gérer l'ordonnancement des traitements; - Le développement/maintenance de scripts et d'outils d'exploitation et de monitoring. 50% de teletravail
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Offre d'emploi
Secrétaire Médicale (H/F) - Alternance
La SBE Academy , école du groupe IEF2I Education recherche activement pour le compte d'un médecin généraliste , un profil Secrétaire Médicale (H/F) en apprentissage, pour une durée de 14 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Accueil des patients : Accueillir les patients et les orienter dans l'établissement, gérer les rendez-vous et le planning des consultations Gestion des dossiers médicaux : Créer, mettre à jour et archiver les dossiers médicaux des patients Secrétariat médical : Rédiger et saisir des documents médicaux (courriers, comptes rendus, etc.), répondre aux appels téléphoniques et aux courriels Coordination avec les équipes médicales : Assurer la liaison entre les patients et les équipes médicales, transmettre les informations nécessaires Gestion administrative : Effectuer diverses tâches administratives telles que la facturation, le suivi des paiements et la gestion des stocks de fournitures médicales Respect des procédures : Veiller au respect des protocoles et des procédures de confidentialité des informations médicales Conditions de l'offre : Une formation complète et encadrée dans un environnement professionnel stimulant Une expérience enrichissante au sein d'une équipe pluridisciplinaire Un suivi personnalisé pour développer vos compétences et réussir votre formation Des possibilités d'évolution au sein de notre établissement Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP
Mission freelance
DevOps Engineer Cloud & Infrastructure
Le DevOps sera responsable de : La conception d'une infrastructure cloud hybride sécurisée. Le développement d'outils en Python et de pipelines CI/CD. La maintenance de l'infrastructure et l'amélioration continue des outils de supervision et de sécurité. Responsabilités Principales : Architecture cloud hybride et clusters Kubernetes. Automatisation des déploiements (incluant le matériel). Plateforme de collecte de données et sécurité intégrée. Création d'outils en Python. Définition de pipelines CI/CD. Mise en place de workflows Git (branches, versioning). Intégration d'outils de conformité et de sécurité. Automatisation des déploiements et gestion des serveurs. Optimisation des clusters Kubernetes et des serveurs Linux. Gestion des runners GitLab CI. Renforcement des outils de supervision (Prometheus, Grafana) et sécurité. Technologies et Outils : Cloud : AWS, Kubernetes. Automatisation : Terraform, Saltstack, Ansible. Développement : Python. Supervision : Prometheus, Grafana, ELK. CI/CD : GitLab, GitLab CI. Conteneurs : Docker.
Mission freelance
CONSULTANT MICROSOFT AZURE AD / ENTRA ID
nous sommes à la recherche d'un consultant Entra ID afin de renforcer une équipe actuellement composée de 10 personnes. Le consultant devra avoir un minimum de 6 années d'expérience sur les solutions Microsoft Azure AD/ Entra ID (des compétences AD avec maîtrise du legacy sont déjà en place). Sa mission consistera à participer aux différents projets de reprise de l'activité ainsi qu'à assurer le run Entra ID sur le tenant existant. Run · Participation à la résolution des incidents et demandes de niveau 3 · Participation l'administration courante des solutions Entra ID et Active Directory. Projet · Participe activement aux projets de l'équipe en lien avec les différents acteurs et entités concernées Le lieu de la mission sera situé à La Defense avec une présence sur site de 2 jours. Un démarrage est attendu ASAP sur le mois de Janvier.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.