Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
SecOps AWS
SecOps AWS Compétences : Expertise en sécurité opérationnelle : Connaissance approfondie des concepts de sécurité, notamment la gestion des vulnérabilités, les audits de sécurité, et la réponse aux incidents. Expérience en gestion des accès : Capacité à gérer, surveiller, et sécuriser les accès aux systèmes critiques. Compétences en outils de sécurité : Maîtrise des outils de monitoring et de détection des menaces (SIEM, IDS/IPS) pour superviser l’infrastructure. Compétences en automatisation : Utilisation d'outils d’automatisation pour les opérations de sécurité afin d'améliorer l'efficacité et réduire les risques. Gestion des configurations et des patchs : Capacité à mettre à jour et à gérer les configurations sécurisées des systèmes. Connaissance des standards de sécurité : Compréhension des normes et réglementations (ISO 27001, NIST, etc.) pour garantir la conformité. Capacité de travail en équipe : Collaboration avec d’autres équipes pour intégrer et appliquer les meilleures pratiques de sécurité. Livrables : Rapports de sécurité réguliers : Production de rapports d’évaluation de l’état de la sécurité et des incidents détectés. Mise en place et maintien de mesures de sécurité : Implémentation et mise à jour continue des contrôles de sécurité opérationnels. Gestion des incidents de sécurité : Documentation et résolution des incidents en temps réel, avec un rapport post-incident. Tableaux de bord de suivi de la sécurité : Utilisation d’outils comme Power BI pour visualiser l’état de la sécurité et l’efficacité des mesures. Amélioration continue des processus : Identification et mise en œuvre de processus optimisés pour une gestion efficace des opérations de sécurité.. Début : Asap Localisation : Paris
Mission freelance
DevOps AWS
Ingénieur DevOps AWS Secteur : Assurance Description du poste : Le candidat retenu sera responsable du soutien et de la contribution à la migration des applications des environnements locaux vers le cloud public, en utilisant les technologies AWS. Responsabilités principales : Setup cloud platforms Subscription management Architecture and design tech consultancy Project delivery Migration Migration of apps from on prem to Public Cloud Qualifications : Expérience avec les services Cloud AWS et les outils DevOps. Compétence en gestion et support des environnements Cloud. Capacité à travailler sur des projets de migration d'applications vers le cloud. Excellentes compétences en communication Anglais courant requis Stack technique : Services AWS - Expert Terraform - Expert Outils CI/CD : Azure DevOps et/ou GitHub Actions – Expert Début de la mission : ASAP Lieu de la mission : Paris
Mission freelance
Data Engineer Snowflake Aws
Cherry Pick est à la recherche d'un Data Engineer SnowFlake Aws pour un client dans le secteur de la musique. Dans le cadre du développement d'un produit de restitution automatisée de données, nous sommes actuellement à la recherche d'un ingénieur data ayant déjà travaillé sur un projet de ce type. L'ensemble de la solution produit est techniquement conçue en lien avec le Tech Lead qui valide l'architecture logicielle à mettre en place sur le cloud AWS. L'équipe est composée : - 1 PO - 1 TL - 1 développeur fullstack java - 1 OPS Tâches : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données
Mission freelance
Administrateur BDD SI-DevOPS Senior
La mission DBA SI-Devops implique un maintien du système BDD Oracle en place et sa contribution pour transformer la transition vers le Cloud. L’exploitation : Proposer et mettre en place des optimisations de requêtes et des paramétrages BDD Réaliser des analyses de performances en vue d’améliorer les temps de traitement Réaliser le suivi quotidien du plan de production Traiter les incidents et problèmes de production du SI, gérer les tickets depuis leur création jusqu’à leur clôture (prise en charge, analyses, traitement, escalades) Créer, mettre à jour les procédures d’installation, d’exploitation, entretenir la base de connaissance Contribuer aux projets : Apporter sa part de mise en œuvre dans la bascule des SGBD vers le Cloud Collaborer avec les chefs de projet afin de mettre en place les nouvelles fonctionnalités Participer à l’évolution de l’exploitation (amélioration continue, évolution outillage, automatisation des déploiements, documentation, process…) Contribuer à la mise en œuvre des projets liés à la sécurité du SI Résultats attendus : Conseil, alertes, fourniture des éléments nécessaires aux chefs de projet, participation et contribution aux instances des projets
Mission freelance
Administrateur applicatif Big Data sénior
Au sein du Pôle Administration & Transition (ATR) de la Direction des Opérations (DOP), l'administrateur applicatif Big Data sénior interviendra en tant qu’administrateur des applications du client. Veuillez noter que la durée du bon de commande mentionnée est estimative. Elle est sujette à ajustement en fonction des besoins et des évolutions du projet. Objectifs et livrables La principale mission est de participer à : La maintenance en condition opérationnelle des services applicatifs sur la base des meilleures pratiques ITIL ; La mise en œuvre de nouveaux projets pour le client. Mission complémentaire: S’assurer du bon niveau de résolution des incidents et problèmes des Middlewares. Support à la mise en œuvre des changements et des mises en production (Recette d’exploitabilité). Mise en place du Monitoring des nouveaux Middlewares. Participer avec la MOE/MOA aux évolutions des Middlewares. Identifier les impacts des évolutions Middlewares et mettre en place les actions et procédures d’exploitation associées. Rédaction des fiches d’exploitation des Middlewares. Assurer un reporting régulier auprès de son Manager. Spark :Confirmé Kafka :Confirmé Linux (RH, CentOS …) :Confirmé Cassandra :Confirmé Hadoop :Confirmé
Mission freelance
Expert en Migration AWS - Paris
Contexte de la mission : Nous recherchons un expert en migration AWS pour contribuer à l'identification des méthodes de migration adaptées et choisir la plus appropriée pour migrer des applications vers de nouvelles Landing Zones sécurisées. Le consultant sera chargé de s'approprier le modèle d'architecture des Landing Zones AWS et d'en devenir l'ambassadeur technique auprès des équipes projet de migration applicatives. Des interactions avec les équipes d'expertise et d'architecture seront nécessaires pour valider le scénario de migration, l'outillage, la méthodologie et le cahier de recette.
Mission freelance
Data scientist (H/F)
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : · Concevoir, développer et mettre en œuvre des modèles en utilisant des techniques avancées d'apprentissage automatique et de statistiques. · Travailler en collaboration avec les équipes métier pour comprendre les objectifs, identifier les variables clés et définir les critères de succès pour les modèles. · Collecter, nettoyer et préparer les données nécessaires à l'entraînement des modèles. · Utiliser Python et d'autres outils analytiques pour développer des scripts et des pipelines de données efficaces. · Évaluer la performance des modèles, ajuster les paramètres et effectuer des améliorations continues. · Communiquer efficacement les résultats des analyses et des modèles aux parties prenantes non techniques.
Offre d'emploi
DevOps AWS (CDI)
Intervention sur les systèmes rédactionnels spécifique à la rédaction (bimedia web et print), participation aux évolutions de l’infrastructure au sein de la direction technique, Tu est rattaché au responsable informatique rédactionnelle. Mission : assurer le bon fonctionnement et la continuité de service des sites web et des applications métiers, d’intégrer les nouvelles solutions, d’améliorer les performances et le monitoring et également de participer à l’évolution du système d’information éditorial dans le respect des meilleures pratiques et des processus qualité. Tu travailles en collaboration étroite avec les équipes de développement, les équipes QA, et les équipes produit sur l’ensemble du périmètre éditorial. L’équipe: 4 personnes 3 DevOps + le lead infra Missions principales: - Maintenance corrective et évolutive et maintien en conditions opérationnelles du système rédactionnel et de l’architecture technique o Faire l’analyse technique des besoins clients (rédaction, équipe produit, marketing…). o Rechercher et analyser les solutions techniques, les outils, participer aux choix de technologies, de solutions et d’architectures. o Participer à la conception technique et à la modélisation. o Participer au découpage des scénarios utilisateurs en tâches, aux estimations de charge de travail, et à la planification globale dans un contexte agile. o Vérifier le respect des normes et des best practices (sécurité informatique, qualité…). Expérience de 3 ans minimum dans un environnement de production sur un applicatif critique pour le métier. Bonne expérience des plateformes web à fort trafic / volumétrie ainsi que sur les mécanismes de routage et CDN. Un point important l’essentiel des échanges avec nos supports se fait en anglais, tu parles couramment cette langue.
Offre d'emploi
Data engineer GT Lake
Contexte / Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Trade et Treasury Solutions qui aujourd'hui développe et gère un datalake (GT Lake) Ce datalake est une brique clé dans la mise en oeuvre des projets de développements autour du plan stratégique et des besoins métiers. Les principales missions consisteront notamment à : - Rédiger des spécifications techniques détaillées - Analyser les impacts des nouveaux projets sur les traitements/processus du système d’information existant - Comprendre et faire évoluer les modélisations - Développer des requêtes - Réaliser des développements (avec une approche industrielle) - Organiser et réaliser des recettes - Planifier et suivre la production - Implémenter et automatiser de bout en bout des programmes et solutions de Data Engineer dans un environnement Big Data - Intégrer, former les collaborateurs data ingénieur de l'équipe, définir les bests practices... - Participer à la communauté BigData de la BGC La mission se fera exclusivement dans un contexte méthodologique Agile. Il impliquera de pouvoir travailler avec des collègues travaillant à distance dans l’entité de Porto. Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes
Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Offre d'emploi
Expert Cloud Infra réseaux
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client banque basé en Région parisienne un profil Expert sur les problématiques Cloud Infra et réseaux : Au sein de DSIO, le programme Grace (Group Acceleration Cloud Excellence) porte la stratégie Cloud et la transformation du modèle de delivery de la DSI. Ce programme s’appuie sur le pôle Cloud Technology Plaƞorm pour gérer la nouvelle landing zone AWS qui hébergera à terme la majorité des workloads cloud d’Hermès. Cette équipe a pour responsabilité de fournir des socles techniques solides qui seront consommés par les équipes Applicative Plaƞorm de la DSI. Cette équipe est composée de 5 personnes (Architectes et builders) qui ont défini l’architecture cible (Account factory, Identité, connectivité, sécurité …) qui a été validée par les différentes parties prenantes (entreprise architecture & sécurité). La LZ EMEA a été ouverte cet été et sera déclinée AMER/APAC en 2025. En complément du socle LZ, d’autres initiatives complémentaires sont en cours telles que l’automatisation de la documentation AWS, un backup centralisé et l’ouverture d’une LZ en chine (AWS China). Déployer et maintenir les différents socles de la landing zone, s'assurer de la cohérence et de l'homogénéité de l'IAS et de sa documentation, veiller à la conformité avec les standards d'architecte et de sécurité, écrire les scripts pour automatiser des opérations courantes, comprendre les besoins des clients et leur proposer des solutions 'en prenant en compte les enjeux sécurité, couts, facilité de déploiement, d'usage et de maintenance.. Minimum 7 ans d'expérience dans l'infrastructure, développement et/ou cloud, au moins une certification AWS associate (Architect serait un plus). aisance à diagnostiquer, facilité les problèmes.. Bonne connaissances des méthodes Devops et agile. Anglais courant Forte expertise dans le déploiement et la gestion des ressources et services Cloud, Excellente connaissance des socles réseau, sécurité et système, bonne compréhension de la gestion de l'identité, maitrise des outils d'automatisation.... Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
Devops/Cloud Engineer AWS
L’Expert-e AWS/Devops garantit la maitrise technologique des services Cloud et dispose d’un niveau de connaissance suffisant pour implémenter et contrôler la qualité des livrables des tiers. Il/elle est le dernier recours en cas de défaillance des prestataires ou si les SLAs ne sont pas assurés. Sa contribution à la satisfaction des BU est importante. Il/elle est responsable, sur un périmètre d’une Squad, de concevoir l’architecture technique et service et son évolution à moyen / long terme en réponse aux besoins métiers et aux services proposés au catalogue du client. entre : · les ressources de l’Infrastructure existante (incluant le FinOps) · l’adéquation au cadre de référence dans lequel la squad s’intègre, · la performance de la squad (évolutivité, maintenabilité, exploitabilité, réutilisation, cout,…). Il/elle garantit la cohérence de l’ensemble des moyens informatiques (Cloud platform, applicatifs, bases de données, réseaux, middleware, système d’exploitation, PaaS, ServerLess) et de leur évolution, en exploitant au mieux l’état de l’art. Il/elle met tous les moyens en oeuvre pour garantir le respect du niveau de service demandé et la sécurité. Contexte La mission se déroule dans une squad DevOps sous l’autorité du pilote de squad. Au sein de la squad à laquelle il appartient, l’expert-e cloud a pour principales missions : - Migrer des périmètres d’infrastructures « On-Premise » vers le Cloud : Move-To-Cloud applicatifs - Construire des solutions d’infras AWS robustes et scalables pour des applications métiers ou Web, en respectant les contraintes de coût, de performance et de qualité - Refondre des infrastructures déjà présentes sur le Cloud : replatforming, refactoring, optimisations diverses - Participer à la mise en place d’automatisation, d'intégration & de déploiement continu - Assurer l’alignement des systèmes avec les règles de sécurité édictées par le groupe - Accompagner les entités/BU dans leurs activités liées au Cloud : « conseil » / expertise - Être force de proposition dans les domaines de la Sécurité, de l’optimisation des coûts de la performance et de la disponibilité des plateformes. - Être un acteur majeur au développement de notre démarche d’industrialisation et de notre standardisation - Monitorer, Superviser, Opérer les infrastructures en place - Rédiger des documentations d'exploitation et techniques - Etc Maitrise opérationnelle de l’Anglais à l’oral et à l’écrit exigée
Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA
- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.
Offre d'emploi
Data Engineer Spark / Scala
SquareOne intègre sur ses projets partenaires des Ingénieurs Data Spark / Scala pour renforcer des équipes Big data dans la modernisation de leurs plateformes big data / DevOps, initialement basées sur un legacy VM AIX, Linux, BDD Oracle / C++, SQL, Shell, vieillissantes. -> Scala / Spark / Java Spring. La Défense + TT / Projet long terme. Anglais impératif (échanges FR / EN avec des équipes support basées en Inde). Profil recherché : Data Engineer confirmé, autonome, Team player, ayant une expérience avec les technologies Spark, Scala, et autres technologies Big data. Une expérience dev Java et/ou Python est appréciée. CDI / Freelance - Selon profil.
Mission freelance
Administrateur Linux/AWS
Vos missions : Vous serez en charge de l'administration et du support de niveau 2 et partiellement de niveau 3 de l'environnement Linux / AWS de l'entreprise. La connaissance d' EKS est un véritable plus. Il faudra garantir l' exploitation des applications. Vous administrerez les environnements suivants : Production, Pré-production, Performance, Formation, Recette. Vous serez amené.e à assister et former les utilisateurs. Vous superviserez et mesurerez les performances des différents systèmes d’information (pannes, flux, disponibilité).
Offre d'emploi
CLoud DevOps - GenAI
Dans le cadre de ces développements, le DataLab Groupe souhaite confier à un expert Cloud DevOps/AI Engineer, venant en renforcement de son équipe usine logicielle, la mission suivante : - Travailler sur des sujets de migration de solution « on premise » vers le cloud ; - Mettre en place l’outillage nécessaire à l’implémentation d’une méthodologie DevSecOps ; - Assurer l’intégration dans les architectures cible : Configurer les plateformes, Industrialiser les architectures, Définir les accès aux ressources et les optimiser ; - Assister à l’élaboration de solutions et leurs optimisations ; - Exploitation de services Data/IA fournis par les cloud providers, notamment en IA générative ; - Rédiger les documents techniques et des livrables projets ; - Améliorer les architectures actuelles ; - Transférer la connaissance et la compétence aux internes du DataLab Groupe. Résultats Attendus des Livrables : Le consultant sera accompagné par l’équipe usine logicielle. Il devra, par ailleurs, fournir les livrables suivants : - Une documentation conforme aux exigences du DataLab Groupe ; - Un support de l’ensemble des applications gérées en interne ; - Un support de l’ensemble des applications de nos entités et déployés par le DataLab Groupe ; - Codes sources commentés et « reviewés » ; - Intégration de tests unitaires des fonctionnalités développées ; Présentation et partage des travaux.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.