Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Chef de projet IA
Bonjour à tous, Je suis à la recherche d'un Chef de projet IA GEN pour une prestigieuse société internationale. ✅Statut : FREELANCE/PORTAGE SALARIAL ✅Localisation : Paris ✅Visibilité : 1 an renouvelable ✅Réfléchir aux cas d'usages d'IA GEN ✅Encadrement d'une équipe de Data Scientist ✅Connaissance du secteur bancaire ✅Expérience sur des sujets Data Quality / Data Governance 📞 Contact : 07 43 39 24 31 Mission à pourvoir ASAP, entretien avec le client final à prévoir ce jeudi 17/10. Possibilité d'une grande flexibilité sur le TT après un on-boarding d'un mois.
Offre d'emploi
Consultant Data Gouvernance Collibra
Nous un recherchons un Data Manager - Consultant Data Gouvernance étant spécialisé en Gouvernance de données. Maîtrisant la Data Management et la Data Visualisation. Dans le cadre de la gestion et de la mise en gouvernance des données d'une Plateforme Data. Accompagnement des Uses Cases Data pour la définition de leur architecture data au sein de la plateforme dans le respect du paradigme du Data Mesh ; Identification, modélisation et documentation des Data-as-a-products exposés par chaque domaine de données ; Animation et contribution aux ateliers avec les correspondants RGPD (relais DPO) ainsi que les MOA pour l’identification et la classification des données sensibles et des données à caractère personnel ; Catalogage et taggage des données de couche Bronze dans le gestionnaire des métadonnées ; Accompagnement pour la prise en main de l’outil COLLATE (Open Metadata) par les ingénieurs de données afin d’effectuer le taggage des métadonnées de leurs domaines data respectifs conformément aux règles data management ; Participation aux cadrages des fonctionnalités techniques relatives au Data Management : gestion des schémas de données, gestion des contrats d’interface, minimisation des données, framework d’exposition des données … Conception et développement d’une newsletter Data Management sous forme d’un tableau de bord Power BI pour suivre l’évolution des principaux KPIs du patrimoine de données de la plateforme. Environnement Technique : Data Engineering : Databricks Data Storage & DB : AWS S3 Data Visualisation : Microsoft Power BI Data Management : OPEN METADATA, COLLIBRA, Data Galaxy / Data Catalog
Offre d'emploi
Product Owner Bi
Rattaché au Responsable du pôle BI, vous serez en charge du projet de refonte des reporting BI du pôle. Vous serez l’interface entre les utilisateurs des différents métiers (Commercial, Marketing, Contrôle de Gestion), le Data Office et la DSI. Vous interviendrez, sur la nouvelle plateforme, à la fois sur le support des applications existantes et sur le développement de nouvelles applications. Dans un contexte complexe et en construction, avec beaucoup d’interlocuteurs, vous devrez faire preuve d’un très bon relationnel . Vos missions sont : Ø Gérer le Backlog du chantier : l’initialise, le suit et l’améliore Ø Identifier les risques et propose des solutions pour les mitiger Ø Recueillir les besoins et rédige les User Stories avec les utilisateurs : maquettes, règles de gestion Ø S’assurer de la production de la documentation utile Ø Identifier et cartographie les sources de données nécessaires aux rapports Ø Réaliser les études de qualité de données et les dictionnaires de donnée BI Ø Etre le garant de la traduction des données en indicateurs et axes d’analyse métiers : mapping des données et règles de gestion Ø Superviser la performance du chantier au travers des KPIs fonctionnels et techniques Ø Assurer la cohérence fonctionnelle et technique du chantier Ø Rédiger les manuels utilisateurs Ø Etre disponible pour les utilisateurs, le Data Office et les data engineers Ø Etre responsable de la communication : o Participer à la définition de la stratégie de communication vers les utilisateurs o Organiser une boucle de feedback utilisateur en amont des projets o Communiquer sur le Produit et mettre en avant les équipes
Mission freelance
Développeur backend NodeJS PROFIL START UP
Je recherche pour une startup un profil confirmé/senior backend NodeJS. Toutes vos missions : ·Assurer toutes les étapes du développement du produit (conception, développement, test/qualité, déploiement) ·Participer à l’évolution de notre stack technique (architecture, librairies, tests, performance, monitoring, etc.) ·Travailler en collaboration avec les autres membres de l’équipe technique, ainsi que l’équipe produit (méthodes agiles) ·Assurer une veille technologique adaptée aux besoins de l’entreprise
Mission freelance
Architecte ordonnancement (H/F)
Contexte de la prestation : L'entreprise souhaite mettre un œuvre un audit complet de l’existant afin de cartographier l’ensemble du périmètre. A l’issu de cet audit, un grand chantier de la gestion de l’obsolescence ainsi qu’une rationalisation des solutions vont être lancés. Activités : Accompagner l’audit et la cartographie du périmètre Identifier les composants obsolètes et proposer des stratégies de remplacement ou de mise à jour. Concevoir et mettre en œuvre des architectures de système optimisées et rationnalisées. Collaborer avec les équipes techniques pour assurer la bonne intégration des nouvelles solutions. Fournir un soutien technique et une expertise lors des phases de développement et de déploiement. Documenter les architectures proposées et les processus de migration.
Offre d'emploi
Consultant Data Gouvernance - Chefferie de Projet
Au sein de notre Data Fabric, Nous recherchons un Consultant Data Gouvernance orienté Chefferie de projet. Un profil Smart ayant un vernis technique et une réelle expertise en Gouvernance de données (3 ans d'XP minimum). Environnement : Data Catalog / Data Galaxy / Collibra / Le poste est en rythme Hybride. Des déplacements en Allemagne sont à prévoir (prise en charge par l'entreprise) Contexte : Gestion et mise en gouvernance des données d'une plateforme Data Définition,mise en œuvre et gestion du Cadre de Gouvernance des données Gestion & Chefferie de projet des sujets de Gouvernance Accompagnement des Uses Cases Data pour la définition d'architecture (Data Mesh) Identification, modélisation et documentation des Data-as-a-products Animation et contribution des données Catalogage et taggage des donnée Accompagnement pour la prise en main des différents outils de Data Gouvernance par l'ensemble des équipes Participation aux cadrages des fonctionnalités techniques relatives au Data Gouvernance & Management Conception de solutions de Gouvernance Formalisation d’une méthodologie de catalogage des données Construction d’un modèle de métadonnées (métamodèle) sur-mesure Définition des indicateurs de suivi de l’implémentation du Cadre de Gouvernance des données Développement d’un tableau de bord de pilotage Elaboration d’un plan de communication sur le Cadre de Gouvernance des données et proposition de supports de communication adaptés pour chacune des cibles retenues (métiers, IT et Data).
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Offre d'emploi
INGENIEUR OPS RUN; CI/CD AWS/Azure; ITSM; Confluence
Assurer le lien avec entre la prod et les DevOps des projets et CDP Gérer toutes les phases de la mise en production des applications : Utiliser et Maintenir le Delivry de l’infrastructure cloud (services IaaS (Infrastructure As A Service), PaaS, ...) des projets via Terraform Configurer les composants applicatifs / services dans les environnements de production Utiliser les outils de livraisons continues du groupe (usine logicielle PIC/PDC) pour le déploiement des feautures en production Garantir le bon fonctionnement des applications en production et leurs évolutions. Gérer la disponibilité, de la sécurité et de l’évolution du socle avec selon les préconisations du schéma directeur et des architectes Mettre en œuvre les procédures d’exploitation (sauvegarde, automatisations, etc.) Etablir les documents techniques (contribution au DAT (Dossier d'Architecture Technique) / DEX) Superviser les applications avec l’outil de monitoring Groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents, mise en place de nouvelles sondes au besoin) ;
Mission freelance
Système engineer Linux
Tâches principales : • Aider les Designer Technique dans la réalisation de designs d’infrastructure afin de garantir la cohérence entre l’ensemble des systèmes. • Assurer la mise en place des modifications liées aux infrastructures. • Réalisation et exécution de scripts de déploiement. • Installation et configuration des systèmes. • Monitoring et finetuning des systèmes • Assurer la mise en place des backups et des restaurations des systèmes. • Introduire et suivre les demandes, via la 3ème ligne de support, des incidents et problèmes avec les fournisseurs de services d’infrastructures et de système d’information ORES et collaborer avec ceux-ci. • Analyser les incidents récurrents et proposer des solutions ou remonter le problème vers le Service Manager. • Assurer le suivi des mises à jour et patch de sécurité sur les systèmes. Collaboration avec l'Exploitation responsable du release management. • Réalisation et suivi de la documentation opérationnelle et techniques des systèmes. • Production de KPI : Performance, disponibilité et qualité. • Rationalisation et mutualisation des systèmes en vue de garantir la bonne maîtrise des coûts • Participation aux gardes et interventions en dehors des heures ouvrables.
Offre d'emploi
Développeur Python React AWS
L'équipe supervise la maintenance et l'évolution des nombreux systèmes de trading qui permettent de participer à toutes sortes d'activités de marché. Les applications logicielles permettent d'effectuer au jour le jour les opérations nécessaires à la bonne gestion de ses activités. L'objectif du service est d'intégrer une personne supplémentaire à l'équipe chargée de gérer le backlog des applications en rédigeant, en suivant et en testant les User Story et en définissant les priorités. Les applications sont toutes développées en interne et écrites en Python en utilisant Redis, Celery, Flask et FlaskAdmin, SQL-Alchemy, PostgreSQL, Pandas, Timescale DB, React et elles sont hébergées sur AWS.
Mission freelance
Développeur Node (React ou Angular)
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, mongo, postgre, kafka, bucket S3
Mission freelance
Ingénieur DevOps
Du build Participer au développement de la CI/CD et de l'infra as code Apporter de l'expertise sur le choix des solutions Accompagner les équipes de delivery sur les aspects d'opérabilité (résilience, observabilité, performance) Du run Effectuer les mises en production et fournir les outils permettant à l’équipe de réaliser les mises en production S’assurer du bon fonctionnement de la production et veiller à l'opérabilité du monitoring Assurer le maintien en condition opérationnelle de l'infrastructure Réaliser les actions d'amélioration continue Participer à l'analyse d'incident Assurer l'astreinte technique Contribution à la vie de l'équipe et du projet : Etre acteur des cérémonies agiles Participer à la réalisation des éléments du backlog Etre force de proposition sur l'amélioration continue Stack technique : CD/CI : Gitlab-ci Infra As code : Terraform (Services managé AWS, K8S) Suivi : Kibana/Grafana, Superset, Instana, AWS Cloudwatch Service Mesh : istio Serverless : AWS lambdas, AWS API Gateway Caches : Redis, Varnish Stockage de données : Mongo, DynamoDB, AWS S3
Mission freelance
Expert réseau DataCenter
CONTEXTE L’équipe a la responsabilité du maintien en condition opérationnelle et des évolutions des infrastructures Réseau DC et Télécoms. Vous évoluerez au sein d‘une équipe disposant d’un large spectre technologique (F5, VXLAN EVPN, Cisco ACI, VMware NSX, Segment Routing, MPLS…) MISSIONS En tant qu'Architecte Réseau Datacenter, vous serez responsable de la conception de la mise en œuvre et de la maintenance des infrastructures réseau dans nos datacenters. Vous aurez pour principales missions : Concevoir et planifier l'architecture réseau du datacenter, en tenant compte des exigences de performance, de redondance et de scalabilité. Mettre en œuvre les solutions réseau innovantes répondant aux exigences pour garantir la disponibilité et la sécurité. Collaborer avec les équipes d'ingénierie pour intégrer les nouveaux services et applications dans l'infrastructure réseau. Surveiller et analyser les performances du réseau, identifier les goulots d'étranglement pour ainsi proposer des solutions d'optimisation. Participer à l'élaboration de plans de reprise d'activité et de continuité des opérations pour le réseau. Documenter l'architecture réseau, les configurations et les procédures d'exploitation. Assurer l’interface avec les experts des autres domaines. Effectuer une veille technologique sur le périmètre. Expérience significative en conception et déploiement d'architectures réseau dans un environnement datacenter de grande envergure. Outils informatiques Environnements techniques : Cisco (NX-OS, IOS-XR); Fabrics (VXLAN); Routage BGP, OSPF,MPLS Network function virtualization (NFV); SDN (NSX-T, ACI). DNS Efficient IP; Langues Anglais opérationnel (usage régulier)
Mission freelance
DEVOPS / CLOUD
Vous intégrerez une équipe de passionnés d'architecture Cloud et participerez pleinement à faire évoluer un environnement technique très varié et up to date à travers les missions suivantes : ● Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. ● Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/CD…) ● Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. ● Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) ● Travailler en étroite collaboration avec l’équipe d’infrastructure. ● Veille technologique dans le domaine du DevOps. Le candidat doit analyser les tendances et les perspectives d’évolution éventuelles dans le cadre d’eTF1. ● Sensibilisation des développeurs aux problématiques opérationnelles: performances, haute disponibilité, supervision et sécurité Notre stack : AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns Expérience significative à un poste similaire: orienté accompagnement et expérience développeur. ● Bonnes connaissance des processus CI/CD ● Une expérience sur l’écosystème Kubernetes (k8s) dans un environnement de production ● Une expérience significative dans l’environnement et la mise en place de solutions AWS ● Utilisation d’outils d’IAC (Helm, Terraform, Packer, Ansible…) ● Être familier avec les problématiques de HA et les architectures distribuées à forte charge. ● Expérience significative sur au moins un des langages suivant : Bash, Python, Golang
Mission freelance
Data Engineer (Python/AWS)
Il est garant de l’accès qualitatif aux sources de données. Il s’assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …) QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données
Offre d'emploi
EXPERTISE STOCKAGE NAS
- L'intégration et la gestion des solutions de stockage File/NAS NetApp- La conception, le design et la mise en œuvre d'une architecture de stockage- L'administration de systèmes Linux/Windows (Active Directory, NFS/CIFS share management)- La gestion et le suivi d'incidents dans un environnement de production (MCO - Maintien en Conditions Opérationnelles)- La documentation des processus, gestion des versions (Git, SVN, …) - La gestion de projets d'intégration et de migration- Développement et maintenance des scripts d'automatisation (Python, Perl, Bash etc.) et des outils de monitoring/alerting/dashboard (Cloud Insight, Nagios, Grafana, Prometheus…)- Déploiement des pipelines CI/CD à l'aide de Jenkins, Terraform, Ansible, Git et résolution des problèmes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.