Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Développeur Java orienté Master Data Management
## Contexte du poste Au cœur d’une entreprise renommée du secteur des services financiers, située à proximité de Lyon, notre département IT transversal est en quête de talents pour relever le défi de l’innovation et du développement durable dans le domaine du Master Data Management (MDM). Au sein d'une équipe à taille humaine composée de spécialistes passionnés, vous travaillerez sur des projets critiques visant à consolider, gérer et optimiser les données de référence de l'entreprise. Ce poste est ouvert en raison de notre volonté d'internaliser les compétences, suite à l'évolution de notre stratégie visant à renforcer notre expertise en interne. Intitulé du poste : Développeur Java Spécialisé en Data Engineering ## Missions Missions principales : - Conception et développement de solutions pour le Master Data Management en utilisant Java dans un contexte d'utilisation de Tibco. - Interconnexion avec d'autres systèmes tels que l'ETL Pentaho et l'ESB Tibco Business Works. - Contribution à la consolidation des données et à l'optimisation des applications pour créer une source unique et fiable. Missions annexes : - Maintien en conditions opérationnelles des applications, incluant la gestion des tickets et la participation à des montées de versions occasionnelles. - Collaboration transversale avec d'autres équipes techniques pour assurer la fluide consommation des données du référentiel. ## Stack technique À maîtriser : - Java - Tibco, Pentaho Environnement technique global : - Master Data Management (MDM) - ESB Tibco Business Works - Data Engineering
Mission freelance
System Architect - Lead Cloud Transformation - Remote - 6 Months
Principales responsabilités : • Diriger l'ART (Agile Release Train) : superviser le processus de bout en bout de la migration DIGIT services d'hébergement cloud au sein du Scaled Agile Framework (SAFe). • Architecture et stratégie cloud : développer et mettre en œuvre une feuille de route d'architecture cloud qui prend en charge les besoins de l'entreprise, en mettant l'accent sur l'évolutivité, la sécurité et les performances. • Conception et mise en œuvre : Concevoir des architectures cloud de haut niveau (AWS, Azure, GCP, etc.) et superviser leur intégration avec les services existants. Assurez-vous que les décisions architecturales sont aligné sur les meilleures pratiques pour les services cloud natifs. • Collaboration : travailler en étroite collaboration avec les équipes Agile, les chefs de produit et les propriétaires d'entreprise pour décomposer le travail d'architecture en fonctionnalités exécutables et en histoires dans PI (Program Planification incrémentale. • Amélioration continue : Favoriser les améliorations continues de la stratégie et de l'exécution du cloud en évaluant les technologies émergentes, les meilleures pratiques et les outils de gestion du cloud. • Conformité et sécurité : Assurez-vous que les environnements cloud sont conformes, sécurisés et normes de gouvernance. • Mentorat et leadership : fournir des conseils architecturaux et un leadership pour le développement équipes, en veillant à ce que la conception et la mise en œuvre des services cloud soient conformes aux stratégie globale de transformation du cloud. • Communication avec les parties prenantes : dialoguer avec les principales parties prenantes, en fournissant des éclaircissements communication sur l'avancement de la transformation du cloud et sur la manière dont l'architecture soutient des objectifs organisationnels plus larges.
Mission freelance
Développeur front Angular Cloud AWS (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur front Angular Cloud AWS (H/F) à Mérignac, Nouvelle-Aquitaine, France. Contexte : Fonctionnement : 2 jours présence à Mérignac + 3 jours télétravail Les missions attendues par le Développeur front Angular Cloud AWS (H/F) : Descriptif de la mission : RÔLE - DÉVELOPPEUR Intégré à une équipe Produit, le développeur conçoit, développe et déploie les applications métiers. En plus de faire évoluer l'application, il participe à la surveillance de son bon fonctionnement en production et corrige les problèmes identifiés. RÔLE ET RESPONSABILITÉS Participe à l'ensemble des activités de développement logiciel au sein de son équipe(conception, dev, tests, déploiement) Participe aux différents ateliers de conception et cérémonies agiles Applique les meilleures pratiques de développement pour un code propre et maintenable (TDD, BDD, DDD, Pair programming...) Participe activement à la relecture du code des autres développeurs de l'équipe En fonction du niveau d'expertise, accompagne des développeurs plus juniors Force de proposition dans la résolution des problèmes, l'amélioration de la qualité du code et l'atteinte des indicateurs Accelerate (DORA Metrics) PROFIL TYPE Expertise le langage de programmation utilisé par le produit Maitrise des frameworks utilisés par le produit Angular, SpringBoot, NestJs, Serverless framework) Maitrise de l'utilisation de bases de données relationnelles ou no relationnelles Maitrise des services AWS les plus couramment utilisés en développement (Lambda, SNS, SQS, DynamoDB) Force de proposition dans la résolution des problèmes de code. Esprit d'équipe, sens du délai, de la qualité et des résultats
Mission freelance
Chef de projet IA
Bonjour à tous, Je suis à la recherche d'un Chef de projet IA GEN pour une prestigieuse société internationale. ✅Statut : FREELANCE/PORTAGE SALARIAL ✅Localisation : Paris ✅Visibilité : 1 an renouvelable ✅Réfléchir aux cas d'usages d'IA GEN ✅Encadrement d'une équipe de Data Scientist ✅Connaissance du secteur bancaire ✅Expérience sur des sujets Data Quality / Data Governance 📞 Contact : 07 43 39 24 31 Mission à pourvoir ASAP, entretien avec le client final à prévoir ce jeudi 17/10. Possibilité d'une grande flexibilité sur le TT après un on-boarding d'un mois.
Mission freelance
Lead DevOps AWS + Paris+ H/F
Profil recherché : Nous recherchons un Lead DevOps AWS avec une expérience comprise entre 8 et 15 ans, ayant une solide expertise en infrastructures Cloud AWS et une capacité démontrée à diriger des équipes techniques. Le candidat idéal possède des compétences en Terraform pour l'infrastructure as code, ainsi qu'une expérience avérée en leadership et en coaching afin de transmettre son savoir-faire et d'organiser le travail des équipes. Un diplôme en informatique ou dans un domaine connexe est requis (niveau Bac+5 ou équivalent). Compétences ( Techniques et fonctionnelles) : Techniques : Expertise en AWS (gestion des services Cloud, IAM, EC2, S3, RDS, etc.) Maîtrise de Terraform pour l'automatisation et la gestion des infrastructures Connaissance approfondie des pipelines CI/CD Bonnes pratiques en sécurité Cloud (IAM, KMS) Expérience en Docker, Kubernetes pour la conteneurisation et l'orchestration Expérience avec les outils de monitoring (ex: Prometheus, Grafana) Fonctionnelles : Leadership et capacité à coacher des équipes techniques Bonne maîtrise des méthodologies Agile/Scrum Forte sensibilité à l'importance des livrables et des délais Capacité à communiquer efficacement avec les équipes et les parties prenantes Aptitude à organiser et prioriser les tâches de manière efficace
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Offre d'emploi
Développeur Python React AWS
L'équipe supervise la maintenance et l'évolution des nombreux systèmes de trading qui permettent de participer à toutes sortes d'activités de marché. Les applications logicielles permettent d'effectuer au jour le jour les opérations nécessaires à la bonne gestion de ses activités. L'objectif du service est d'intégrer une personne supplémentaire à l'équipe chargée de gérer le backlog des applications en rédigeant, en suivant et en testant les User Story et en définissant les priorités. Les applications sont toutes développées en interne et écrites en Python en utilisant Redis, Celery, Flask et FlaskAdmin, SQL-Alchemy, PostgreSQL, Pandas, Timescale DB, React et elles sont hébergées sur AWS.
Offre d'emploi
Ingénieur SysOps AWS
Contexte de la mission : La prestation d’expertise Cloud Public intègrera la DevTeam AWS de la Squad Cloud Public du client et prendra en charge des features Build dans le backlog qui pourront être soit orientées métier soit orientées infra et participera aussi aux actions liées au Run. Tâches à réaliser : · Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’application métier · Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements AWS · Assurer la généricité de ces pipelines · Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions · Garantir la sécurité ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement · Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections · Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud · Ouvrir et suivre des incidents chez l’infogérant Cloud Public en cohérence avec les processus ITIL du client
Offre d'emploi
Expert Réseau Cloud Azure ou AWS
Expert en réseau cloud spécialisé en Azure ou AWS, avec une connaissance de base de GCP, incluent : Maîtrise du Cloud Azure et AWS : Connaissance approfondie des services réseau et des architectures propres à Azure et AWS, incluant les Virtual Private Clouds (VPC pour AWS) et Virtual Networks (VNet pour Azure). Compréhension des meilleures pratiques pour le déploiement, la sécurisation et la gestion de réseaux dans des environnements cloud hybrides ou multi-cloud. Routage et Switching : Compétences en routage et switching, essentiels pour la conception de réseaux cloud et la connectivité entre les services et environnements sur site. Expérience avec le peering VPC, le routage BGP, et les passerelles NAT dans le cloud. Automatisation et Programmabilité : Expertise en automatisation avec Terraform, Ansible, et Python pour l'infrastructure as code (IaC) et l'automatisation des configurations réseau. Capacité à développer des scripts et des templates pour déployer et gérer les ressources Azure et AWS de manière standardisée. Load Balancer F5 : Compétence dans la configuration et la gestion des Load Balancers F5 pour équilibrer les charges de travail entre différentes instances et zones de disponibilité dans le cloud, garantissant ainsi la résilience et la haute disponibilité des applications. Services Réseau Azure et AWS : Familiarité avec les services Open Bass et MPI (Managed Private Interconnect) d'Azure et d'AWS pour établir une connectivité directe, sécurisée et performante entre les réseaux privés des deux clouds. Connaissance des Virtual Network Gateways (Azure) et AWS Direct Connect. Virtualisation : Compréhension des technologies de virtualisation (VMs, containers, Kubernetes) et capacité à intégrer ces éléments dans des solutions cloud. Maîtrise de la gestion des clusters Kubernetes (AKS pour Azure, EKS pour AWS) dans des environnements virtualisés. Sécurité Réseau et Compliance : Compétence en sécurité réseau, y compris la gestion des groupes de sécurité, des ACLs, et des pare-feux dans Azure et AWS, pour protéger les ressources cloud. Mise en place et suivi des meilleures pratiques de conformité et de gestion de configurations pour garantir la sécurité des environnements cloud.
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Mission freelance
Longue Mission - Développeur Node Angular
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, angular, mongo, postgre, kafka, bucket S3,
Mission freelance
Développeur Node (React ou Angular)
Nous vous proposons aujourd'hui une mission longue au sein d'un groupe de renommée internationale, acteur majeur de son secteur d'activité. La mission sera à 80% sur du NodeJS (Nest) nous cherchons donc un profil avec une grosse prédominance Node. Vous interviendrez sur des sujets très orientés back : Récupération de data dans kafka Écriture/lecture bdd postgre Développements d’API Rest (websocket) Déploiement bucket S3 sur AWS Test unitaires obligatoires, la qualité du code est une priorité. Stack technique : nodeJS, nest, mongo, postgre, kafka, bucket S3
Mission freelance
DEVOPS / CLOUD
Vous intégrerez une équipe de passionnés d'architecture Cloud et participerez pleinement à faire évoluer un environnement technique très varié et up to date à travers les missions suivantes : ● Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. ● Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/CD…) ● Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. ● Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) ● Travailler en étroite collaboration avec l’équipe d’infrastructure. ● Veille technologique dans le domaine du DevOps. Le candidat doit analyser les tendances et les perspectives d’évolution éventuelles dans le cadre d’eTF1. ● Sensibilisation des développeurs aux problématiques opérationnelles: performances, haute disponibilité, supervision et sécurité Notre stack : AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns Expérience significative à un poste similaire: orienté accompagnement et expérience développeur. ● Bonnes connaissance des processus CI/CD ● Une expérience sur l’écosystème Kubernetes (k8s) dans un environnement de production ● Une expérience significative dans l’environnement et la mise en place de solutions AWS ● Utilisation d’outils d’IAC (Helm, Terraform, Packer, Ansible…) ● Être familier avec les problématiques de HA et les architectures distribuées à forte charge. ● Expérience significative sur au moins un des langages suivant : Bash, Python, Golang
Offre d'emploi
Product Owner Bi
Rattaché au Responsable du pôle BI, vous serez en charge du projet de refonte des reporting BI du pôle. Vous serez l’interface entre les utilisateurs des différents métiers (Commercial, Marketing, Contrôle de Gestion), le Data Office et la DSI. Vous interviendrez, sur la nouvelle plateforme, à la fois sur le support des applications existantes et sur le développement de nouvelles applications. Dans un contexte complexe et en construction, avec beaucoup d’interlocuteurs, vous devrez faire preuve d’un très bon relationnel . Vos missions sont : Ø Gérer le Backlog du chantier : l’initialise, le suit et l’améliore Ø Identifier les risques et propose des solutions pour les mitiger Ø Recueillir les besoins et rédige les User Stories avec les utilisateurs : maquettes, règles de gestion Ø S’assurer de la production de la documentation utile Ø Identifier et cartographie les sources de données nécessaires aux rapports Ø Réaliser les études de qualité de données et les dictionnaires de donnée BI Ø Etre le garant de la traduction des données en indicateurs et axes d’analyse métiers : mapping des données et règles de gestion Ø Superviser la performance du chantier au travers des KPIs fonctionnels et techniques Ø Assurer la cohérence fonctionnelle et technique du chantier Ø Rédiger les manuels utilisateurs Ø Etre disponible pour les utilisateurs, le Data Office et les data engineers Ø Etre responsable de la communication : o Participer à la définition de la stratégie de communication vers les utilisateurs o Organiser une boucle de feedback utilisateur en amont des projets o Communiquer sur le Produit et mettre en avant les équipes
Mission freelance
Développeur backend NodeJS PROFIL START UP
Je recherche pour une startup un profil confirmé/senior backend NodeJS. Toutes vos missions : ·Assurer toutes les étapes du développement du produit (conception, développement, test/qualité, déploiement) ·Participer à l’évolution de notre stack technique (architecture, librairies, tests, performance, monitoring, etc.) ·Travailler en collaboration avec les autres membres de l’équipe technique, ainsi que l’équipe produit (méthodes agiles) ·Assurer une veille technologique adaptée aux besoins de l’entreprise
Offre d'emploi
Data Engineer Sénior
Missions: · Développement Scala/Spark · Maîtrise de l’environnement technique (AWS Databricks, AWS S3) · Expériences sur la Qualité logicielle (revue de code ; conformité aux critères de qualité SONAR, tests automatisés) · La connaissance de Power BI (Azure) est un plus -Les compétences fonctionnelles attendues sont les suivantes : · Méthode Agile · Expérience sur des projets de technologies similaires · Connaissance du domaine Data · Expérience de travail sur des projets en équipe, (notamment savoir solliciter son écosystème au bon moment)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.