Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Expert technique - Java Angular - Secteur bancaire
Le programme s'appuie sur des principes et piliers innovants: - démarche, culture et organization innovantes ==> Programme et projets se déroulent en mode Agile. - programme orienté et centré aux promesses/attentes clients ==> collaboration étroite entre le utilisateurs, business, et IT est clé. - projets s'appuient sur les technologies innovantes au sein de CIB voire du marché ==> API services, Structuration Data, Machine learning,...
Offre d'emploi
Data Engineer Spark / Scala
SquareOne intègre sur ses projets partenaires des Ingénieurs Data Spark / Scala pour renforcer des équipes Big data dans la modernisation de leurs plateformes big data / DevOps, initialement basées sur un legacy VM AIX, Linux, BDD Oracle / C++, SQL, Shell, vieillissantes. -> Scala / Spark / Java Spring. La Défense + TT / Projet long terme. Anglais impératif (échanges FR / EN avec des équipes support basées en Inde). Profil recherché : Data Engineer confirmé, autonome, Team player, ayant une expérience avec les technologies Spark, Scala, et autres technologies Big data. Une expérience dev Java et/ou Python est appréciée. CDI / Freelance - Selon profil.
Offre d'emploi
Data Analyst
Contexte : • En plein transformation digitale, notre client cherche à évoluer vers une organisation Data Centric. • La mise en œuvre d’une Data Platform contribue à cette démarche en permettant d’avoir une vision globale du patrimoine de données. • Le Data Architecte joue un rôle essentiel, il doit analyser le besoin métier au sein des différents projets, modéliser les Objets Métier d’entreprise et spécifier techniquement la structure et les flux permettant d’implémenter ces Objets au sein de la Data Platform. Activités principales : • Recueillir, analyser et synthétiser les besoins métiers en termes de données via l’animation d’ateliers de travail • Analyse technico-fonctionnelle du besoin métier afin d’identifier les règles d’extractions, de consolidation et d’exposition des données • Modéliser les Objets d’entreprise en respectant les standards, en tenant compte du modèle actuel et en le challengeant • Travailler collaborativement avec les différents intervenants (Product Owner, experts data, experts métier, développeurs, architectes, etc.) • Être garant de la modélisation de la Data Platform et s’assurer du respect des standards par l’ensemble des acteurs • Participer à l’acculturation de la modélisation des données d’entreprise au sein du Groupe
Offre d'emploi
Data Engineer Confirmé Scala / Spark - F/H
Contribuez à des projets data complexes avec des technologies avancées. Quel sera votre rôle ? Nous recherchons un(e) Data Engineer Scala / Spark. Vous rejoignez l’équipe d’ingénierie data pour concevoir des pipelines de traitement de données à grande échelle. Au quotidien, vos missions seront les suivantes : Développer et optimiser des pipelines de données en utilisant Scala et Spark, dans un environnement distribué. Mettre en place des modèles de données complexes en SQL pour répondre aux besoins métier. Collaborer avec les data scientists pour garantir l’efficacité des flux de données et des modèles analytiques. Environnement technique : Scala, Apache Spark, SQL, Hadoop, Kafka
Mission freelance
dev java + loanIQ (obligatoire)
Je cherche un dev senior sur Loan IQ pour une missison en baque de 2 ans. Xp Loan IQ obligatoire (Batch + API) java 8-11-17 oracle plus de détails en privé -- Je cherche un dev senior sur Loan IQ pour une missison en baque de 2 ans. Xp Loan IQ obligatoire (Batch + API) java 8-11-17 oracle plus de détails en privé -- Je cherche un dev senior sur Loan IQ pour une missison en baque de 2 ans. Xp Loan IQ obligatoire (Batch + API) java 8-11-17 oracle plus de détails en privé -- Je cherche un dev senior sur Loan IQ pour une missison en baque de 2 ans. Xp Loan IQ obligatoire (Batch + API) java 8-11-17 oracle plus de détails en privé
Mission freelance
Backlog Manager (H-F)
Principales responsabilités Dans le cadre de sa transformation, la division Data & Regulatory souhaite renforcer ses équipes avec un Backlog Manager , dont les missions seront les suivantes : Construire et gérer un Backlog Global pour la division. Collaborer étroitement avec les leaders de chaque stream et les Product Owners pour livrer la roadmap globale de la division. Assurer la préparation et l'exécution des artefacts Agile clés (planification stratégique, PI planning, Sprint planning...). Animer les scrums et maintenir à jour le tableau de bord Scrum. Garantir un service de haute qualité , en comprenant l'environnement de travail et les attentes métiers. Coordonner avec les leaders IT et les managers de release pour garantir un déploiement fluide en production. Assumer le rôle de Chef de projet global en suivant de près les parties prenantes internes et externes. Superviser la cohérence du Backlog et veiller à son alignement avec les priorités stratégiques. Assurer une communication fluide avec les autres responsables de streams et la direction IT.
Mission freelance
Développeur Fullstack - Sénior - Java Vue.js
Contexte du projet Intitulé du projet : Développement d’un outil de gestion de crise dans le domaine médical. Méthodologie : Agile (Scrum). Taille de l’équipe : 5 à 10 personnes. Description du projet Le projet vise à développer un logiciel de gestion de crise pour le secteur médical. L’objectif est de concevoir une solution capable de répondre à des crises en apportant des fonctionnalités de communication, de gestion des patients, des services bureautiques, de consultation et de gestion électronique des documents (GED). Le projet sera mené en Sprints avec des briques techniques indépendantes pour des livrables continus.
Mission freelance
Business Analyst CB2A - TCL/TLP
Nous recherchons deux Business Analysts expérimentés pour intégrer nos équipes sur des projets critiques liés à la télécollecte et au téléparamétrage. Vous serez responsable de l’analyse des besoins, la formalisation des spécifications fonctionnelles et l’assistance au développement des solutions. Votre expertise CB2A TCL/TLP est indispensable, et des connaissances NEXO seraient un plus. Vous participerez à la montée en charge de nos projets de modernisation, en collaborant avec nos équipes techniques et métier. Activités principales : • Analyser le besoin • Etudier les impacts applicatifs • Participer à l’estimation de complexité • Réaliser des Spécifications fonctionnelles détaillées sur la base de Spécifications fonctionnelles Générales. Ces spécifications doivent prendre en compte les contraintes d’exploitabilité de nos applications. • Définir les critères d’acceptation et contrôler/assister la phase de développement • Produire les documents à destination des clients • Prendre en charge les incidents de validation, homologation et production via l’outil Jira, depuis l’analyse jusqu’à leur résolution, en apportant si possible une solution de contournement/palliatif • Appliquer un processus industriel de gestion des incidents • Communiquer/rendre compte de l’avancement
Offre d'emploi
Intégrateur Applicatif – Secteur IT (F/H)
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e consultant.e pour intervenir sur les projets de notre client. Votre mission : Vous interviendrez sur l’intégration d’applications Java générées par les équipes de développement, en veillant à leur déploiement et bon fonctionnement au sein de l’environnement de production. Vos principales missions : - Intégrer et déployer des applications Java avec l’outil 'yum' et le format RPM - Utiliser Cobler et Puppet pour l'automatisation des déploiements - Assurer la montée en compétences des équipes, en les accompagnant dans les étapes d’intégration - Gérer les tâches de troubleshooting et debug lors des problèmes d’installation - Documenter les process, les difficultés rencontrées et leurs solutions - Travailler sur des environnements Linux (connaissance de Tomcat, OpenLDAP, et bases de données PostgreSQL souhaitée) - Collaborer avec les équipes projets pour assurer une intégration fluide des nouveaux packages - Connaissances réseau et notions de DevOps sont un plus
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Offre d'emploi
Lead Tech H/F
Nous sommes à la recherche d'un.e Lead Technique pour réaliser une mission chez l'un de nos clients. Vous serez référent.e d'une équipe agile de 15 collaborateurs. Le périmètre technique sur lequel vous interviendrai comprend à la fois les aspects Ops (infrastructure, déploiement, monitoring) que développement (architecture logicielle, bonnes pratiques de code, qualité). En tant que tel.le, vos missions consisterons à : Élaborer la roadmap technique et prioriser les sujets en fonction des objectifs métiers. Être le.la référent.e technique principal.e pour toutes les questions concernant le projet. Animer et coordonner les équipes techniques dans un environnement agile. Assurer la qualité des livrables techniques et la conformité aux exigences métiers et techniques. Conduire des ateliers techniques avec les équipes de développement et les partenaires externes. Participer à la conception de solutions techniques robustes et sécurisées.
Mission freelance
Data Engineer / cloud Azure - Distribution - IDF (H/F)
Nous sommes un acteur majeur de la distribution. Au cœur de notre stratégie de transformation numérique, notre département IT déploie un programme ambitieux de rénovation de notre Système d'Information centré sur la data et le cloud (Azure). Cette mission s'inscrit dans une démarche de structuration de notre Big Data et de nos solutions BI répondant aux besoins critiques de nos métiers. ▶️ Missions Développer et mettre en œuvre des solutions d'analyses Big Data. Analyser les besoins, réaliser des études d'impact et concevoir des solutions techniques innovantes. Concevoir et modéliser des données dans un Data Lake utilisant des formats optimisés. Construire et optimiser des pipelines de données. Développer des notebooks avancés pour le traitement des données. Participer au Cloud Datawarehousing, incluant tuning et optimisation SQL. Rédiger des documentations techniques. Être impliqué dans la revue de code et les tests unitaires. Assurer la maintenance et l'évolution des solutions. Contribuer à l'optimisation des processus de livraison en environnement DevOps. 🔦Stack technique À maîtriser Azure Cloud Databricks, Spark Langages : Scala, Python, SQL CI/CD, Azure DevOps Architecture Lakehouse => Environnement technique global Outils Agile, notamment JIRA Environnement DevOps
Offre d'emploi
Data Manager - Poitiers
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Manager pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Poitiers, Nouvelle-Aquitaine, France. Vos missions principales : Gérer et structurer les données pour assurer leur intégrité, disponibilité et sécurité. Superviser les processus de collecte et de stockage des données. Collaborer avec des équipes multidisciplinaires (Data Analysts, Data Scientists, développeurs) pour optimiser les flux de données. Proposer et mettre en œuvre des stratégies de gestion de données en ligne avec les objectifs de l'entreprise. Assurer la conformité aux normes et réglementations en vigueur (RGPD, etc.). Suivre et analyser les performances des infrastructures de données et recommander des améliorations. Former et sensibiliser les équipes à l’importance de la bonne gestion des données.
Offre d'emploi
MOA ALM Trésorerie (Riskpro)
Le titulaire sera amené à réaliser les tâches suivantes : MOA pour les phases de conception, de recette, mise en production de nouvelles fonctionnalités dans le cadre du projet de l'implémentation (incluant les montées de version RiskPro)A Phase de conception : - Recueil et analyse des besoins des utilisateurs / production des expressions des besoins ; - Analyse des spécifications des projets /production d'études d'impact ; - Mise en place de prototype pour valider les résultats attendus sur la base d'un jeu de données à définir avec le métier ; - Production de Spécifications Fonctionnelles et de dossiers de conception ; - Analyse des spécifications fonctionnelles et suivi de réalisation ; - Implémentation et paramétrage de progiciels Phase de recette : - Conception et mise en place de plans de recette et jeux de recette ; - Recette et homologation de la nouvelle version RiskPro ; - Suivi et maintien du backlog du projet - Automatisation des tests en relation avec la MOE ; - Mise en oeuvre des recettes en relation avec la MOE / Assistance aux utilisateurs Phase de mise en prodution et suivi de démarrage : - Contribution à la définition du plan de migration et d'intégration ; - Suivi de démarrage et assistance aux utilisateurs ; - Assistance aux utilisateurs pour l'administration de référentiels ou d'applications ; - Rédaction ou mise à jour de la documentation utilisateurs et de la documentation fonctionnelle Gestion de patrimoine (évolutif de l'application ALM - Réaliser des Prestations d'étude, de conception (Spécifications générales et détaillées) et la réalisation d'évolutions. Ces évolutions se traduisent par des ajouts, des modifications ou suppression sur des Applications existantes pouvant se traduire par des développements complémentaires, et la livraison de Versions ; - Réaliser les Prestations d'étude d'impact et de Spécifications préalablement au développement et à l'intégration de nouvelles Versions des Applications et procéder aux tests unitaires, d'intégration, de non-régression, de performances et de charge ; - Participer à l'homologation et à la validation des patchs évolutifs des éditeurs pour le Client ; - Réaliser les tests unitaires ; - Accompagner la réalisation des tests d'intégration ; - Maintenir le backlog de l'application d'ALM ; - Réaliser le suivi et l'assistance de recette ; - Préparer et assister la mise en production ; - Participer à la réalisation des vérifications de service régulier (VSR) ; - Accompagner à la priorisation des maintenances
Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes
Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Mission freelance
Tech lead développeur Fulls stack Java et vue.js /lau
Lead Dev Java et vue.js Montpellier ASAP Environnement technique :Vue.js, java spring boot 14, sql, redis, docker, gitlab, jenkins, sonarqube, junit, mockito, swagger Tech lead développeur Fulls stack Java et vue.js au sein d'une équipe de 8 personnes - Développement applicatif d'une plateforme web type e-commerce - Respect des bonnes pratiques - Tests unitaires - Une connaissance de solr est un plus Environnement technique :Vue.js, java spring boot 14, sql, redis, docker, gitlab, jenkins, sonarqube, junit, mockito, swagger
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.