Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer Finance
Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Offre d'emploi
Développeur Junior JAVA/ DEVOPS
Nous sommes à la recherche d'un(e) : Développeur Junior Java/ Devops Les activités qui vous seront confiées sont : - Développer des applications Java en utilisant Hibernate, Maven, et AngularJS. - Assurer le déploiement et la maintenance des applications sur jBoss et Tomcat. - Gérer les configurations et les déploiements automatisés avec Docker et Ansible. -Finaliser la mise en place des pipelines CI/CD avec Jenkins et améliorer la partie SonarQube. - Optimiser les performances des applications en mettant en place les outils de test comme Gatling et Cucumber.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Développeur C# .NET Core Kafka Senior
💼 Poste : Développeur C# .NET Core Kafka 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Contribution au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. Technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Nous intervenons sur le développement de service pour le Front Office. 🤝 Expertises spécifiques : Objectifs de la mission Développement C# .NET Core Méthodologie : BDD/TDD Utilisation de Kafka/Cassandra Maintenance applicative Documentation / Testing Support L3
Offre d'emploi
Tech Lead Python
Missions : En tant que Tech Lead Python, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions logicielles innovantes. Vos missions incluront : Définir et documenter l'architecture logicielle : Vous serez responsable de l’élaboration des architectures logiciels, en intégrant des technologies modernes et en assurant la performance, la sécurité et la scalabilité des solutions. Leadership technique: définir les orientations techniques, encadrer et former les équipes de développement. Vous promouvrez les meilleures pratiques de développement, conduirez des revues de code et résoudrez des problématiques techniques complexes. Développement full-stack : développer les nouvelles fonctionnalités.
Offre d'emploi
consultant data/BI (H/F)
Bonjour, Nous recherchons un consultant data/BI (H/F) pour intégrer l'un de nos partenaires à Montpellier ou bien Aix en Provence (en hybride) : vous serez amené à : - Participer aux rituels de gestion de projet (Agile, cycle en V). - Rédiger des documentations techniques détaillées. - Assurer une veille technologique autour de la donnée et de son traitement. Vos compétences techniques (par ordre d'importance) : - BI : Qlik. - ETL : Talend, Kafka. - Bases de Données : Mongo DB, Postgres. - MDM et Gouvernance : Des connaissances dans ces domaines seraient un atout.
Mission freelance
Analyste-Développeur Java JEE
Nous recherchons un Analyste-développeur Java JEE confirmé pour renforcer notre équipe de développement. Sous la supervision du responsable de l'équipe de développement WEB, vous concevrez et développerez des WebServices REST dans la couche middleware ou applicative en J2E 6 à 11. Vous travaillerez également sur des applications web J2E 8 à 17 en utilisant des frameworks tels que Spring, Hibernate, Struts, Springboot, Thymeleaf et Jquery, avec des serveurs WildFly 10 ou Tomcat 9. En parallèle, vous développerez des batchs Java 6 à 17 avec Spring Batch. Vous serez amené à utiliser des technologies telles que ESB et l'API Management WebMethods, et à contribuer aux évolutions sur WebCenter (Oracle). La mission inclut également la conception avec des compétences en UML et la rédaction de documents.
Mission freelance
Un Développeur PHP Sénior (CodeIgniter, Angular, MySQL) sur Bordeaux / 2 jours télétravail
Smarteo recherche pour l'un de ses clients, Un Développeur PHP Sénior (CodeIgniter, Angular, MySQL) sur Bordeaux / 2 jours télétravail Projet : refonte d?applications de workflow complexe qui gère les process des campagnes marketing et webmarketing Séniorité : 2 ans à 10 ans avec cible 4/7 ans Technologies : Contexte technique du projet actuel : Frontend : Angular 7.2.1 Backend : PHP (Framework CodeIgniter 4.0.1) sous forme d'API simple Base de données : MySQL Refonte avec ces éléments techniques cible : PHP (Framework CodeIgniter dernière version) méthode MVC avec Template twig Base de données : MySQL ou SQL SERVEUR Redis (gestion des sessions) Méthodologies : Agile maison, DevOps, RPA Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Mission freelance
Data Engineer Expérimenté -Vannes-
En tant que Data Engineer expérimenté ,vous interviendrez : Chez le client, selon le cadre et les objectifs définis : - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés -Déployer le produit dans les différents environnements -Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Contexte Intervention pour le compte du Chapitre Data à Vannes : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Vannes mais aussi ceux des autres sites France. Attendu 1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) 2- Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées
Offre d'emploi
Ingénieur Devops Azure (Sénior)
Nous recherchons pour notre client qui opère dans le secteur bancaire un Ingénieur DevOps Cloud Senior qui aura comme principales missions: Développer et gérer les infrastructures techniques pour Azure et AWS Automatiser et sécuriser les processus CI/CD Concevoir et développer des contrôles de risques pour la consommation des services Azure Assurer les opérations, le développement, l'automatisation et le monitoring des infrastructures cloud Participer au déploiement des contrôles sur les environnements Azure DSI Gérer la connectivité hybride entre le cloud interne et les différents Cloud Public Contribuer à l'évolution des infrastructures et au développement de nouvelles fonctionnalités Assurer le maintien en conditions opérationnelles, y compris la participation aux astreintes 24/7
Mission freelance
Linux Chef de Projet
Rôle : Chef de projet technique Linux Durée de la mission : 3 mois renouvelables (projet à long terme) : 3 mois renouvelables (Projet à long terme) Lieu de travail : Paris Travail hybride Date de début : Immédiate Principales responsabilités : Installation et configuration de différents outils/applications Fournir un support aux autres chefs de projet Responsable de l'exactitude et de la mise à jour de la documentation Scripting et automatisation des tâches Superviser et fournir un support L3 si nécessaire Analyse des demandes des entreprises et fourniture de solutions techniques Pile technologique : Apache, TomCat, WebSphere, Linux, MySQL, SQL Server, Azure (PAAS, IAAS, Jenkins)
Mission freelance
Tech Lead Big data
Nous recherchons pour une de nos clients basés à Paris, un consultant SAP BI pour une mission freelance (longue visibilité) Compétences techniques Stack HADOOP - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques Français Courant (Impératif) Description détaillée Bonjour, Nous cherchons un lead technique pour encadrer une équipe Big Data. Le contexte fonctionnel est la lutte anti blanchiment, et voici les éléments essentiels: - Contribuer au affinage et au découpage des récits. - Étudier la faisabilité et chiffrer les récits. - Développer les briques des pipelines de données. - Développer les tests unitaires et assurer une couverture de + 70%. - Effectuer les tests de performances (tuning spark). - Préparer le déploiement en construisant les fichiers de configuration indispensables pour utiliser les outils devops mises en place. - Assurance de la maintenance corrective et évolutive du projet. - Préparer les instructions pour la MEP des évolutions/correctifs. - Suivi de production Environnement technique : Cloudera Data Platform,JAVA, SPARK, Hadoop, HIVE, HDFS,Sqoop, PostgreSQL, Oracle, shell, Unix, JUnit, SonarQube,Maven, XlDeploy, Jenkins, Artifactory, Gitlab, Confluence, JIRA,Eclipse. Il s'agit d'encadrer une équipe de 4 personnes. Des expériences précédentes dans un rôle de responsable technique sont requises. La mission est en plein coeur de Paris.
Offre d'emploi
Expert DBA Oracle postegres SQL
Spécialisé dans le secteur bancaire, l’entreprise recherche activement un DBA oracle Postegres SQL N3 pour enforcer ses effectifs . Contexte : "Dans le cadre de la transformation numérique et de la mondialisation de l'équipe DBA, l'équipe Base de données doit documenter les processus et les procédures de nos différentes activités.L'équipe travaille également sur les remédiations techniques". Missions : " Au sein de l'équipe DBA, il/elle sera chargé(e) de renforcer l'équipe pour gérer les remédiations techniques et documenter l'ensemble des processus et procédures des Bases de Données en collaboration avec les équipes DBA : - Gérer la documentation technique (procédures techniques, Change Runbooks...) - Gérer les risques de sécurité et de vulnérabilité. - Gérer les projets techniques (architecture, normes...). - Capacité à effectuer plusieurs tâches à la fois et à gérer les priorités. - Mise à jour de la CMDB (ajout de nouveaux CI et suivi des Cis obsolètes).
Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka
Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi
Offre d'emploi
Data Eng Spark
L’objectif de la mission est de contribuer à l’industrialisation des processus et traitements big data mis en œuvre dans le cadre de la plateforme mégadonnées de client et d’assurer la maintenance des pipelines d’intégration et de transformation des données à l’EDS Prestation de développements & Ingénierie big data dans le cadre de l’intégration et d’exploration de données dans un contexte big data et du cluster données massives Conception et réalisation/développement d’outils et traitements d’intégration et de standardisation de données massives dans le cadre d’une plateforme Hadoop, Contribution à l’industrialisation d’outils d’exploration des données (restitution des données de type tableaux de bord, projets de recherche thématiques, bibliothèques de code spécifiques, etc.) ; Participation à la standardisation des modèles de données (format FHIR/OMOP) et à la conception d’API appropriés (Webservices FHIR, etc.) ; Spécifications techniques détaillées ; Test unitaire et recette technique ; Documentation de conception, réalisation et d’exploitation. L’objectif de la mission consiste à participer à la mise en place d’outils de pilotage
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes