Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Développeur fullstack Java EE / Angular +8 ans - TJ max. 450€ (H/F)
Environnement : JAVA EE (pas de Spring Boot), Angular, Eclipse, SVN, EJB, bases de données : Postgres, MariaDB, Sybase... -- 1. Traduire les besoins techniques en besoins fonctionnels o Participer à l’analyse fonctionnelle des besoins utilisateurs o Etudier les opportunités et les faisabilités technologiques de l’application o Rédiger les spécifications techniques détaillées, à partir du cahier des charges 2. Concevoir et développer o Concevoir une architecture logicielle et proposer le framework adapté au projet o Analyser et développer les composants en utilisant les langages appropriés o Assurer le développement et la réalisation des applications (prototypes et modules) o Adapter et paramétrer les progiciels retenus pour l’architecture logicielle o Harmoniser l’ensemble des composants et applications o Documenter les applications pour les développements ultérieurs et la mise en production 3. Tester et écrire les corrections nécessaires -- Mission de longue durée, 2 jours de télétravail par semaine après quelques semaines de mission.
Mission freelance
Architecte BigData/Hadoop
Contexte : Vous intégrerez le service DBAs & Socles de la direction technique pour une mission de pilotage et de mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop afin de répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Description : Évolution des architectures techniques : - Mise en place des principes directeurs sur l’utilisation du cluster Cloudera; - Vérification de la bonne application des normes et des standards; - Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster; - Étude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop; - Prise en compte de l’écosystème DSI : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; Expertise Hadoop de niveau 3 : - Configuration du cluster Cloudera en fonction des besoins identifiés; - Optimisation des traitements ; Support : - Accompagnement des équipes de développement; - Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances;
Offre d'emploi
Ingénieur DevOps (H/F)
Nous recherchons un Ingénieur DevOps expérimenté pour participer à la gestion et à l'optimisation de l'infrastructure Cloud sur Azure. Vous interviendrez sur des projets stratégiques et serez responsable de la gestion et de l'amélioration des performances de nos environnements, tout en garantissant leur sécurité. RUN / BUILD : Vous assurerez à la fois la maintenance opérationnelle et le développement continu de nos infrastructures. Gestion de la couche basse de l'infrastructure sur Azure : Administration des environnements data layer, optimisation des performances et mise en place des politiques de sécurité. Conteneurisation : Gestion et déploiement des conteneurs avec OpenShift . CI/CD : Mise en place et gestion des pipelines d'intégration continue et de déploiement continu via GitLab . Automatisation des infrastructures : Utilisation de Ansible et Terraform pour l’automatisation des environnements. Suivi et administration des environnements Data : Gestion des outils Kafka et NiFi dans un environnement Cloud Area .
Offre d'emploi
Architecte Hadoop H/F
Afin de renforcer ses équipes, notre client recherche un(e) architecte sur un environnement Hadoop / Big data de technologie Cloudera ; Et avec des compétences en développement autour des langages propres au domaine BigData, tels que Python, Spark, Hive, impala. Descriptif de la mission : Les missions sont : Ø Les missions porteront sur : o Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Ø Evolution des architectures techniques : o Mise en place des principes directeurs sur l’utilisation du cluster Cloudera o Vérification de la bonne application des normes et des standards o Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster o Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Ø Expertise Hadoop de niveau 3 o Configuration du cluster Cloudera en fonction des besoins identifiés o Optimisation des traitements ; Ø Support : o Accompagnement des équipes de développement o Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données o Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances Ø Savoir être : o Coordination et pilotage des chantiers en collaboration avec les différents services DSI o Autonomie pour la prise en charge des sujets et travail en équipe o Capacité à communiquer et s'adapter en fonction des différents interlocuteurs
Offre d'emploi
Administrateur système Windows
Installer, configurer et administrer les serveurs Windows, en assurant leur bon fonctionnement au quotidien. Gérer l'installation et la configuration d'IIS (Internet Information Services), Apache et PHP pour divers besoins d'applications. Assurer la maintenance des systèmes, notamment en appliquant des correctifs, des mises à jour et des sauvegardes régulières. Surveiller les performances des serveurs, anticiper et résoudre les incidents techniques afin de garantir une disponibilité optimale. Collaborer avec les équipes de développement et d'autres services pour déployer des applications et garantir une intégration fluide. Participer à la gestion des comptes utilisateurs et des permissions au sein de l'infrastructure Windows. Automatiser les tâches courantes pour optimiser l'efficacité des opérations. Rédiger et maintenir la documentation technique relative aux systèmes administrés.
Offre d'emploi
Expert technique - C# .Net Core
Au sein du département informatique en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de développement .Net pour contribuer au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. La connaissance sur la technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Milieu fonctionnel autour du Collatéral. Expert technique - C# .Net Core Objectifs - Développement C# .NET Core - Méthodologie : BDD/TDD - Utilisation de Kafka/Cassandra - Maintenance applicative - Documentation / Testing - Support L3
Mission freelance
DevOps Java (systèmes embarqués, jenkins...)
Dans le cadre du renforcement de son équipe produit, notre client recherche un devops qui aura pour rôle d'assurer le déploiement d’applications sur le LU (Logiciel Unique) et la réalisation de phases de test qui sont réalisées en amont du développement et la mise en place d’une surveillance de la qualité de la production. Dans cette optique notre client recherche un profil qui a déjà travaillé sur du logiciel embarqué dans un concentrateur. Activité principale : Participation à l’amélioration continue de l’infrastructure Développement de nouvelles features Développement de fonctionnalités sur les matériels embarqués Maintenance et évolution de jobs Jenkins et CI/CD Livraison en recette, production et suivi de production Communication avec les équipes de développement et avec l’exploitant Reprise des tests de performance et mise en place du banc de perf Mise en place le banc de test avec des concentrateurs (OSA K), des raspberry pi, des modems et filtres CPL Activité secondaire : Rédaction et maintien des documentations techniques Mise en œuvre des méthodes de modélisation des données et des traitements Stack technique de l'équipe : - Très bonne connaissance de Java 8+ - Une bonne connaissance de Java JEE est un + (JTA,JPA,CDI, JAX-RS) - Une maitrise des technologies : Kafka, RabbitMQ, JMS... - Bonne connaissance des outils de build/deploy (Maven, Jenkins) - Expérience de systèmes de supervision (ex. Grafana, InfluxDB, Collectd, Telegraf, AppDynamics,etc...) Processus : 2 entretiens Go - No Go
Mission freelance
Tech Lead Java/devops
Le parc applicatif est constitué d’une quinzaine d’applications exploitant environ 80 serveurs Linux virtualisés sur le cloud AWS (EC2) Pour assurer le Run et la MCO des plateformes, le tech lead doit : Acquérir la maitrise de toutes ces plateformes : Kafka, API Management, Nifi, Composants Java, CI/CD, Monitoring, … Documenter, capitaliser et partager la connaissance de toutes ces plateformes Devenir le contact principal, le référent au sein de la BU Assurer le capacity planning : anticiper les mesures préventives contre les incidents ; documenter et communiquer les recommandations S’appuyer sur la devteam, et faire en sorte que celle-ci puisse assurer la continuité de sa mission en son absence S’assurer, par ses propres actions et celles de la devteam en appui, du bon fonctionnement des plateformes Auditer et documenter la santé et la sécurité des plateformes (backups, multi AZ, …) Pour mener à bien la feuille de route plateformes, le tech lead : S’appuie sur la devteam pour la mise en œuvre Est fortement impliqué dans le PI Planning Dans le cadre des projets plateformes, le tech lead : Mène les études préalables Effectue les analyses et émet des préconisations Pilote et coordonne la mise en œuvre des projets Produit le reporting ad hoc au niveau du management et des équipes partenaires Voici quelques d’exemples de projets plateformes : Montée de version majeure d’un produit Migration d’un produit On Premise vers une solution SAAS Migration d’un produit vers une offre mutualisée Piloter un changement de méthode d’authentification impliquant les autres domaines de la BU
Offre d'emploi
DEVOPS GCP H/F
Vos missions • Maintenir en condition opérationnelle les infrastructures en diagnostiquant les pannes et les dysfonctionnements • Configurer et dimensionner les plateformes en fonction des performances requises • Industrialiser les architectures cibles et configurer les équipements (CI / CD) • Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures • Veiller à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées • Participer aux phases de validation technique lors des mises en production ou des évolutions. • Effectuer le suivi des coûts des différents composants et applications (FinOps)
Mission freelance
Data Engineer Big Data
Vous interviendrez dans le cadre de la construction et de l'optimisation d’un programme d’ingestion de données pour une initiative d'IA. Ce poste requiert une solide expérience en ingénierie de données dans un environnement Big Data. Vous serez responsable de la gestion des données en temps réel à l’aide de technologies de streaming et de solutions cloud. Construire et optimiser le programme d’ingestion de données Collaborer avec l’équipe métier pour répondre aux besoins en matière de données et de traitement Big Data
Mission freelance
data lake engineer - anglais
Ce département ou interviendra le Prestataire est de la gestion des données & de la business intelligence des systèmes d’informations : maintenance & alimentation du datawarehouse, conception de rapports, calculs et visualisation de KPI. La Prestation s’effectuera au sein de l’équipe d’une vingtaine de personnes composée de : ü Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise ü Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
Développeur - Big Data | Spark (H/F)
📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.
Mission freelance
developpeur Big Data
Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe 4 à 5 années d'expérience sont attendues sur le rôle au minimum. Expertise Spark, quelque soit le langage de prédilection (Java, Scala, Python). Défini/challenge les solutions et architectures techniques permettant le traitement de volumes importants de pipelines de données suffisamment sécurisés et lisibles Intervient auprès des architectes et urbanistes pour la préparation des dossiers techniques Anime les équipes Data sur toutes les étapes du traitement de la donnée Assure la bonne prise en compte des recommandations du CTO Nex’Us Maîtrise des solutions de stockage de données Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données Maîtrise des outils de gestion de code et de déploiement projet Maitrise des fondamentaux de l’agilité Maîtrise des solutions de stockage de données Maîtrise avancée des langages structurés Maîtrise avancée des technologies du Big Data permettant le traitement et la manipulation de données Expertise Spark Oracle
Offre d'emploi
Data Engineer Scala / Spark - F/H
Contribuez à des projets data complexes avec des technologies avancées. Quel sera votre rôle ? Nous recherchons un(e) Data Engineer Scala / Spark. Vous rejoignez l’équipe d’ingénierie data pour concevoir des pipelines de traitement de données à grande échelle. Au quotidien, vos missions seront les suivantes : Développer et optimiser des pipelines de données en utilisant Scala et Spark, dans un environnement distribué. Mettre en place des modèles de données complexes en SQL pour répondre aux besoins métier. Collaborer avec les data scientists pour garantir l’efficacité des flux de données et des modèles analytiques. Environnement technique : Scala, Apache Spark, SQL, Hadoop, Kafka
Mission freelance
Product Owner
Dans le cadre du changement de prestataire pour la récupération des données concurrentielles, notre client recherche un Chef de Projet capable de piloter cette prestation. Vous serez en charge de centraliser les besoins en données, de suivre la performance du prestataire via les KPIs définis et d'assurer une communication fluide avec les différentes Business Units (BUs) et clients internes. Centralisation des besoins : Recueillir les besoins des différentes équipes internes concernant de nouvelles données et enseignes à surveiller. Travailler en collaboration avec les Business Units pour prioriser les demandes et les intégrer dans le service. Pilotage de la prestation : Assurer le suivi des indicateurs de performance (KPIs) et des SLA pour la récupération de données concurrentielles. Piloter la relation avec le nouveau prestataire et s’assurer de la qualité de la prestation. Gérer les escalades et les ajustements nécessaires pour respecter les niveaux de service attendus. Suivi et évolution des dashboards : Faire évoluer les tableaux de bord existants pour assurer un suivi optimal des performances et de la qualité des données récupérées. Proposer des améliorations continues des outils de reporting afin de mieux répondre aux besoins des utilisateurs internes. Communication avec les clients internes : Assurer une communication régulière avec les différents clients internes sur les performances du service, les incidents, et les améliorations en cours. Organiser des points de suivi avec les équipes internes pour garantir la satisfaction des différents BUs et clients internes.
Mission freelance
Devops
La mission consiste à : - Déploiement régulier des applications - Intégration continue - Gestion des outils de CI/CD - Gestion et automatisation des environnements des développeurs - Prise en compte de la sécurité dès la conception - Mise en place des bonnes pratiques auprès des utilisateurs - Gestion des incidents et des tickets de RUN remontés par les utilisateurs Compétences demandées : - Administration systèmes Gnu / Linux - Administration réseau (VPC, VPN, Firewall) - Kubernetes, Docker, Helm, GCP, Python, CI/CD ... - Stockage des données : PostgreSQL, MongoDB, Bigquery, ElasticSearch - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.