Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Analyste et support fonctionnel et technique
Contexte : Nous recherchons un analyse des demandes de service, réalisée selon les règles, le contexte technique, le profil de l’utilisateur, le besoin métier. MISSIONS : • Analyser et arbitrer les demandes de services selon les règles, le contexte technique, le profil de l’utilisateur, le besoin métier… • Etre force de proposition pour des solutions alternatives afin d’optimiser le service rendu • Prioriser et assurer le suivi des demandes de service en tenant compte du contexte audiovisuel • Etablir des synthèses d’analyse des cas complexes pour le pilotage • Rédiger les communications spécifiques destinées aux utilisateurs avant réalisation des demandes par le Support sous contrat d'infogérance (hotline, support de proximité, administrateurs environnements utilisateurs et postes de travail) • Auditer le traitement des dossiers des équipes hotline et support de proximité et réaliser des rapports d’audit • Rédiger des documentations (procédures, consignes, modes opératoires, expression de besoins) • Réaliser des rapports d’activité et d’inventaire • Garantir la mise à jour des référentiels de données permettant le traitement des demandes • Réaliser des recettes dans le cadre d’évolution du paramétrage de l’outil de gestion des demandes et des incidents • Etablir des expressions de besoin pour l’évolution du paramétrage de l’outil de gestion des demandes et des incidents
Offre d'emploi
Analytics Engineer / Data Analyst H/F
Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée • Analyse avancée et modélisation statistique : o Capacité à effectuer des analyses complexes sur les données. o Utilisation de méthodologies statistiques pour générer des insights exploitables. • Communication et collaboration : o Compétences en communication pour travailler avec des équipes interfonctionnelles et métier. o Capacité à traduire des besoins métier en exigences techniques. o Animer la communauté de développeur autour de produits • Gestion de projet et résolution de problèmes : o Planification et exécution de projets d’analyse de données. o Résolution efficace des problèmes liés aux données et aux pipelines. • Outils d’analyse de données : o Maitrise des outils couramment utilisés tels que Power BI,Reporting Service, Cube, Excel. o Capacité à créer des rapports pertinents à partir des données analysées. • Modélisation de données et visualisation (Dataviz) : o Compétences en modélisation de données pour créer des schémas et des structures. o Expert des des modèles de données métiers o Capacité à créer des visualisations claires et informatives pour communiquer les résultats. o Proposer des solutions de visualisations avancées(UX/UI) • Référent sur la connaissance du patrimoine de données mises à disposition dans les socles de données et des publications de reporting afférentes.
Offre d'emploi
Data Engineer Finance
Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Offre d'emploi
consultant data/BI (H/F)
Bonjour, Nous recherchons un consultant data/BI (H/F) pour intégrer l'un de nos partenaires à Montpellier ou bien Aix en Provence (en hybride) : vous serez amené à : - Participer aux rituels de gestion de projet (Agile, cycle en V). - Rédiger des documentations techniques détaillées. - Assurer une veille technologique autour de la donnée et de son traitement. Vos compétences techniques (par ordre d'importance) : - BI : Qlik. - ETL : Talend, Kafka. - Bases de Données : Mongo DB, Postgres. - MDM et Gouvernance : Des connaissances dans ces domaines seraient un atout.
Mission freelance
Développeur Big Data (F/H)
Vos missions : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : -d’ingestion de données, - de validation de données, -de croisement de données, -de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels
Mission freelance
Ingénieur DevOps / BIG DATA
Nous recherchons un ingénieur data et intégration pour une mission basée à Paris, France. Le profil recherché doit être orienté data ingénieur avec des compétences réparties de manière à ce que la moitié de ses compétences concerne la data et l'autre moitié concerne les aspects intégration/exploitation/puppet. Maintien en condition opérationnelle de l’environnement BIG DATA d'une application Administration de l’environnement DATA Gestion des mises à jour et évolutions d’architecture applicative Assurer une continuité des activités liées au périmètre en palliant l'absence du data ingénieur déjà en place
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
skiils recherche son/sa futur(e) data engineer cloud pour renforcer ses équipes au maghreb (remote)
Notre data engineer intégrera une équipe SCRUM et se concentrera sur un périmètre fonctionnel spécifique. Son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : ● Participer à la réalisation de l’ensemble des projets métiers (usages) ● Prendre en charge les demandes de corrections provenant d’incidents ou d’anomalies ● Participer à l'auto-formation et à la montée en compétences de l’équipe de développement ● Appliquer les bonnes pratiques et les normes de développement ● Mettre en pratique les méthodes « devops » ● Contribuer aux chiffrages des usages et à la constitution des releases ● Contribuer à l’automatisation du delivery ● Développer et documenter son code ● Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Offre d'emploi
Data Engineer H/F
Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. HardSkills DataEngineering obligatoires: Maitrise des process d’ingestion en batch et streaming quel que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, …) et quel que soit le Cloud provider en entrée(AWS/AZURE). • Expertise BDD Snowflake avec minimum 3 ans d’expérience(SQL, Rôle, Virtual Warehouse, Datamodelling) • Parfaite maitrise des modèles de données. Les consultants seront référent technico fonctionnel sur plusieurs domaines métier(2 à 3 domaines suivant la complexité). • Très bonne maitrise des langages Javascript(impératif), SQL, T-SQL, PowerShell, Python. • Création d’app, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy) • Optimisation de requête et performance, factorisation du code, respect de l’état de l’art • Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality. • Développement de cube tabulaire PBI (M et DAX) • Support Niveau 3 sur le périmètre des socles applicatifs et reporting associés • Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops • Mise en place des bonnes pratiques (technique, fonctionnel, corpus documentaire) • Animation de communauté Développeur
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Développeur C# .NET Core Kafka Senior
💼 Poste : Développeur C# .NET Core Kafka 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Contribution au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. Technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Nous intervenons sur le développement de service pour le Front Office. 🤝 Expertises spécifiques : Objectifs de la mission Développement C# .NET Core Méthodologie : BDD/TDD Utilisation de Kafka/Cassandra Maintenance applicative Documentation / Testing Support L3
Mission freelance
Data & DevOps Engineer - Senior H/F
Poste : Data & DevOps Engineer – Senior Expérience : Sénior Localisation : Clichy Démarrage : ASAP Objectifs/Descriptif de mission : L'entrepôt central des données de la Recherche et de l'Innovation est conçu pour répondre aux cas d'utilisation en Business Intelligence, Analytique et Apprentissage Automatique. Dans le cadre de son déploiement sur la plateforme GCP, il est essentiel d'intégrer constamment de nouvelles sources de données afin de répondre aux besoins émergents. Le Data Engineer sera le consommateur de la plateforme GCP dont une grande partie de socle technique est déjà mis en place (CI/CD, pattern d'intégration, orchestration etc ...)
Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka
Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi
Offre d'emploi
TechLead/Architect Cloud (MLOPS/DataOps)
Dans le cadre de ces développements, le DataLab souhaite confier à un expert Cloud, venant en renforcement de son équipe usine logicielle la mission suivante : - Travailler sur des sujets de migration de solution "On Premise" vers le Cloud ; - Mettre en place l'outillage nécessaire à l'implémentation d'une méthodologie DevSecOps ; - Assurer l'intégration dans les architectures cibles : Configurer les plateformes, Industrialiser les architectures, Définir es accès aux ressources et les optimiser ; - Assister à l'élaboration de solutions et leurs optimisations ; - Rédiger les documents techniques et les livrables projets ; - Améliorer l'architecture actuelle ; - Transférer la connaissance et la compétence aux internes du DataLab. Résultats Attendus Des Livrables : Le DevOps sera accompagné par l'équipe Usine Logicielle. Il devra par ailleurs, fournir les livrables suivantes : - Une documentation conforme aux exigences du DataLab ; - Un support de l'ensemble des applications gérées en interne ; - Un support de l'ensemble des applications des entités déployées ; - Codes Sources commentés et "reviewés" ; - Intégration de tests unitaires des fonctionnalités développées ; - Présentation et partage des travaux.
Offre d'emploi
TECH LEAD OPS
Vos missions principales seront les suivantes : Identifier les opportunités d'amélioration continue et proposer des solutions innovantes pour optimiser nos processus et nos outils. Assurer la stabilité, la performance et la sécurité de nos plateformes, tout en favorisant la croissance et le développement des membres de l'équipe. Servir de point de contact principal pour toutes les questions techniques relatives aux socles en fournissant un soutien et une expertise technique aux utilisateurs des plateformes (support aux autres Développeurs ou Tech Lead de l’entreprise) Assurer une veille technologique afin de monter en compétence en continu Elaborer et mettre à jour de la documentation
Mission freelance
Développeur Big Data
Dans le cadre de notre développement, nous recherchons pour un client grand compte un développeur Big Data. Les missions seront les suivantes : Mettre en production des modèles statistiques Acheminer et mettre à disposition les données pour les équipes Suivre les projets de développement Développer des jobs Spark pour le traitement des données Gérer l’ingestion de divers formats de données Concevoir et implémenter des scripts pour la collecte, le traitement et le mapping des données Développer des moyens de restitution comme des fichiers, API et tableaux de bord Concevoir des pipelines pour l'ingestion de données en streaming et en batch, ainsi que des jobs Spark pour le prétraitement et le calcul des indicateurs de performance (KPI) Développer des API pour l'ingestion et le traitement des données dans un environnement Hadoop Participer à la conception et à l'administration de solutions Big Data Installer et configurer des clusters Hadoop Développer des services en Spring Boot pour extraire des données de systèmes existants et les envoyer au Datalake via Kafka Normaliser et agréger les données pour produire des rapports de type Business View
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes