Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Mission freelance
Mission infrastructures de Messaging et Streaming (DevSecOps/ActiveMQ/Kafka/RabbitMQ)
La Prestation consiste à contribuer à : Être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production, Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations. Livrables Livraison des infrastructures de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Etre support pour toutes les procédures à mettre en place et vérifier leur bonne application pratique sur les différents outils ActiveMQ et Kafka Etre support technique aux équipes de Cloud RUN pour le troubleshooting des incidents de production Gestion au quotidien & coaching technique et humain de l’équipe Messaging (ingénieurs DevSecOps)
Mission freelance
Développeur Big Data
Dans le cadre de notre développement, nous recherchons pour un client grand compte un développeur Big Data. Les missions seront les suivantes : Mettre en production des modèles statistiques Acheminer et mettre à disposition les données pour les équipes Suivre les projets de développement Développer des jobs Spark pour le traitement des données Gérer l’ingestion de divers formats de données Concevoir et implémenter des scripts pour la collecte, le traitement et le mapping des données Développer des moyens de restitution comme des fichiers, API et tableaux de bord Concevoir des pipelines pour l'ingestion de données en streaming et en batch, ainsi que des jobs Spark pour le prétraitement et le calcul des indicateurs de performance (KPI) Développer des API pour l'ingestion et le traitement des données dans un environnement Hadoop Participer à la conception et à l'administration de solutions Big Data Installer et configurer des clusters Hadoop Développer des services en Spring Boot pour extraire des données de systèmes existants et les envoyer au Datalake via Kafka Normaliser et agréger les données pour produire des rapports de type Business View
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Architecte SI
Nous recherchons un architecte SI orienté architecture client/Server ayant une bonne connaissance en N-tiers, web services, micro services en mode conteneur (kubernetes/Aks/Eks). Au sein de la cellule d’architecture CORETEAM, gérant plus de 40 projets actifs autour de la SI. Conception des architectures IT Conseil en architecture Mise à jour du continuum d’entreprise Veille technologique Compétences et expériences obligatoires en architecture des SI : Architectures client/server, N-tiers, web services, micro-services en mode conteneur (kubernetes / aks / eks) Serveurs d’application: Tomcat, JBoss EAP, Wildfly, ... Brokers : KAFKA, RabbitMQ, ActiveMQ, ... ETL : Talend, Mulesoft, ... SGBD : PostGreSQL, SQL Server, MongoDB, Oracle Systèmes : Linux et Windows Server Framework : TOGAF, SAFe, … Connaissances spécifiques obligatoires en infrastructure Datacenter : Hébergement, exploitation et infogérance Cloisonnements réseaux et ouverture extranet des SI (DMZ, infrastructure d’accès, …) Secours de sites, continuité de service, reprise à chaud et bascule en cas d’incident Stratégie de stockage, de sauvegarde et d’archivage Compétences et expériences obligatoires en rédaction de Dossiers d’Architecture Technique (DAT) : Cadrage et interprétation des besoins fonctionnels et non-fonctionnels pour la définition de l’architecture technique Traitement des exigences opérationnelles : disponibilité, performance, sécurité Modélisation des architectures selon les différents angles : fonctionnels, logiques, physiques () Intégration des contraintes de sécurité, contraintes de gestion et de propagation d’identité et de mécanisme d’authentification et d’accès Analyse et plan de mitigation des risques techniques Compétences et expériences obligatoires en communication de solution d’architecture : Expérience en synthèse et rédaction de documents Expérience en organisation et à animation d’ateliers techniques avec différents contributeurs Expérience en contribution à une démarche de catalogue de services et/ou portail de solutions techniques Expérience en Publication de patterns d'architecture
Mission freelance
Tech Lead Big data
Nous recherchons pour une de nos clients basés à Paris, un consultant SAP BI pour une mission freelance (longue visibilité) Compétences techniques Stack HADOOP - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques Français Courant (Impératif) Description détaillée Bonjour, Nous cherchons un lead technique pour encadrer une équipe Big Data. Le contexte fonctionnel est la lutte anti blanchiment, et voici les éléments essentiels: - Contribuer au affinage et au découpage des récits. - Étudier la faisabilité et chiffrer les récits. - Développer les briques des pipelines de données. - Développer les tests unitaires et assurer une couverture de + 70%. - Effectuer les tests de performances (tuning spark). - Préparer le déploiement en construisant les fichiers de configuration indispensables pour utiliser les outils devops mises en place. - Assurance de la maintenance corrective et évolutive du projet. - Préparer les instructions pour la MEP des évolutions/correctifs. - Suivi de production Environnement technique : Cloudera Data Platform,JAVA, SPARK, Hadoop, HIVE, HDFS,Sqoop, PostgreSQL, Oracle, shell, Unix, JUnit, SonarQube,Maven, XlDeploy, Jenkins, Artifactory, Gitlab, Confluence, JIRA,Eclipse. Il s'agit d'encadrer une équipe de 4 personnes. Des expériences précédentes dans un rôle de responsable technique sont requises. La mission est en plein coeur de Paris.
Offre d'emploi
skiils recherche son/sa futur(e) data engineer cloud pour renforcer ses équipes au maghreb (remote)
Notre data engineer intégrera une équipe SCRUM et se concentrera sur un périmètre fonctionnel spécifique. Son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : ● Participer à la réalisation de l’ensemble des projets métiers (usages) ● Prendre en charge les demandes de corrections provenant d’incidents ou d’anomalies ● Participer à l'auto-formation et à la montée en compétences de l’équipe de développement ● Appliquer les bonnes pratiques et les normes de développement ● Mettre en pratique les méthodes « devops » ● Contribuer aux chiffrages des usages et à la constitution des releases ● Contribuer à l’automatisation du delivery ● Développer et documenter son code ● Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Offre d'emploi
Architecte entreprise expérimenté data
Profil : Architecte entreprise expérimenté data (6 à 7 ans d'exp) Compétences techniques : Architecture d'Entreprise Urbanisation de systèmes d'information Modèles fonctionnels bancaires Conception d'applications, de services, d'APIs Bonnes connaissances techniques (développement, intégration, déploiement dans des environnements distribués) Connaissance des outils : SGBDR : Teradata, SQL, Postgresql, MySQL No SQL : MongoDB ETL ou ELT : Data Stage , xDi (Stambia) ou autre Data Management : ABInitio BigData (Distribution Cloudera) , spark (java), Hive, Hbase … Kafka (Confluent) CI-CD – GitLab Cloud : AWS Compétences humaines : Communication Accompagnement d'équipes de développement Capacité de synthèse et de formalisation conceptuelle Pédagogie Capacité à montrer l'exemple y compris sur des tâches de développement ou de mise en oeuvre technologique.
Offre d'emploi
Ingénieur DevOps BigData
Notre client, acteur majeur du secteur de la défense, participe à l'innovation et à la sécurisation des systèmes d'information critiques. Dans le cadre de l'amélioration de ses capacités de gestion des données, il développe des solutions avancées pour la collecte, l'indexation et l'exploitation des informations stratégiques au sein de son infrastructure Big Data. Mission : Vous serez responsable de la mise en œuvre et de l’exploitation des solutions de gestion de données au sein des systèmes d’information. Vous interviendrez sur l’ensemble du cycle de vie des plateformes Big Data en utilisant les technologies ElasticSearch, Logstash et Cloudera CDP. Responsabilités : - Assurer la mise en œuvre et l’exploitation des solutions de collecte, d’indexation et de recherche de données (ElasticSearch/OpenSearch, Logstash, Kafka). - Gérer et maintenir les plateformes basées sur Cloudera CDP. - Effectuer le Maintien en Condition Opérationnelle (MCO) des composants de la plateforme Datalake. - Garantir la disponibilité et la performance des infrastructures Big Data en exploitant les clusters associés. - Superviser et analyser les performances via des outils comme Kibana et Grafana.
Offre d'emploi
Développeur Cockpit
Nous recherchons un développeur talentueux pour rejoindre une équipe dynamique dans le cadre d'un programme de transformation digitale des métiers du soutien. Votre mission principale sera de maintenir et faire évoluer une solution de cockpit basée sur la technologie QliK Sense. Missions principales : Maintenir et produire le cockpit sur la base des technologies existantes Collaborer avec l'équipe en charge de la refonte de la couche technique sous-jacente Prendre en main l'architecture existante Participer aux corrections des anomalies techniques en production Définir les données nécessaires avec les experts métier pour afficher des indicateurs pertinents Documenter et mettre en œuvre le pipeline de données (Qlik, API, Kafka) Participer à la définition de la refonte de l'architecture de données
Offre d'emploi
Ingénieur de production (H/F)
✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur de production (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Intégration technique des solutions en production 🔸 Maintenance des plateformes et maintien en conditions opérationnelles. 🔸 Gestion des audits et mise en conformité. 🔸 Gestion des incidents critiques et coordination des experts. 🔸 Suivi des problèmes récurrents et élaboration de plans d’action. 🔸 Supervision des changements et coordination des intervenants. 🔸 Rédaction de la documentation technique 🔸 Interface avec les experts et support éditeurs. 🔸 Supervision, veille technologique 🎓 Issus d’une formation en ingénierie ou en informatique, vous avez une expérience significative sur un poste similaire.
Offre d'emploi
Développeur BI
HN Services recrute sur Marseille, un développeur BI afin de développer et mettre en œuvre des solution BI. Au sein d'une équipe Agile, il s'agira notamment d'intervenir sur : le recueil et l'analyse des besoins auprès des différents services la réalisation de la modélisation le maintien en conditions opérationnelles des solutions développées : flux d’alimentation via l’ETL Talend et rapports via Microstategy la création des jeux de test et la réalisation des tests unitaires outils: ETL Talend et Microstrategy
Mission freelance
Data engineer confirmé
En tant que Data Engineer, vous jouerez un rôle clé dans la conception, le développement et la maintenance de pipelines de données robustes et évolutifs. Vous travaillerez en étroite collaboration avec les équipes de data scientists et d’analystes pour garantir la disponibilité et la qualité des données. Vos missions principales : • Concevoir et développer des pipelines ETL (Extract, Transform, Load) pour ingérer et transformer des données provenant de diverses sources. • Gérer et optimiser les bases de données relationnelles et non relationnelles, notamment PostgreSQL et Teradata. • Développer et maintenir des solutions Big Data sur Hadoop et Spark pour traiter de grands volumes de données. • Programmer en Python, R et Scala pour automatiser les flux de données et les tâches de traitement des données. • Intégrer les processus de gestion de version et d’intégration continue avec Git, GitLab CI et Bitbucket. • Utiliser Ansible pour automatiser les déploiements d’infrastructure et la gestion des configurations. • Collaborer avec les équipes en utilisant des outils de gestion de projet et de documentation tels que Jira, Confluence, et Bitbucket. • Participer à l’amélioration continue des processus de traitement des données et à l’optimisation des performances.
Mission freelance
Administrateur Microstratégy (F/H) -Nantes-
Nous recherchons pour le compte de notre client bancaire un expert Administrateur Microstrategy . Responsabilités : Administrer les projets MicroStrategy (administration applicative via WorkStation et Developer) Administrer les serveurs / installer la suite MicroStrategy : Intégration et le déploiement de la matière pour la mise à niveau des machines, pour l'ajout de fonctionnalités (GitLab / CICD) Assurer la maintenance des plateformes : analyse des logs (MSTR et Web), échange avec le support MicroStrategy (Case) Contexte : Au sein de la tribu DATAHUB, la squad Socles et Outils BI (SOBI) est en charge d'administrer l'outil Microstrategy. Nous recherchons un Administrateur MicroStrategy expérimenté afin de remplacer un équipier en fin de mission (3 ans). Attendu : Supervision, maintenance et évolution des plateformes MicroStrategy Migration de nos infras (legacy) vers Customer Managed Cloud (Kubernetes) Manipulation des données utilisateur dans le cadre du monitoring et de la supervision des usages Compétences : Expertise MicroStrategy Linux pour administrer les serveurs / Installer la suite Microstratégy / Analyser les logs GitLab Kubernetes Etat d'esprit & approche Agile + connaissance du cadre de travail Scrum Aisance relationnelle, esprit d'équipe & force de proposition
Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri
Ingénieur MLOPS Montpellier (1 Senior et 1 Junior) DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.
Mission freelance
Tech Lead Java
L’équipe Age of Access Accelerator (localisée à Croix) construit des solutions d’échange de données pour la Value Chain du client. Les solutions qu’ils construisent s’appuient sur des standards technologiques open source à l’état de l’art pour permettre des échanges de données massifs en temps réel entre applications du système d’information du client. Notre équipe a construit les produits suivants : VCStream: Une plateforme de streaming de données permettant de connecter SAP et Apache Kafka. Elle permet d’accélérer la livraison et fournit des outils d’observabilité, faciles d’utilisation, des échanges de données de la Value Chain. Autonomous Topic Management (ATM): Une solution de Topic as a Service qui permet aux développeurs de la Value Chain d’exploiter la puissance d’Apache Kafka pour leurs applications en créant des topics Kafka en toute autonomie sur un cluster mutualisé. Nous recherchons une personne possédant au moins 10 ans d'expérience dans le développement Java et ayant déjà exercé le rôle de techlead (faire monter en expertise l'équipe, apporter les bonnes pratiques, ...). Forte culture des architectures logicielles : avoir créé "from scratch" une application micro-service (Kubernetes) avec communication Kafka est indispensable. Cette offre fais suite au départ du précédent techlead. La prestation permettra de prendre le relais jusque la fin du projet (fin 2025). Objectifs et livrables TES RESPONSABILITÉS : Au sein de notre équipe, tes missions sont les suivantes : Assurer le suivi de la vision et stratégie technique; Prendre en charge de bout-en-bout la conception, l’implémentation et le déploiement en production de nouveaux services/solution “scalables” et performants; Faciliter la conception et la réalisation des features; S’assurer de la cohésion technique, qualité applicative, la disponibilité de l’application, la qualité des données; Partager avec pédagogie l’ensemble des compétences et connaissances; Assurer et évangéliser la qualité applicative par les tests (TU / End-End / …); Écriture de documentations.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes