Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Développeur Sunbelt H/F
Nous recherchons pour l’un de nos clients spécialisé dans le domaine de l'assurance vue un Développeur Sunbelt / Cobol H/F au Luxembourg. Vos missions seront les suivantes : Travailler dans un environnement agile Concevoir, réaliser, tester, déployer, monitorer vos réalisations en Sunbelt Effectuer du support pour nos services métiers D’adhérer aux principes d’améliorations continues et de modernisation du domaine De devenir un expert dans certaines parties du domaine applicatif avec une mission longue
Ingénieur d'affaires en Ingenieurie
Profil recherché : Compétences techniques et expériences : Expérience requise : Une première expérience dans le commerce ou le recrutement. Aisance téléphonique : Être à l'aise pour échanger avec des clients et des candidats. Connaissance des outils et plateformes de recrutement. Anglais : Niveau B2 / C1 apprécié. Soft skills : Autonomie et capacité à gérer vos missions sans supervision constante. Excellentes compétences relationnelles et de communication. Force de proposition pour apporter des solutions adaptées. Éthique professionnelle et bienveillance envers les clients et candidats. Amener des croissants sera toujours bienvenu ! Un système de rémunération variable est mis en place Nous sommes à l'écoute de toutes vos candidatures !! A très vite ! Alexis Dardaine X X X X X X X
Data Analyst Azure (H/F)
En tant que Data Analyst Azure, vous interviendrez au sein d’un pôle Data regroupant différentes compétences. Cette mission sera dans un environnement agile où l’entraide et l’esprit d’équipe sont des points forts de l’organisation. L'utilisation massive de données et le développement d’approches analytiques ne doivent plus avoir de secret pour vous. Vous aurez l’occasion d’intégrer une de nos squad dont la principale mission est de développer des cas d’usage BI, Analytics et Data Science déployés sur notre plateforme Data hébergée sur le Cloud Azure. Pour cela, vous serez amené(e) à : Participer au recueil de besoin et cadrage auprès des utilisateurs finaux Rédiger des contrats d’interfaces pour mise à disposition des données par la source de données Rédiger de la documentation technique et fonctionnelle Modéliser des données Analyser des données à travers Databricks (langage SQL, Python, SCALA) Accompagner des Data Engineers Créer et suivre des tickets JIRA Documenter de notre outil de Gouvernance de données DATA GALAXY Analyser des incidents Une 1ere expérience dans le secteur du retail / bricolage serait appréciée.
DATA ENGINEER SPARK / SCALA / DATABRICKS / AZURE
Bonjour, Pour le compte de notre client nous recherchons un data engineer spark / scala / databricks / azure. Contexte : Dans ce projet, vous contribuerez à la migration de la plateforme entreprise vers le cloud Azure. Vous travaillerez notamment sur la refonte de la solution datawarehouse sur Azure (ingestion de données, transformation de données, vues métiers). Attentes: - Spark/Scala (API dataframe, dataset, rdd) + Librairie ScalaTest - Expérience Azure, incluant les composants Azure : ADLS, DataBricks, Azure Data Factory, Azure), DevOps (terraform, docker, kubernetes), Azure Functions, KeyVault - EDI : Intellij, Visual Studio Code, Visual Studio - Expérience de travail avec des données de différents formats (np. Avro, Parquet, JSON, CSV/Excel, Delta) - Python - connaissance de Kafka, Impala - SQL - très bon anglais - soft skills : compétences en communication, autogestion, compétences ETL, travail d'équipe, partage des connaissances, qualité et objectif, bien organisé Exemple tâches cv axa direct assurance : L’objectif de ce projet est de migrer d'un data warehouse on-premise vers le Azure, et reconstruire un datawarehouse : data ingestion, data transformation et business views. Activités Principales : ● Migration d'un environnement BI (sql server, oracle) vers le cloud ● Création de pipeline avec Azure Data Factory pour l’alimentation des tables Delta ● Transcription des requêtes SQL existantes en code Spark Scala simplifié ● Développement de tests unitaires avec Scala test ● Data tests et debugging avec Azure Databricks ● Optimisation des transformations Spark Scala ● Développer des algorithmes génériques pour créer un lot des tables ● Accompagner les nouveaux arrivées pendant l’intégration ● Implémentation de workflows et pipelines CI/CD avec Azure DevOps ● Réalisation du suivi de la production (production monitoring) ● Participation aux workshops d’estimation des US fonctionnelles et techniques Environnement technique : Spark, Scala, PySpark, Azure Data Factory, Azure Blob Storage, Azure DevOps, Release, Pipeline, Board, Repos, Azure Databricks, Databricks Delta.
Consultant BI Hadoop Cloudera Scala (Luxembourg)
Nous recherchons un consultant specialisé dans le domaine ML Engineer. Le candidat idéal doit posséder une expertise spécifique en Hadoop, Cloudera et en applications Scala. Il participera à un projet de migration de HDP vers CDP. Le consultant rejoindra l’équipe Data Science & AI qui a en charge de : · L’aide à la transformation numérique en utilisant des méthodes Big Data et Intelligence Artificielle · La création et la mise à disposition de modèles prédictifs et statistiques basés sur les données · Recherche et synthèse d’information de valeur commerciale dans les données existantes · Le support aux services métiers dans le cadre de l’automatisation des prises de décisions · L’assistance aux analystes et scientifiques dans le déploiement des modèles en production Vos tâches · Migrer les applications Scala, batch et temps réel du cluster Hortonworks (HDP) vers Cloudera · Automatiser au maximum les mises à jour de la plateforme Dataiku en automatisant les tests et les mise à jour · Développer et maintenir la documentation relative aux pipelines de données, aux modèles d'apprentissage automatique et aux processus d'ingénierie des données Vos qualifications · Avoir une expérience de travail d’au moins 5 ans dans le domaine de la MLEngineer · Démontrer une expertise avérée dans l’utilisation de scala et Hadoop (Hortonworks et Cloudera). · Expérience dans l'administration et la maintenance de Dataiku, afin d'assurer sa stabilité, sa performance et sa sécurité · Connaissance approfondie des techniques de big data, comme Hadoop, Spark, Kafka et NOSQL databases · Capacité à gérer des tâches multiples et à s’intégrer dans une équipe innovatrice · Capacité à travailler de manière autonome et en équipe · Compétences relationnelles et organisationnelles · Maîtrise des langues française et anglaise, la connaissance des langues luxembourgeoise et allemande constitue un atout.
DATA ENGINEER SPARK/SCALA
Conception et développement de pipelines de données : Concevoir et développer des pipelines de données robustes et évolutifs utilisant Apache Spark et d’autres outils Big Data. Intégrer et transformer des données en temps réel ou en batch à partir de sources variées (bases de données, APIs, fichiers plats, etc.). Implémenter des solutions de traitement de données massives, principalement avec Spark (Scala et Python). Optimisation et maintenance : Assurer l'optimisation des performances des pipelines de données (gestion des ressources Spark, optimisation des requêtes, réduction des latences, etc.). Maintenir et améliorer la fiabilité des processus de traitement de données et des infrastructures associées. Automatisation des processus : Mettre en place et gérer des workflows d’automatisation des tâches avec Apache Airflow . Automatiser le déploiement et l'exécution des pipelines de données à l'aide de Jenkins . Collaboration avec les équipes de data science et d’infrastructure : Collaborer avec les data scientists pour comprendre les besoins en données et optimiser leur accès. Travailler étroitement avec les équipes d’infrastructure pour assurer la stabilité et la scalabilité des pipelines de données. Veille technologique : Se tenir informé des évolutions des technologies Big Data et des bonnes pratiques pour intégrer de nouvelles fonctionnalités dans les pipelines. Langages de programmation : Scala et Python : Expérience confirmée dans la programmation de pipelines de données en Scala (pour Spark) et en Python. Technologies Big Data : Apache Spark : Maîtrise de Spark pour le traitement de données massives, avec une compréhension approfondie de ses API en Scala et Python. Apache Airflow : Expérience avec la gestion et l'orchestration de workflows de données dans un environnement de production. Outils de CI/CD : Jenkins : Expérience avec Jenkins pour l’automatisation des déploiements et des tests des pipelines de données. Bases de données et gestion des données : Connaissances solides des bases de données relationnelles (SQL, PostgreSQL, etc.) et NoSQL (Cassandra, MongoDB, etc.).
Data Engineer Spark Scala Databricks H/F
· Développement de solutions Big Data · Analyse et étude du besoin, et conception de la solution technique · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements et traitements avancés des données · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive
Data Engineer Azure(H/F)
Contexte Dans le cadre du programme transformation du SI, votre role consistera à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Description de la mission Nous recherchons un Data Engineer Sénior avec une forte expertise sur Azure, Databricks, Spark, Scala. Développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitements avancés des données Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Data Ops
TEKsystems recherche pour l'un de ses clients grands comptes un Data Ops en full remote. Démarrage ASAP + Anglais requis sur cette mission - Ci dessous vous pouvez retrouver le contexte du projet ainsi les différentes missions: Contexte de la mission Au sein ***** , la Unit Data office cherche un data ingénieur Ops expérimenté d'au moins 10 ans. La/Le devOps fera partie intégrante de l’équipe. Elle/Il travaillera en étroite collaboration avec le Team Lead afin de l’aider à sur les différents projets de l'équipe.
INGENIEUR SYSOPS EXPERT ANSIBLE JENKINS GIT
Développer les automatisations d'installation et de mise en exploitation d'infrastructure Livrer : - les Jobs de déploiement - les Jobs de contrôle de conformité - Rédaction de l'architecture et des processus en place à l'attention des équipes Notre client cherche à automatiser, industrialiser et fiabiliser le déploiement et la mise en exploitation des infrastructures on premise des BUs - Définition et rédaction des bonnes pratiques de l'automatisation d'infrastructure dans le contexte - Contrôle, ajustement et finalisation du développement du déploiement et de la mise en exploitation des serveurs virtuels - Intégration de ce déploiement dans une des BUs exploitées - Définition et développement du contrôle de conformité - Définition et rédaction des processus qui seront utilisés par les exploitants pour l'utilisation des automatisations en place - Transfert de connaissances et accompagnement des équipes à l'utilisation des automatisations en place Niveau d'étude désiré Ingénieur
un(e) Responsable d’Affaires Automatisme H/F
Lieu : Nantes (44), Salaire : 50k€ à 60k€ par an + avantages , Rythme : 1j de TT par semaine + déplacements ponctuels (15 jours/an environ) Nous recherchons pour notre client, groupe spécialisé dans l’automatisme industriel et le développement informatique, un(e) Responsable d’Affaires Automatisme H/F dans le cadre d’une création de poste suite à une réorganisation. Démarrage prévu : dès que possible. VOS MISSIONS : Suivi des clients et gestion d’affaires : assurer la satisfaction des clients, de la prise de besoin à la livraison finale, et reprendre un portefeuille existant. Coordination d’équipe : encadrer et coordonner les équipes techniques sur les différents projets. Gestion de projets : piloter, avec les Responsables Projets et Techniques, des projets d’automatisation et d’informatique industrielle (conception à mise en service). Gestion budgétaire : veiller au respect des budgets alloués. Veille technologique : proposer des améliorations continues grâce à une veille active. VOUS : Diplômé(e) d’une école d’ingénieur en automatisme, informatique industrielle ou équivalent. Expérience de minimum 5 ans sur un poste de Responsable d'affaires Maîtrise des processus industriels et des systèmes d’automatisation (PLC, SCADA), ainsi que des connaissances en langages de programmation (C++, Python) idéalement. Esprit d’équipe, compétences en gestion et capacité d’adaptation. Les plus: -Un environnement stimulant : travail au sein d’une équipe passionnée et innovante. -Avantages : rémunération attractive (50-60 k€ fixe + variable 1-2 mois), véhicule de fonction électrique, mutuelle, tickets restaurant, PEG et PER du groupe, intéressement. -Flexibilité : télétravail partiel possible (1 jour/semaine). PROCESS : Après une visio avec un membre de notre équipe, vous rencontrerez : - La DRH et le chef d’entreprise. - Un Responsable d’Affaires en poste au besoin. - DR Décision rapide après ces étapes. Envoyez-nous votre CV et si votre profil correspond, vous serez contacté par un membre de l’équipe dans les 24h. Au plaisir d’évoquer votre projet, S-quaar
Ingenieur Systeme / Administrateur Infrastructure Local et SI Industriel
PROPULSE IT recherche pour un de ses clients un Ingenieur Système / Administrateur Senior (+10 ans d'exp) : Administration Infrastructure ▪ Gérer le parc des (60) serveurs industriels, bureautiques et logiciels ▪ Exploiter et maintenir en condition opérationnelle et de sécurité les infrastructures hébergeant les applications locales, IaaS, etc. ▪ Réaliser l'installation, le paramétrage et l'assistance utilisateur des logiciels métiers et industriels ▪ Mettre en œuvre les outils garantissant la disponibilité, l'intégrité et la confidentialité des données dans le respect des engagements de service ▪ Gérer les droits d'accès aux systèmes et aux applications en fonction des profils ▪ Assurer le dépannage sur les infrastructures locales y compris la traçabilité des interventions ▪ Produire la documentation des infrastructures systèmes, bases de données, applications et ressources ▪ Contribuer à la mise à jour de la cartographie des SI et logiciels ▪ Assister et conseiller les utilisateurs, pour le périmètre hors service client de la DSI ▪ Réalise le projet de portage technique et les travaux d'infrastructure (projet remédiation IaaS) ; Projets SI industriel transverses ▪ Contribuer aux projets sous le pilotage de la DSI. A titre d'exemple : migration Windows ▪ Contribuer aux projets industriels. A titre d'exemple : installation de serveurs pour les automates en atelier, gestion des connexions pour les équipements industriels, projet BIM, etc. Les livrables attendus tout au long de la mission sont les suivants : ▪ Documentation des infrastructures systèmes, bases de données, applications et ressources ; ▪ Les comptes-rendus de réunions ; ▪ La stratégie de recette et de migration technique ; ▪ Le plan d'action et de suivi des projets.
INGENIEUR SYSTEMES ACTIVE DIRECTORY / AZURE AD
PROPULSE IT recherche un(e) consultant(e) Active Directory pour une mission chez un de nos clients. Sur cette mission l'accent est mis sur l'expertise Azure AD. MCO de la partie Active Directory : 80% - Participation à la résolution des incidents et demandes liés à la gestion des de Niveau 3 liés aux droits d'accès. - Participation à la MCO des outils d'administration des solutions d'Active Directory et Azure AD. Gestion des projets 20% o Participe activement aux projets o Planification en lien avec les chefs de projet Attendus comportementaux - Esprit d'équipe – partage de connaissances - Adaptabilité aux changements - Anglais professionnel courant y compris à l'oral (Animation / participation / communication fréquente avec les IT régionales). Equivalent Niveau B2 (Classification Européenne).
Data Engineer - Spark/Scala/Databricks
Compétences technologiques indispensables : Maîtrise de l'API Scala Spark (principalement pour les traitements batch). Expertise dans l'optimisation des performances Spark, avec une expérience avérée dans le traitement de volumétries importantes et complexes. Solide expérience en développement Scala et bonnes pratiques de codage. Compétences en build Maven et gestion des dépendances. Expérience de travail dans un environnement cloud (idéalement sur Azure ou AWS ). Compétences appréciées : Connaissance d' IBM Datastage et de son écosystème. Expérience avec Databricks , ses outils et ses services. Compétences transverses : Aisance relationnelle et capacité à travailler efficacement avec différentes parties prenantes. Esprit d'équipe et forte capacité d'adaptation aux évolutions des projets. Rigueur, sens de l’analyse et capacité à faire preuve d’une synthèse pertinente. Autonomie dans la gestion des tâches et des projets. Force de proposition pour améliorer les processus et l’efficacité des projets. Sens des priorités et gestion rigoureuse des délais dans un environnement dynamique. Capacité à travailler en mode multi-projets , tout en maintenant une vision globale des enjeux. Appétence pour comprendre les besoins clients et fonctionnels, et capacité à transformer ces besoins en solutions techniques pertinentes. Compétences en mentorat et partage de connaissances au sein de l'équipe.
Data Ingénieur/Data Ops (H/F) remote
Vous serez en charge de : Concevoir, implémentez et fournir des solutions pour les problématiques data. L’intégration et la collecte des données issues des applications tierces (CRM, réseaux sociaux, etc.) ; a conception, le développement et déploiement de nouveaux flux Spark pour les différents besoin métiers (finance, support, industrie…) La caractérisation des architectures des produits technologiques ; Choix d’architecture en anticipant les besoins de scalabilité La planification et l’orchestration des flux afin d’optimiser la mise à disposition de données. Détecter les points bloquants ou les chaînons manquants dans le cycle de traitement des données, et à proposer des solutions à soumettre à leurs collaborateurs. D’assurer la continuité de service et le monitoring des flux développés. Documentation : capitalisation des savoirs, retours d'expérience et fiches de best practices pour aider à la montée en compétencesdes équipes métier. De la veille technologique : proposer de nouvelles solutions techniques pour challenger le fonctionnement actuel et optimiser les temps de traitements tout en réduisant les coûts. Évangéliser les meilleures pratiques dans le traitement de la data. Vous travaillerez en relation avec les équipes responsables des infrastructures et des bases de données ainsi qu’avec les équipes de data analystes et de data scientistes, avec l'appui du chef de projet et en relation directe avec les équipes métiers. Environnement technique : • Spark , PySpark , Scala • HDFS, YARN, Hive, SQL Server, Airflow, Postgresql, kafka • Python, Java, Shell • API, Web services • Git Stash, Ansible, YAML • Puppet • Ansible • CI/CD • Docker / Kubernetes • Agilité / Scrum • la gestion de l’environnement, des tests unitaires, de l’automatisation et des versions ;
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.