Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur études SCALA
Vos missions : Cadrage des projets : Collaborer à la définition des objectifs et à la collecte des besoins utilisateurs. Développement et tests : Participer à la création et à l’évaluation de solutions pour le traitement de grandes quantités de données et l’implémentation de modèles de machine learning. Intégration continue : Mettre en œuvre des pratiques d’intégration continue pour assurer une livraison fluide et régulière du code. Résolution de problématiques techniques : Travailler sur l’optimisation des performances des traitements distribués, ainsi que sur la sécurité et la résilience des applications. Création de dashboards : Contribuer à la conception et au développement de tableaux de bord pour la visualisation des données techniques et fonctionnelles, facilitant le monitoring des systèmes.
Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri
Ingénieur MLOPS Montpellier Senior DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.
Mission freelance
Architecte BigData/Hadoop
Contexte : Vous intégrerez le service DBAs & Socles de la direction technique pour une mission de pilotage et de mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop afin de répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Description : Évolution des architectures techniques : - Mise en place des principes directeurs sur l’utilisation du cluster Cloudera; - Vérification de la bonne application des normes et des standards; - Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster; - Étude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop; - Prise en compte de l’écosystème DSI : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; Expertise Hadoop de niveau 3 : - Configuration du cluster Cloudera en fonction des besoins identifiés; - Optimisation des traitements ; Support : - Accompagnement des équipes de développement; - Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances;
Mission freelance
Architecte Opération Standards & Patterns – Freelance- (H/F)
1) Contexte de la mission : Notre client Grand-Compte du luxe recherche un architecte Opération Standards & Patterns. L’équipe DSI de la société cliente se renforce, et recherche une compétence Architecture en Système d’Informations. Cette dernière participera activement au développement de l’équipe, particulièrement sur l’activité Standards & Patterns qui a pour objectifs l’appropriation, la diffusion et la maintenance des documents de référence d’architecture SI en vue de les rendre applicables par les architectes de domaine dans le cadre de la démarche projet HSI : Création et gestion d’une bibliothèque de pattern, anti-pattern issue des sujets qualifiés et validés en comités d’architecture. Remédier aux absences de document d’architecture relatif à une solution déployée en production. 2) Missions du poste : En tant qu’architecte Opération Standards & Patterns, les tâches seront les suivantes : Production de livrables liés à l’activité Standards & Patterns. Définir puis détailler l'adoption et l'usage des patterns chez HSI en lien avec les activités existantes (Design des solutions, comité d'architecture). Etablir le mode opératoire lié aux patterns à mettre en œuvre + modèle de contenu des patterns, puis réaliser leurs mises en œuvre pour évaluation et ajustement si nécessaire. Proposer différents RACI et KPI en rapport avec les activités Standards & Patterns. Etablir la roadmap + aide onboarding / training / communication sur la démarche des patterns. Interactions avec les aux activités du pôle Opérations (COMAR, Cartographie, Formation, Communauté, ITIL, Dettes…). Définition et diffusion des bonnes pratique RSE.
Offre d'emploi
Architecte Opération Standards & Patterns – CDI - (H/F)
1) Contexte de la mission : Notre client Grand-Compte du luxe recherche un architecte Opération Standards & Patterns. L’équipe DSI de la société cliente se renforce, et recherche une compétence Architecture en Système d’Informations. Cette dernière participera activement au développement de l’équipe, particulièrement sur l’activité Standards & Patterns qui a pour objectifs l’appropriation, la diffusion et la maintenance des documents de référence d’architecture SI en vue de les rendre applicables par les architectes de domaine dans le cadre de la démarche projet HSI : Création et gestion d’une bibliothèque de pattern, anti-pattern issue des sujets qualifiés et validés en comités d’architecture. Remédier aux absences de document d’architecture relatif à une solution déployée en production. 2) Missions du poste : En tant qu’architecte Opération Standards & Patterns, les tâches seront les suivantes : Production de livrables liés à l’activité Standards & Patterns. Définir puis détailler l'adoption et l'usage des patterns chez HSI en lien avec les activités existantes (Design des solutions, comité d'architecture). Etablir le mode opératoire lié aux patterns à mettre en œuvre + modèle de contenu des patterns, puis réaliser leurs mises en œuvre pour évaluation et ajustement si nécessaire. Proposer différents RACI et KPI en rapport avec les activités Standards & Patterns. Etablir la roadmap + aide onboarding / training / communication sur la démarche des patterns. Interactions avec les aux activités du pôle Opérations (COMAR, Cartographie, Formation, Communauté, ITIL, Dettes…). Définition et diffusion des bonnes pratique RSE.
Mission freelance
Data Engineer Big Data - Delta Lake / Spark / Cloudera
Nous recherchons un développeur Big Data avec un compétence sur l'environnement opensource Delta Lake pour une mission de longue durée à Vélizy. La Prestation s’effectuera au sein de l’équipe « IS Data Factory » du client qui est composée Data Engineer et de Data Architect. Les personnes sont basées entre Vélizy, Boston (USA) et Pune (Inde) Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de la conception et du développement d'un POC pour un Data Lakehouse ouvert en utilisant les dernières technologies (Delta Lake, Cloudera, NoSQL, NiFi, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. o Analyse et optimisation de la performance des flux de données et des requêtes. o Création et maintenance de documents techniques sur les pipelines de données, o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
Data Engineer Confirmé
1 - Contexte La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. 2 - Description de la mission Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL Développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitements avancés des données Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés
Offre d'emploi
Développeur - Big Data | Spark (H/F)
📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.
Offre d'emploi
Data engineer AWS
Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais
Offre d'emploi
Data Engineer BI
➢ CONTEXTE * Au sein du domaine Data BI nous recherchons un Data Engineer qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l’équipe. À la suite d’une passation avec notre centre de service, il devra également être en mesure d’innover et d’améliorer les processus existants pour perfectionner l’efficience de l’équipe au quotidien dans ses différentes tâches. ➢ DESCRIPTION DE LA MISSION • Participe à l’analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) • Être force de proposition sur l’amélioration de notre stack Data • Faire le reporting d’avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe
Mission freelance
Automaticien senior (industriel) - Responsable automaticien H/F
Responsabilités : Gestion de projets d’automatisation : Diriger et coordonner des projets d’automatisation de grande envergure. Expertise en PCS7 et WinCC Scada : Concevoir et gérer des architectures complexes utilisant PCS7 et WinCC Scada. Apporter une expertise en qualification et validation des systèmes automatisés, en travaillant de manière transverse sur différentes étapes du processus. Communication : Collaborer efficacement avec les équipes internes et les clients, en anglais et en français. Gestion de l’équipe : Superviser et guider les membres de l’équipe de projet pour assurer la réussite des projets.
Offre d'emploi
SysOps (Linux) / DevOps (Ansible, Kubernetes) (H/F)
Nous recherchons pour l'un de nos clients basés à Paris : Un(e) SysOps (Linux, RHEL) / DevOps (Ansible, Kubernetes) (H/F) Vous travaillerez pour un client prestigieux dans le secteur industriel, dans un environnement international stimulant. Vous serez intégré(e) à une équipe de 10 DevOps et collaborerez étroitement avec des équipes internationales. Responsabilités : Gérer et maintenir les systèmes Linux/Redhat. Automatiser les processus de déploiement et de gestion de configuration avec Ansible. Déployer et gérer des applications conteneurisées avec Kubernetes. Configurer et gérer des serveurs web avec Nginx. Participer aux réunions et gérer les incidents techniques en anglais. Collaborer avec les équipes de développement pour améliorer les processus CI/CD. Assurer la surveillance et la performance des systèmes et des applications.
Offre d'emploi
Référent Applicatifs Financier & Fiscalité
Description du Poste : Le référent Applicatifs des domaines Financier et Fiscalité intègre l’équipe en charge de la maintenance évolutive et corrective des applications métiers du Système d’information du client. Il a la responsabilité de plusieurs applications et outils tant sur les aspects fonctionnels que techniques. Il maîtrise de bout en bout les applications qui lui sont confiées, tant d’un point de vue technique que fonctionnel (fonctionnement de l’application, activité métier concernée, connexion et interopérabilité, flux, plan de production, niveau de SLA, etc.). Il travaille en relation étroite et permanente avec les équipes technique de la DSI (pilotage, architecture, infrastructure, réseau, sécurité opérationnelle). Activités principales : Sur l’ensemble des applications et outils de son périmètre, pouvant être développés par les équipes internes ou des éditeurs externes, déployés On Prem ou sur IaaS ou en SaaS : Assurer une veille réglementaire, identifier et suivre les évolutions liées à la réglementation Assurer la relation contractuelle avec les éditeurs/intégrateurs de logiciels, gérer les échanges avec les sous-traitants Assurer l’assistance aux utilisateurs métiers, prendre en charge et suivre les tickets d’incidents et des demandes, réaliser les diagnostiques des dysfonctionnements ou faire appel à l’éditeur/intégrateur de la solution Mobiliser les équipes sachants ou expertes nécessaire au traitement d’une demande Assurer l’assistance à l’administration et au paramétrage des applicatifs Recueillir les besoins métiers, prioriser, chiffrer des évolutions, et piloter des projets d’évolution avec les équipes projets Réceptionner et valider les briques logicielles du périmètres applicatifs Suivre et coordonner les mises en production des nouvelles versions Participer à la définition de la stratégie de test du périmètre applicatif, et contribuer à la rédaction des scenarios de tests Organiser des UAT avec les acteurs des directions métiers Contribuer activement à l’industrialisation des tests techniques du périmètre applicatif Maintenir à jour et contribuer à l’amélioration de la base documentaire du périmètre applicatif Suivre et contribuer à la supervision des applications Assister à la rédaction des dossiers CCIN (réglementation sur la donnée nominative) Contribuer à l’homologation des solutions dans le respect de l’architecture retenue Participer à la rédaction des commandes contrats et autres pièces de marchés publics Assister la cellule administrative dans le suivi et l’exécution du budget relatif au périmètre applicatifs Participer aux astreintes et interventions périodiques en HNO de mise en production ou de patch management. Suivre les contrats et les budgets
Offre d'emploi
Ingénieur d'intégration applicatif H/F
NOOEH , Entreprise de Service du Numérique basée à Aix-en-Provence, recherche pour le compte d'un de ses clients situés à Boulogne Billancourt (92) un.e Ingénieur d'intégration Applicatif . Vous serez en charge de maîtriser les déploiements des différents applicatifs dans les environnements utilisés par le SI. Intégrer et déployer les applications de qualification Debugger les problématiques d’infrastructures et logicielles Participer aux phases de migration et de bascule des projets Maintenir la cartographie des composants applicatifs et techniques Mettre en place et gérer les environnements Rédiger et mettre à jour les procédures d’installation et d’administration des applications Réaliser le paramétrage technique des applications, environnements et infrastructures Assurer le support à la qualification des applications Garantir l'exploitabilité des composants dans le respect des normes et des bonnes pratiques Contribuer à l'exploitation quotidienne des applications et à la gestion des incidents Diagnostiquer les incidents et analyser les dysfonctionnements de l'application Participer aux campagnes de qualification technique et fonctionnelle Coordonner les actions d’administration et d’intégration des applications Assurer la communication auprès des autres services
Mission freelance
Chef de projet automaticien H/F
Gestion de projets d’automatisation : Diriger et coordonner des projets d’automatisation de grande envergure. Expertise en PCS7 et WinCC Scada : Concevoir et gérer des architectures complexes utilisant PCS7 et WinCC Scada. Apporter une expertise en qualification et validation des systèmes automatisés, en travaillant de manière transverse sur différentes étapes du processus. Communication : Collaborer efficacement avec les équipes internes et les clients, en anglais et en français. Gestion de l’équipe : Superviser et guider les membres de l’équipe de projet pour assurer la réussite des projets.
Offre d'emploi
Big Data Engineer Scala - Spark H/F
[Contexte] La prestation se déroule au sein du pôle Cybersecurity eFraud & Solutions dans lequel sont développés les outils de Maching Learning lutte contre la fraude et de réponse cyber à des recommendations de la BCE en cartographie et microsegmentation réseau (Octoflow) L'outil permet de recenser les échanges entre serveur afin de certifer les logs. Pour cela l'équipe a besoin d'un data engénieur afin de parser les données des différentes sources afin de les restituer à un outil interne. socle technique : Spark, Scala, Hadoop, Hive, Control-M, Starburst, ElasticSearch, Hbase [La prestation consiste à contribuer à/au(x)] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - Examen du code et assurance qualité : respect des normes de codage et mise en œuvre des pratiques d'assurance qualité afin de maintenir un niveau élevé de qualité des logiciels. - L'assistance au Product Owner et aux autres entité dont les architectes, les parties prenantes et les bénéficaires pour définir les exigences du projet et garantir l'alignement sur les objectifs de l'entreprise - Expertise technique : tendances et technologies du secteur dont le domaine DATA, WEB, etc. et assistance à l'entité. - Résolution de problèmes : Défis techniques et contribuer à apporter des moyens innovants à des problèmes complexes. - Gestion des performances : Evaluations des performances, retour d'information et favoriser la croissance et le développement professionnels au sein de l'entité [Les livrables attendus sont] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - veille technologique d'outils contribuant à l'optimisation de la solution
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.