Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant HPC (High Performance computing) et Data engineering / Slurm
Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.
Mission freelance
Data Scientist
Concernant le projet, le client est entrain de commercialiser des modules d'IA. Notre client recherche actuellement un Data Scientist maîtrisant : - Databricks (obligatoire) - Python (très bonne connaissance) - Compétences en gestion des utilisateurs et des droits - Gestion des utilisateurs - Gestion des droits - Plusieurs modèles de gestion de droit - Bonus : Connaissance de D3.js et des visualisations avec Databricks Ce consultant H/F doit également avoir une maitrise de l'environnement de l'immobilier ou de la banque/ assurance ou en crédit / finance.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Data Scientist / Actuariat - Paris, IDF
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Data Scientist (H/F)
Nous recherchons pour notre client, grand compte, un Data Scientist confirmé pour une mission longue durée Notre client figure parmi les principaux gérants d'actifs mondiaux assurant la gestion active d'actions, d'obligations et de taux, la gestion passive de fonds indiciels ainsi que la gestion d'actifs non liquides (actifs immobiliers et dettes privées). Prérequis : Data Science : Apprentissage automatique et analyse de données Pratiques MLOps Déploiement de packages Python PySpark Pratiques LLMs LLMOps Rigoureux, organisé, Proactif
Offre d'emploi
Data Engineer
À propos de notre client : Notre client est un acteur majeur du prêt-à-porter, reconnu pour son innovation et sa présence internationale. Avec plus de 1 500 magasins dans plus de 50 pays, l'entreprise cultive une relation unique avec sa clientèle à travers ses marques phares. Poste : Data Engineer Confirmé (H/F) Dans le cadre de sa transformation digitale, notre client recherche un Data Engineer confirmé pour renforcer son équipe Data et participer à des projets stratégiques visant à optimiser l'expérience client et les processus internes. Vos missions : Concevoir, développer et maintenir des pipelines de données. Intégrer et transformer des données provenant de diverses sources pour répondre aux besoins métiers. Collaborer avec les équipes marketing, e-commerce et IT pour fournir des solutions data adaptées. Assurer la qualité, la sécurité et la performance des infrastructures de données. Participer à l'implémentation des meilleures pratiques en matière de gouvernance des données. Votre profil : Expérience : 3 à 5 ans en tant que Data Engineer Compétences techniques : Maîtrise des services GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage. Solides compétences en Python et SQL pour le développement de pipelines ETL. Connaissance des bases de données relationnelles et non relationnelles. Une expérience avec des outils tels qu'Airflow, Terraform ou Apache Beam est un plus. Qualités personnelles : Esprit analytique, autonomie, capacité à travailler en équipe et sens de l'innovation. Ce que nous offrons : Intégrer une entreprise leader dans son secteur, en pleine transformation digitale. Participer à des projets d'envergure avec des défis techniques stimulants. Un environnement de travail collaboratif et bienveillant. Télétravail partiel possible. Rémunération attractive selon profil et expérience. Lieu : Poste basé à Paris, avec possibilité de télétravail partiel. Rejoignez une entreprise innovante et contribuez à sa transformation digitale en apportant votre expertise en ingénierie des données !
Mission freelance
Data Ingenieur / Data architect
Principales missions et tâches à effectuer : Accompagnement de l’équipe OPS pour la migration vers Cloudera Data Plateform Compléter la Roadmap Architecture et la mettre en place (Rationalisation des environnements ; distribution Hadoop; Stratégie de Backup; Process d'onboarding: nouveau cas d'usage, nouvel utilisateur; Secret Management; SSSD; Refonte de l'organisation LDAP; Gestion des permissions; SSO; Haute disponibilité; Catalogue de données et de usecase …) Poursuivre et mettre en place la politique de Gouvernance DATA sur la plateforme. Assister l'équipe exploitation en cas de blocage dans le déploiement des livraisons, l'installation des outils, le debug. Soutenir les travaux de développement de pipeline de l'équipe DATA ING (choix techniques, optimisation de perfs, bonnes pratiques etc.). Technos/Outils du projet : Les outils de stockage : Hadoop, Hive, Hbase, Postgresql, Ceph Les outils de gestion de calcul distribué : Spark, Yarn Les outils de prototypage : Jupyter, Dataiku, Hue, Airflow Les outils d’alimentation : Kafka, Nifi Les outils d’affichage : Grafana, Tableau Les outils d’administration : Kerberos, Zookeeper, Solr, Ranger, Atlas, Ldap Les outils de proxyfication : Knox, HAProxy Les outils de supervision : Prometheus Les outils de configuration management : Puppet, Ansible Outil de secret management: Vault Cloud Computing: Openstack
Mission freelance
DATA ENGINEER (H/F)
Notre client recherche un(e) Data Engineer. - Construire et optimiser les pipelines de données : collecte, transformation et publication des données. - Améliorer fiabilité, qualité, performance et FinOps des flux de données. - Garantir la conformité avec la gouvernance de données du groupe. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake. Une connaissance de la Supply Chain ou une forte curiosité métier est un atout clé, compte tenu de l’organisation.
Mission freelance
Architecte Cloud Data h/f à Lille
Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.
Offre d'emploi
Data Manager - Poitiers
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Manager pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Poitiers, Nouvelle-Aquitaine, France. Vos missions principales : Gérer et structurer les données pour assurer leur intégrité, disponibilité et sécurité. Superviser les processus de collecte et de stockage des données. Collaborer avec des équipes multidisciplinaires (Data Analysts, Data Scientists, développeurs) pour optimiser les flux de données. Proposer et mettre en œuvre des stratégies de gestion de données en ligne avec les objectifs de l'entreprise. Assurer la conformité aux normes et réglementations en vigueur (RGPD, etc.). Suivre et analyser les performances des infrastructures de données et recommander des améliorations. Former et sensibiliser les équipes à l’importance de la bonne gestion des données.
Mission freelance
Directeur Data
Cherry Pick est à la recherche d'un "Directeur Data" pour un client dans le secteur de la grande distribution Contexte de la mission Véritable ambassadeur sur les sujets data et IA, nous cherchons un profil qui saura apporter sa vision stratégique, fédérer les équipes autour de la transformation numérique et garantir l’évolution des plateformes data et IA en adéquation avec les ambitions de l’entreprise. Rattaché au CTO vous aurez en charge de : - Définir la stratégie et l'évolution des plateformes data et IA en lien avec la stratégie de l’entreprise, - Diffuser la culture data et IA (dont IA gen) au sein du groupe. - Garantir la disponibilité des plateformes Data et IA pour toutes les entités du groupe (Cdiscount,Octopia,Clogistic), - Conduire et assurer la transformation des équipes en mode produit, - Être l’ambassadeur de Peaksys lors d’évènements internes et externes sur des thématiques data et IA, - Organiser des évènements internes pour la promotion de la data et de l’IA - Manager une direction de 45 collaborateurs (dont prestataires locaux et offshore) répartis en 5 équipes avec des profils pluridisciplinaires (Mlops, Data ingénieur, Data architecte, Data manager, Ml ingénieur), - Assurer le recrutement des collaborateurs et leur évolution au sein de Peaksys. - Gestion des budgets, - Gestion de crises, - Participer aux comités internes et y représenter la data (Comité DSI, comité IA Gen, Copil B2B...), - Gérer les relations avec les principaux éditeurs et négocier les contrats de renouvellement (Snowflake et Microsoft), - Travailler en étroite collaboration avec les directions produits B2C, B2B, Advertising et Datascience afin d’anticiper les besoins et de construire les roadmaps des plateformes data et IA. Objectifs et livrables Pré-requis : Expérience d’au moins 7 ans sur un poste similaire Modalités de télétravail : 2 jours par semaine, 3 jours sur site le lundi, mardi et jeudi.
Mission freelance
Développeur Oracle Data Integrator
Dans le cadre du projet de mise en place d’un nouveau Système d’Information Collectif pour notre client dans le secteur de la santé, l’équipe Data Factory recherche un Développeur Oracle Data Integrator (ODI) . Vous rejoindrez une équipe dynamique et participerez activement à l'intégration des données nécessaires pour alimenter l’infocentre ASP. En tant que Développeur ODI, vous serez chargé(e) de : Développement et intégration de flux de données : Concevoir, développer et déployer des flux ETL avec Oracle Data Integrator (ODI) . Intervenir ponctuellement sur des flux développés avec Talend . Garantir la qualité, la robustesse et l’optimisation des flux créés. Maintenance et correction des flux existants : Assurer le support et la correction des flux pour répondre aux besoins des utilisateurs. Réagir rapidement en cas d’anomalies détectées pour garantir une continuité de service. Participation à l’alimentation de l’infocentre ASP : Alimenter l’infocentre ASP à partir du nouveau système d’information collectif. Veiller à l’exactitude et à la cohérence des données transformées et intégrées. Collaboration avec les équipes : Travailler en étroite collaboration avec les équipes techniques (DBA, DevOps, etc.) et fonctionnelles. Participer aux ateliers pour comprendre les besoins métiers et adapter les solutions techniques.
Mission freelance
Data Ingénieur
Dans le cadre d’un projet orienté Data, nous recherchons un Data Engineer pour : Alimentation des données RH (côté Data, sans intervention sur l’interface de l’application). Diffusion des données vers différents domaines (organisations, etc.) en mettant ces données à disposition de manière centralisée pour faciliter leur utilisation par d’autres applications. Activités principales : Gestion des flux de données : Utilisation d’un framework interne développé par le client , permettant de consommer des données sous différentes formes. Exploitation des données via BigQuery pour ingestion unitaire et transformation. Calculs et analyses de métriques clés (KPI) : Calcul d'ordre relatif aux informations RH (nombre d’employés présents, départs, dates correspondantes, etc.). Génération de statistiques et indicateurs pour la gestion des ressources humaines. Gestion des environnements techniques : GitHub pour la gestion du code source. Infrastructure as Code via Terraform . Automatisation des pipelines CI/CD pour déploiement et création d’infrastructures. Collaboration avec les équipes Data : Support pour les tâches de data analysis et reporting (outils comme Looker et Power BI).
Offre d'emploi
Data Steward (F/H)
📑 CDI (42-50K€) / CDI OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 5 ans minimum Si vous êtes passionné.e par l'Agilité et la Data, cette opportunité pourrait bien être celle que vous attendiez ! 🚀 Nous poursuivons notre croissance et avons besoin de votre expertise pour accompagner un de nos clients sur des projets ambitieux. En tant que Data Steward | Scrum Master, vous jouerez un rôle clé dans le déploiement des solutions data et l'optimisation des processus agiles. 💻💼 Vos missions au quotidien : - Accompagner l'équipe dans la gestion du backlog pour garantir le bon déploiement des offres à grande échelle - Piloter les cérémonies agiles (sprint planning, rétrospective, daily meetings) en tant que Scrum Master pour favoriser une démarche Agile fluide - Superviser la data gouvernance : gestion des demandes de validation, soutien aux équipes de production applicative et édition - Rédiger des documentations utilisateurs claires et précises pour accompagner le déploiement des solutions
Offre d'emploi
Data Cloud Architect
En tant que membre de l'équipe Data Capture , le poste requiert des connaissances techniques et architecturales ainsi qu'une solide expérience pratique des technologies Cloud, du développement de micro-services et de l'architecture pilotée par les événements. Il requiert également des relations de travail étroites avec les équipes informatiques du groupe/de la zone, les partenaires commerciaux, les partenaires externes et tous les membres de l'équipe d'intégration. Les compétences ci-dessous sont essentielles et obligatoires : Leadership et autonomie Engagement sur les sujets Capacité à faire des restitutions documentaires dans le cadre d'un audit par exemple ou d'un poc ou en matière de normes et d'architecture Concevoir et proposer des solutions sur les données en utilisant les technologies Azure Cloud dans notre cadre. Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » dans le respect des bonnes pratiques architecturales Concevoir et développer des APIs / Micro services pour enrichir notre cadre de solutions Soutenir la stratégie Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l'enrichissement en libre-service Contribuer à la modernisation et à la sensibilisation à la technologie au sein de l'équipe Data Capture et dans l'ensemble de l'organisation Data & Analytics. Être le référent au sein de l'équipe pour tous les sujets liés au cloud. Conduire des ateliers et faciliter la collecte des besoins Soutenir les ingénieurs de données sur les sujets liés au cloud Soutenir l'équipe de sécurité pour les sujets connexes Contribuer à la feuille de route et à l'évolution de la capture de données Défier et soutenir les vendeurs externes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Logiciel embarqué vers le DevOps / Cloud
- SASU IR vs Micro entreprise + ARCE
- situation compliquée fin de mission pression client comment gèrer ?
- Close de non concurrence freelance à portgae salarial
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Arce 7 mois après la création de l'entreprise ?