Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Artificial Intelligence Engineer
Développer des pipelines de données : créez des pipelines évolutifs pour collecter, nettoyer et stocker de grands ensembles de données pour les applications AI/GenAI. Intégration avec les modèles d'IA : collaborez avec les équipes d'IA pour garantir une intégration transparente des données avec des modèles tels que les LLM. Infrastructure cloud : déployez et gérez les systèmes de données à l'aide d'AWS, Azure ou GCP. Optimisez l'ETL et l'entreposage de données : créez et améliorez les processus ETL et les solutions de stockage de données. Collaboration : alignez les flux de travail de données sur les besoins de l'équipe d'IA. Automatisation et surveillance : mettez en œuvre l'automatisation et la surveillance pour des pipelines efficaces et fiables. Restez à jour : suivez les tendances de l'IA/GenAI et assurez la sécurité et la conformité des données.
Développeur / Ingénieur IA -NLP/LLM
👉 Contexte: Nous accompagnons en ce moment un client, leader sur son marché, dans la recherche d’un développeur / Ingénieur IA. La mission se déroulera au sein de la direction de leur digital factory, dans un environnement AGILE. Elle consistera à accompagner les collaborateurs dans la fabrication de produits autour des nouvelles technologies en travaillant étroitement avec les pôles métiers et pôles produits concernés. ⏰ Démarrage ASAP ⌛Durée 6 mois renouvelable 📍 Paris ou Montpellier 🏠 2 à 3 jours par semaine
Ingénieur système Mainframe / Zos F/H
Depuis 30 ans, SEA TPI s'est imposée comme une référence sur le marché par son approche pragmatique associant savoir-faire technologique et réponse à des attentes métier. EXPERT des métiers de la Production nous apportons à nos clients une expérience unique des centres de services par leur transversalité et leur transparence. La société exerce dans 4 domaines d’activités : RUN des services centraux, RUN des usages numériques, RUN cybersécurité et accompagnement à la transformation digitale. Missions principales : Administration des référentiels et base de données Maintenance des structures de Vues Fichier dans Predict Maintenance du contenu des codifications Host, alimentant la production et les bases Open Support des outils SoftwareAG tels que : -NaturalONE -Supernat -ReviewDB / DBlog -Event replicator -Support des solutions du Framework -Module Directeur -Listener Natural (Traitement de flux asynchrones) -Translate file (Solution UNISI et fichier nationaux) -Triggers (Anonymisation, Création d’images pour NPRH ) -Support de la couche d’échange EntireX - ApplinX -Appels entrants (Open - Host) -Appels sortants (Host - Open) Support système Mainframe : - Matériel mainframe - Système z/OS - CICS - Sécurité RACF - LDAP - Virtel - Editions EOS - OMEGAMON/TEP - PSF -CONTROL/M for Z/OS Activités transverses : - Support Projets MCO système et montées de version mineures et majeures - Gestion de la solution d’alimentation du Data Lake - Gestion d’actifs de la GPA (Décommissionnement de transaction) - Gestion des Scénarios Virtuel Les missions énumérées ci-dessus ne sont pas exhaustives.
un Architecte DataOps/Systems/GPU
Missions Pour un client du secteur bancaire, nous recherchons un Architecte DataOps/Systems/GPU expérimenté pour rejoindre l'équipe DataOps/DataLab au sein de la division AI & Innovation. Vous serez chargé de concevoir, implémenter, et superviser les plateformes de Data Science et AI, tout en renforçant les pratiques DevSecOps et GitOps. En tant qu’Architecte DataOps/Systems/GPU, vos principales responsabilités incluent : ● Renfort des Équipes Systèmes et GPU Grid : ○ Participer à la conception, à l'implémentation et au support des produits de Data Science/AI (exploration, MLOps, inférence, GPU Grid). ● Amélioration Continue : ○ Contribuer à l'amélioration continue des produits et services de l'équipe, en intégrant les meilleures pratiques et innovations du marché. ● Gestion du Cycle de Vie des Produits : ○ Automatiser et industrialiser les solutions de Data Science en suivant des approches "Cloud Native" basées sur Kubernetes. ● Supervision des Plateformes : ○ Assurer la maintenance, la supervision et la fiabilisation des 15+ plateformes de Data Science (production et hors production). ○ Garantir la robustesse et la performance des infrastructures en environnement Cloud et on-premise. Compétences Techniques : Expertise en architecture Data Science/AI, incluant MLOps et LLMOps. Solides compétences en Kubernetes, Openshift, et pratiques DevSecOps/GitOps. Expérience avec les environnements GPU Grid et les technologies d'automatisation autour des APIs des infrastructures et produits. Connaissances en supervision et optimisation de plateformes hybrides (Cloud & on-premise).
Senior Graph Data Scientist
Le benéficiaire souhaite une prestation d’accompagnement dans le cadre de la contribution à la mise en place de notre IT Knowledge Graph, avec des opportunités de création d'énormes avantages pour les clients internes. À travers la conception et utilisation de Machine Learning et Graph Analytics (y compris Graph Mining, Graph Algorithms & Graph Enbeddings) dans divers cas, l'objectif est l'apport d'une expertise en matière de modélisation de données graphiques. Les missions sont: • Participation au développement des solutions pour la mise en place d'un Knowledge Graph combinant différentes sources de données • Conception des solutions pour différents cas d’utilisation afin de répondre aux besoins des clients à l’aide du Knowledge Graph • Prototype, test et production des pipelines Machine Learning pour ces cas d'utilisation • Analyses pour identifier les défis et les opportunités
Expert en Fact-Checking et LLM
Nous recherchons un expert en fact-checking et intelligence artificielle pour accompagner notre client dans le développement d’un système avancé de vérification des faits, basé sur l’utilisation de modèles de langage à grande échelle ( LLM ). Ce projet s’inscrit dans une stratégie d’innovation visant à automatiser la validation des informations dans un contexte où la fiabilité des données est critique. En tant qu’expert, vous serez en charge de : • Développer et affiner des modèles de langage (LLM) pour des applications de fact-checking. • Mettre en place des processus de fine-tuning pour adapter les modèles aux spécificités métiers et bases de données. • Optimiser la performance des modèles via des techniques avancées de prompting (conception et test de prompts adaptés). • Automatiser les processus de vérification des faits à partir de bases de données fiables et de multiples sources. • Collaborer avec les équipes métiers et techniques pour comprendre les besoins spécifiques et proposer des solutions adaptées. • Garantir la traçabilité et la transparence des résultats produits par les modèles.
Fullstack Developer Spring/Kotlin/React
Poste de développeur full-stack senior pour rejoindre l'équipe technique d'une startup dans l'énergie. Les principales responsabilités incluent : - Développer et maintenir une application web pour les clients professionnels - Développement du back-end en Java Spring et du front en React - Contribuer à la refonte de l'architecture et du pipeline de données - Capacité à gérer plusieurs projets en simultané - Travailler en étroite collaboration avec le CEO, le service client et l'équipe produit pour comprendre les besoins et livrer des fonctionnalités - Être opérationnel et autonome dans un environnement start-up en constante évolution
Consultant Migration Expert AD (H/F)
Service to develop script to : - Service to decommission AD - Service to migrate file share to other locations • Service to Analyse AD Data to plan migration and decommissioning Working environment English working environment and English context – Mandatory French working environment and French context – Nice to have Développer un script pour : décommissionner Active Directory (AD) migrer les partages de fichiers vers d'autres emplacements analyser les données AD afin de planifier la migration et le décommissionnement 3/Environnement de travail : Un environnement de travail en anglais et un contexte en anglais – Obligatoire Un environnement de travail en français et un contexte en français – Souhaitable
Ingénieur BIG DATA
Poste : Ingénieur Big Data Expérience : 2 à 5 ans TJM Max : 440€ Localisation : Bordeaux Démarrage :ASAP Fonction Lead Data Engineer Intégré à la DSI en tant que DataOps Engineer, au sein de l’équipe Data Tech Knowledge de la direction IT DATA, vous viendrez apporter votre expertise technique sur la mise en place et l'évolution de la stack data. A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD Notre stack technique : • Langages : SQL / Python • Base de données : Snowflake / SQL Server / PostgreSQL • DevOps: Git / TFS / Azure Devops / Docker / Kubernetes / Liquibase • Messaging : Kafka • Infra As Code : Terraform • Data Processing : DBT / Talend • Data vizualisation : PowerBI Python : 2 à 5 ans Snowflake : 2 à 5 ans Data OPS 2 à 5 ans Terraform : < 2 ans ETL (Talend/DBT) < 2 ans
IT INFRASTRUCTURE ARCHITECT H/F
AMAGO IT recherche pour l'un de ses Clients GC INTL dans le cadre d'une mission de longue durée : IT INFRASTRUCTURE ARCHITECT Département de l’Infrastructure et des Opérations informatiques Contexte : Le poste est au sein de l’équipe Architecture Groupe (IT Architect & fonctionnel, Architecte Data & Usine digitale) Rôles : -Suivi et conseil aux équipes de conception -Participation à la définition des infrastructures techniques -Gestion de projets d’infrastructure -Suivi et amélioration des processus
Architecte Infrastructure
Pour le compte de l' un de nos clients dans le domaine de la finance , nous recherchons un Architecte Infrastructure Vos missions principales seront: · Le suivi et conseil aux équipes de conception, · La participation à la définition des infrastructures techniques · La gestion des projets infrastructures · Le suivi et l' amélioration des processus Des déplacements sont à prévoir en Allemagne (Franckfort) et en Tunisie (Tunis). Cette mission est faite pour vous !!!!!!!
Architecte technique IT
Le poste est au sein de l'équipe architecture du groupe. Cette équipe est composée d'un architecte infrastructure, d'un architecte fonctionnel, d'un architecte usine de développement, d'un architecte Datascience. Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructure Suivi et amélioration des processus Bonne connaissance du système d'information global et de l'architecture SI Excellente connaissance des systèmes d'exploitation (notamment Windows, UNIX/LINUX), des réseaux et télécommunications, des bases de données, du stockage (NAS/SAN/DAS) Connaissance des technologies et outils de virtualisation Vmware. Maîtrise des environnements de conteneurisation tels que Kubernetes, Redhat OpenShift. Bonne connaissance des environnements Cloud (Azure, GCP), BigData Maîtrise des risques liés à la sécurité des infrastructures et à la dématérialisation Connaissance des normes dans le domaine de l'archivage et du chiffrement. Bonne connaissance du modèle C4 Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant. Polyvalence, goût pour la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique pour faire la part des choses entre la technique et le discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment).
Développeur Big Data GCP
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Tech Lead/ Architecte Data - CIB
Dans le cadre de l'extension de la capacité d'étude d'architecture data sur le périmètre CIB, notre client recherche un Tech Lead/Architecte Data pour supporter les projets orientés data. L'objectif de la mission est de construire et supporter un cadre d’architecture Data aligné sur les standards du Groupe et de l'incarner auprès des parties prenantes Missions: Architecture applicative : Instruire avec les parties prenantes les arbres de décision (Hadoop/Container/Cloud, etc.); Proposer une architecture EDA (Kafka, etc.) pour l'injection des données; Proposer une architecture d’intégration dans Hadoop, normalisation et distribution de référence. Architecture technique : Instruire les choix d'outillage technique (API/Caching/indexation, etc....) Produire et valider les modèles fonctionnels d'échange et de découplage sur les objets du SI Co construire avec les équipes de développement des domaines leur blueprint spécifique, et co-développer avec les équipes de développement des composants mutualisables de l'IT data framework (intégration, normalisation des datas et exposition) Pré-requis: Bac+5 école d'ingénieur vous avez plus de 10 ans d'expérience et des expériences solides en tant que Lead Tech/ Architecte Data dans le milieu CIB (commodities, fixed income et/ou equity) Maitrise des technologies big data (hadoop, kafka, spark...) Expérience en développement et industrialisation des applications utilisant de grosse volumétrie de données. connaissance des outils de data management et de machine learning capacité à développer des pipelines d'ingestion et des API dans un environnement HDP anglais courant Agile
Expert en Migration de Plateforme de Données - Fabric Microsoft (H/F)
Offre d’emploi : Expert en Migration de Plateforme de Données - Fabric Microsoft (H/F) 📍 Localisation : Flexible (Remote avec déplacements occasionnels chez le client) 🌐 Langues requises : Anglais et/ou Espagnol (Français est un plus) 💼 Type de contrat : CDI ou Freelance 💰 Rémunération : À négocier Description du poste : Nous recherchons un Expert en Migration de Plateforme de Données pour collaborer avec nos équipes DATA-IT chez notre client, un leader mondial des assurances et réaliser une présentation stratégique au Comité Exécutif. Vous jouerez un rôle clé dans la conception d'une architecture de données innovante et dans la démonstration des avantages de la migration vers Microsoft Fabric . Votre mission comprendra : Analyse et Conception : Élaborer une proposition détaillée pour la nouvelle architecture de la plateforme de données en tenant compte des aspects techniques, financiers et stratégiques. Étude de Cas (POC) : Mettre en place un environnement Microsoft Fabric pour réaliser un Proof of Concept (POC) de la migration à partir de Databricks, Power BI, etc. Présentation au Comité Exécutif : Concevoir une présentation visuellement captivante et convaincante qui met en avant les avantages et les coûts de la migration. Défense du Projet : Présenter et défendre les recommandations auprès du Responsable des Données d’AXA et du Comité Exécutif.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.