Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert Azure
Bonjour, Je suis Consultante en Recrutement Spécialisée dans l'IT. Je souhaiterais pouvoir échanger avec vous au sujet d'une mission longue durée en freelance à pourvoir rapidement «Expert Azure » située à Paris. Démarrage: ASAP Lieu: Paris 2 jours de télétravail - 3 jours sur site. Vous trouverez ci-dessous le descriptif de la mission : Vous rejoindrez l'équipe en tant qu'expert Azure. Vous serez responsable de la conception, de la mise en œuvre et de la gestion des solutions cloud sur Microsoft Azure. Vous devrez fournir les prestations suivantes : Les principales tâches incluent : Conception et déploiement d'architectures cloud sécurisées et évolutives sur Microsoft Azure Gérez et optimisez les services Azure existants pour garantir la performance, la fiabilité et la rentabilité Élaborer et mettre en œuvre des procédures de surveillance, de sauvegarde, d'optimisation et de sécurisation des objets Azure, puis assurer la mise en œuvre de ces solutions et contribuer aux opérations de production. Assurez la sécurité et la conformité des environnements cloud Azure. Surveillez et gérez les ressources Azure pour prévenir les interruptions et optimiser les performances. Collaborer avec les équipes Architecture et Développement pour intégrer les meilleures pratiques DevOps et CI/CD. Fournir une assistance technique et une formation aux équipes internes sur les solutions Azure Planifier et exécuter les migrations d'infrastructure et d'applications vers Azure. Restez informé des dernières technologies et tendances Azure et proposez des améliorations continues
Mission freelance
2 Data scientists (1 senior & 1 expert à temps partiel) (h/f) (h/f)
emagine recherche pour l'un de ses Clients Grand Compte 2 Data scientists (1 senior & 1 expert en temps partiel) Rythme: 1 à 2 jours sur site + 3 à 4 jours de télétravail Durée: minimum 2 ans Lieu : Île de France, 95 Contexte : Programme attendu avec roadmap serrée dans un contexte de migration vers le cloud (GCP) L'entreprise a commencé une migration de ses applications data sur le cloud public (GCP). L'ensemble des travaux d'industrialisation se feront donc sur ce nouvel environnement de travail pour lesquels des compétences spécifiques MLOps sont nécessaires : maitrise de docker, github action, terraform, vertexAI etc… Objectifs de la Mission • Comprendre en profondeur les mécanismes du revenue management, y compris les facteurs influençant la demande et les stratégies de tarification. • Concevoir et implémenter un modèle de prévision de séries temporelles en utilisant les technologies les plus récentes en IA et ML, pour améliorer la fiabilité et l'efficacité des prévisions. • S'assurer que le modèle est à la fois interprétable et explicable, permettant aux équipes de revenue management de comprendre et d'exploiter pleinement les prévisions générées. • Proposer des indicateurs permettant de qualifier la fiabilité des prévisions, et être capable de les résumer et communiquer auprès du métier. Compétences et Expériences Requises • Anglais bilingue • Python • MLOps (docker, github action, terraform, vertexAI etc…) • GCP ( Migration vers GCP ) • Forecasting/time series • Bonne expérience en séries temporelles • Maîtrise du langage de programmation tels que Python ainsi que des outils de visualisation de données (Spotfire, Power BI, etc.). • Maîtrise des bibliothèques de machine learning (scikit-learn, TensorFlow, etc.) et des techniques statistiques avancées. • Solides compétences en analyse de données. • Excellente communication et capacité à travailler en équipe. Livrables Attendues • Code source des composants développés et tests associés • Description des choix d'architecture • Documentation de la solution développée (code, modélisation...) • Supports de communication (slides…) sur les développements réalisés Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse -email masqué-
Mission freelance
Data Engineer Azure Synapse
-Le rôle d’ingénieur de données Azure Synapse est crucial pour répondre aux besoins urgents de deux unités commerciales au sein de l’organisation. Ce poste sera partagé également entre l’Unité Commerciale A et l’Unité Commerciale B, qui nécessitent toutes deux des solutions de données rapides et efficaces pour atteindre leurs objectifs immédiats. Unité Commerciale A : Se concentre sur la réalisation de projets de données à petite échelle d’ici la fin de l’année fiscale. L’objectif principal est de concevoir et de mettre en œuvre des flux de travail de données qui améliorent les capacités de reporting et d’analyse. Unité Commerciale B : Nécessite un support “Fast Track” pour accélérer les projets en cours, en veillant à ce que les processus et les intégrations de données restent ininterrompus et optimisés. Cela impliquera un dépannage rapide, l’amélioration des pipelines de données et le soutien de l’architecture existante d’Azure Synapse. Étant donné les délais serrés et la nature partagée de ce rôle, l’ingénieur devra travailler dans un environnement dynamique, équilibrant les responsabilités de développement et de support entre les deux unités de manière efficace.
Offre d'emploi
Concepteur Développeur PL/SQL Confirmé
Au sein d'une équipe de développeurs PL/SQL, vous aurez les responsabilités suivantes : - Concevoir et développer de nouvelles fonctionnalités, - Rédiger des documents techniques, - Traiter des correctifs, - Effectuer les tests unitaires, - Assurer le suivi des développements jusqu’à la production Au quotidien, vous serez challengé techniquement : volume important de données, temps réel, sécurité des transactions... le tout dans un environnement technologique varié, avec des cycles de développement courts !
Mission freelance
Business analyst Lyon
RUN - Participer à l'assistance (pré-diagnostic métier pour résolution d'incidents fonctionnels) - Etre l'interlocuteur en appui au traitement des Incidents fonctionnels par les IT BUILD - Gérer, en autonomie, des projets confiés par le Product Owner, et assurer des points de suivi réguliers avec le PO - Coordonner certains sujets transverses sur demande du PO - Rédiger les récits utilisateurs en intégrant des règles de gestion facilitant la compréhension du besoin par les équipiers - Répondre aux sollicitations externes sur le fonctionnement des produits - Définir les stratégies de tests,rédiger et éxecuter les plans de tests dans Jira-Xray et suivre les anomalies - Rédiger les analyses de risque métier en lien avec l’expert ARM (Analyse des Risques Métiers) - Rédiger les ARM sécurité du SI en lien avec l'expert sécurité - Rédiger la documentation fonctionnelle AGILITE - Participer aux Cérémonies - Participer et mener les sessions d'affinage métiers
Mission freelance
Azure Data Architect
Nous sommes à la recherche d'un Architecte de données Azure pour l'un de nos principaux clients, spécialisé dans la BI et l'analytique. Il s'agit d'un poste en freelance, le candidat sera donc rémunéré sur une base horaire. Rôle : Architecte de données Azure Lieu de travail : Lyon Durée du contrat : 6 mois (Projet d'un an minimum) Travail hybride Date de début : ASAP (novembre) Freelance : Entreprise propre (SASU, Micro-entreprise) ou Portage Salarial Rôle : Recueillir et comprendre les exigences du projet Réalisation de la preuve de concept Industrialisation des projets BI et intégration des données Travailler sur la migration des solutions BI vers Microsoft BI Participer aux ateliers de conception Suivi technique et documentation
Offre d'emploi
Azure Security Engineer
As an Azure Security Engineer at Saint-Gobain, you will play a critical role in ensuring the security and compliance of our cloud estate. You will work closely with IT, DevOps and SecOps teams to design, implement, and manage security solutions that safeguard our organization's assets and data. Your expertise in security best practices will be instrumental in enhancing our security posture. Support the implementation of our Public Cloud Security strategy. Develop, implement, and enforce security policies, standards, and procedures to maintain compliance with corporate standards, industry regulations and best practices. Implement auditing and logging solutions to track and report on security-related events and anomalies. Set up and maintain Defender for Cloud and Azure Monitor for proactive security event monitoring. Monitor timely application of security patches and updates to Azure resources. Provide training and awareness programs to educate our Security Community about security best practices and risks. Steer the implementation of continuous remediation and improvement plans. Niveau de compétence github actions Confirmé powershell Confirmé defender for cloud Confirmé terraform Confirmé azure policy Confirmé microsoft azure Confirmé microsoft sentinel Confirmé cloud security Expert
Mission freelance
Expert Microsoft Azure
Nous recherchons un expert Azure hautement qualifié pour rejoindre notre équipe. L'expert Azure sera responsable de la conception, de la mise en œuvre et de la gestion de nos solutions cloud sur MicrosoftAzure. Le candidat idéal possède une expertise approfondie en matière d'infrastructure cloud, de sécurité, de gestion des données et de services applicatifs sur Azure. Les principales technologies utilisées dans ce contexte sont : SQL Server (IaaS ou PaaS),Synapse, Azure DataFactory, API/API Manager, AZURE DevOps, .NET. La connaissance de produits tels qu'Informatica ou MongoDB serait également appréciée. Principales activités Concevoir et déployer des architectures cloud sécurisées et évolutives sur Microsoft Azure. Gérer et optimiser les services Azure existants pour assurer la performance, la fiabilité et la rentabilité. Développer et mettre en œuvre des procédures de surveillance, de sauvegarde, d'optimisation et de sécurisation des objets Azure, puis assurer la mise en œuvre de ces solutions et contribuer aux opérations de production. Assurer la sécurité et la conformité des environnements cloud Azure. Surveiller et gérer les ressources Azure pour éviter les interruptions et optimiser les performances. Collaborer avec les équipes d'architecture et de développement pour intégrer les meilleures pratiques DevOps et CI/CD. Fournir un support technique et une formation aux équipes internes sur les solutions Azure. Planifier et exécuter les migrations d'infrastructures et d'applications vers Azure. Rester au courant des dernières technologies et tendances Azure et proposer des améliorations continues.
Mission freelance
Architecte SI (h/f)
emagine recherche pour l'un de ses Clients Grand Compte un(e) Architecte SI Rythme: 3 jours sur site + 2 jours de télétravail Durée estimée : plus de 12 mois Lieu : Île de France, 92 Objectifs du poste : En tant qu’Architecte spécialisé dans la Data au sein de la DSI, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation des architectures IT orientées données. Vous travaillerez en étroite collaboration avec les équipes de la direction des systèmes d’information, et les métiers pour garantir l’efficacité et la fiabilité des solutions proposées. Rôle · Conception de l’architecture Data {Élaborer et maintenir les architectures Data, incluant le stockage, le traitement et la gouvernance des données (Data Lakes, entrepôts de données, pipelines de données)} · Analyse des besoins (Recueillir et analyser les besoins des métiers concernant les données) · Accompagnement des projets IT (référent sur les architectures Data,superviser les phases de développement et de mise en production des solutions) · Innovation et veille technologique {Réaliser une veille technologique sur les outils et méthodes liés à la Data (Big Data, IA, Machine Learning)} · Sécurité et conformité { Veiller à la conformité des architectures avec les normes de sécurité et les réglementations en vigueur (RGPD, etc.)} Compétences et Profil : · Formation en informatique, architecture des systèmes d'information, data science, ou équivalent · Expérience : Minimum 5 ans d'expérience en tant qu’Architecte d’entreprise ou Data, avec une expertise dans la conception d’architectures orientées données. · Maîtrise des concepts de modélisation et d’architecture de données (Data Lake, Data Warehouses, ETL, ect.) ; · Connaissance approfondie des outils et des bases de données, des plateformes cloud AZURE et une expérience autours des Middleware ; · Solide compréhension des enjeux de la sécurité des données et des normes de gouvernance. Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse mail -email masqué-
Offre d'emploi
EXPERT AZURE (H/F)
En bref : Expert Azure (h/f) - Photovoltaïque - Montpellier (34) - CDI - Rémunération : 55-65KEUR fixe Adsearch, cabinet de recrutement spécialisé dans l'IT, recrute pour son client final leader dans le solaire photovoltaïque un Expert Azure (h/f). Au sein de la Digital Factory vous intégrez léquipe Run composée de 5 personnes. Votre rôle est de définir et concevoir les solutions à base des technologies Microsoft Azure. Vos missions : Analyser les besoins, rédiger les spécifications fonctionnelles avec les 7 PO pour les métiers Développer les applications Azure, assurer lévolution et la maintenance Automatiser les processus métiers, gérer toute linfrastructure Azure Support DevOps et support de niveau 3 Assurer une veille technologique Technologies utilisées : Microsoft Azure AZ-104 et AZ-305, Terraform, Cisco Meraki Adsearch vous propose des milliers d''opportunités de carrières dans toute la France pour les profils d''experts, cadres et managers. Que ce soit pour un emploi ou pour une mission, Adsearch c''est le cabinet de recrutement qu''il vous faut ! Retrouvez toutes nos offres d'emploi en CDI, CDD, Intérim et Freelance sur notre site internet !
Offre d'emploi
Développeur PL/SQL
Ingénieur Développeur PL/SQL pour le secteur bancaire Mission : Développeur PL/SQL Nous recherchons un(e) ingénieur(e) Développeur PL/SQL avec au moins 5 ans d'expérience pour rejoindre une mission au sein de la BPCE dans Paris 13, afin de participer activement à des projets innovants dans un environnement bancaire exigeant. Description du poste : Vous intégrerez une équipe dynamique où vous serez en charge de développer, optimiser et maintenir des applications en PL/SQL pour répondre aux besoins des métiers bancaires. Vous serez en contact avec des bases de données Oracle et travaillerez sur des projets stratégiques impliquant des processus de contrôle et de gestion des flux de données. Responsabilités principales : \- Concevoir et développer des solutions PL/SQL adaptées aux besoins spécifiques de la BPCE. \- Optimiser les performances des bases de données Oracle, en respectant les standards de sécurité et de qualité. \- Participer aux déploiements et aux opérations de maintenance. \- Assurer la qualité des développements via des tests et validations. \- Utiliser CtrolM pour l'ordonnancement des tâches et l'automatisation des traitements. \- Travailler en équipe selon une méthodologie Agile (Scrum, Kanban).
Offre d'emploi
Data Scientist H/F
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans le cadre de nos priorités DATA, nous cherchons un Data Scientist. Vos missions et responsabilités : La mission s'intègre dans le domaine DATA. Le domaine fournit des solutions numériques efficaces basées sur les données pour construire des offres d'amélioration de l'habitat, permettant de combiner produits et services, pour la meilleure solution centrée sur le client. Vos missions sont : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA ; - Mettre en oeuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business ; - Collaborer avec les autres Data scientist de l'équipe ; - Industrialiser les solutions R&D ;Assurer le RUN des services IA en production. En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable
Offre d'emploi
Expert Big Data (ELK) (H/F)
Contexte de la mission : Nous recherchons un(e) Expert Big Data (ELK) pour une mission au sein d'une grande entité spécialisée dans la gestion d'infrastructures informatiques à l'échelle mondiale. Vous interviendrez dans un environnement dynamique et multi-régions (EMEA, AMER, ASIA) pour améliorer la gestion et l’optimisation des systèmes de monitoring , collecte de logs et alerting . Expertises et technologies requises : Suite Elastic : ELK (Elasticsearch, Logstash, Kibana), xBeat Agents. Systèmes : Shell, Linux. Technologies complémentaires : Kafka, Windows Event Collector (WEC), IA pour le monitoring. Environnement : Vous serez en charge de maintenir et d'améliorer une infrastructure complexe dédiée à la collecte et au traitement des logs. Cela inclut la gestion de grandes volumétries de données provenant de plusieurs sources, et l’optimisation de l’architecture ELK pour répondre à des besoins de performance croissants. Vous utiliserez des outils avancés de monitoring et de machine learning pour affiner l'analyse des logs et anticiper les incidents. Ce poste est destiné à un(e) professionnel(le) ayant une solide expertise en gestion des infrastructures de logs , avec des compétences avancées dans l'utilisation de la suite Elastic et des systèmes Linux , dans un environnement à forte volumétrie et multi-sources.
Offre d'emploi
Finops AWS AZURE
💼 Poste : Finops AWS AZURE 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Après une première phase d’acculturation aux bonnes pratiques Finops des équipes *CR réalisée sur Q1 2024, il s’agit maintenant de réaliser en mode proactif l’analyse Finops du parc applicatif afin d’identifier les gains possibles, en particulier sur le cloud privé. Dans ce cadre la prestation consiste à contribuer à/au(x) : Mettre en pratique la démarche Finops au sein de l’équipe RCR et prouver la valeur apportée Documenter les étapes de cette première analyse afin d’être en mesure de la reproduire sur d’autres périmètres, auprès d’autres clients. Présenter les constats et recommandations issus de cette première analyse à notre client, au niveau managérial et opérationnel. Livrables attendus Les livrables attendus sont : Documentation de la démarche suivie à fin de reproduction sur d'autres périmètres applicatifs Compte-rendu de l'analyse Finops réalisée pour présentation des constats et assistance au client (aux niveaux managérial et opérationnel) 🤝 Expertises spécifiques : Amazon Web Services ( AWS ) Compétences en développement (Shell unix, Perl, PHP, Python, git, github) MS Azure
Mission freelance
Ingénieur de production senior DEVOPS/ CLOUD AWS & AZURE /Anglais opérationnel (H/F)
Nous recherchons pour le compte de notre client dans le luxe, un ingénieur de production CLOUD AZURE/GCP ET DEVOPS ayant de bonnes connaissances sur windows et linux Contexte de la mission : Prestation à réaliser sur le périmètre IT Production Cloud. Expérience sur ce type de prestation: Minimum 10 ans Missions : Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..)
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS, vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : • ???? Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. • ???? Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. • ?? Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. • ???? Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. • ???? Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. • ????? Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) • Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker • Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis • Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : • Formation : Diplôme en informatique, ingénierie ou domaine connexe. • Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. • Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. • Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. • Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Close de non concurrence freelance à portgae salarial
- Arce 7 mois après la création de l'entreprise ?
- Calcul de crédit impôt - cas pratique
- situation compliquée fin de mission pression client comment gèrer ?
- 🎯 Recherche Expert pour Accompagnement sur SCCM et Intune 🚀
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?