Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Ops
TEKsystems recherche pour l'un de ses clients grands comptes un Data Ops en full remote. Démarrage ASAP + Anglais requis sur cette mission - Ci dessous vous pouvez retrouver le contexte du projet ainsi les différentes missions: Contexte de la mission Au sein ***** , la Unit Data office cherche un data ingénieur Ops expérimenté d'au moins 10 ans. La/Le devOps fera partie intégrante de l’équipe. Elle/Il travaillera en étroite collaboration avec le Team Lead afin de l’aider à sur les différents projets de l'équipe.
Mission freelance
Data Ingénieur/Data Ops (H/F) remote
Vous serez en charge de : Concevoir, implémentez et fournir des solutions pour les problématiques data. L’intégration et la collecte des données issues des applications tierces (CRM, réseaux sociaux, etc.) ; a conception, le développement et déploiement de nouveaux flux Spark pour les différents besoin métiers (finance, support, industrie…) La caractérisation des architectures des produits technologiques ; Choix d’architecture en anticipant les besoins de scalabilité La planification et l’orchestration des flux afin d’optimiser la mise à disposition de données. Détecter les points bloquants ou les chaînons manquants dans le cycle de traitement des données, et à proposer des solutions à soumettre à leurs collaborateurs. D’assurer la continuité de service et le monitoring des flux développés. Documentation : capitalisation des savoirs, retours d'expérience et fiches de best practices pour aider à la montée en compétencesdes équipes métier. De la veille technologique : proposer de nouvelles solutions techniques pour challenger le fonctionnement actuel et optimiser les temps de traitements tout en réduisant les coûts. Évangéliser les meilleures pratiques dans le traitement de la data. Vous travaillerez en relation avec les équipes responsables des infrastructures et des bases de données ainsi qu’avec les équipes de data analystes et de data scientistes, avec l'appui du chef de projet et en relation directe avec les équipes métiers. Environnement technique : • Spark , PySpark , Scala • HDFS, YARN, Hive, SQL Server, Airflow, Postgresql, kafka • Python, Java, Shell • API, Web services • Git Stash, Ansible, YAML • Puppet • Ansible • CI/CD • Docker / Kubernetes • Agilité / Scrum • la gestion de l’environnement, des tests unitaires, de l’automatisation et des versions ;
Offre d'emploi
Data Engineer (H/F)
Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et au sein d'une équipe agile, vous devrez répondre aux différents besoins de l'entreprise : - Définir les architectures des solutions avec le reste de l'équipe, - Fabriquer et tester les solutions, - Déployer dans les différents environnements, - Garantir le bon fonctionnement en production, - Entrainer et tester des modèles de Machine Learning. La stack Technique : - Spark, Kafka, Java - Python, PY Spark - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
Data Engineer (H/F)
Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - MS-BI (impératif) - Power BI, SSIS (apprécié) - Azure Data Factory (très apprécié)
Offre d'emploi
Lead Data Engineer (H/F)
Vos missions ? En tant que Lead Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : MongoDB, PostgreSQL Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) Scala, R, Docker, Jenkins Gitlab/Github Grafana
Mission freelance
Tech lead data - GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Offre d'emploi
Chef de projet Data (H/F)
Au sein de l'équipe déjà existante, vous avez en charge les missions suivantes : - La gestion et le pilotage de projet - Gestion des équipes et des plannings - Reporting des activités et des tableaux de bord - Rédaction de procédures et modes opératoires - Formaliser les besoins implicites et explicites des clients - Participer au choix des différentes solutions Alors ? Prêt à devenir Amiltonien ? 🎉 N'hésitez pas à postuler si vous vous reconnaissez ! De formation supérieure BAC+5 (Master ou école d'ingénieur) spécialisé dans l'informatique, vous justifiez d'au moins 3 ans d'expérience dans un poste similaire. Vous maitrisez la gestion de projet car vous avez expérimenté la gestion de projet de bout en bout. Vous avez des connaissances techniques, notamment en BDD Oracle (SQL). Vous disposez d'une aisance relationnelle et d'une excellente communication orale et écrite. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Offre d'emploi
Data scientist (H/F)
Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.
Mission freelance
Data Scientist
👉 Contexte : Je recherche un Data scientist senior pour intervenir chez notre partenaire sur deux projets. Les deux nécessiteront des connaissances en Python , SQL et Azure . Le premier projet nécessite quelqu'un qui soit très compétent en traitement du signal . Nous cherchons à optimiser les paramètres des machines d'usine pour réduire les déchets et garantir la meilleure qualité. La partie la plus difficile de cette tâche sera de trouver la meilleure approche pour extraire le signal du bruit. Nous recherchons un data scientist qui possède de vastes connaissances en découverte causale et en inférence causale . Il serait aussi intéressant d'avoir une expérience dans la création d' algorithmes d'apprentissage par renforcement . Le deuxième domaine relève de la R&D. C'est un projet from scratch qui a pour objectif de relier les données (et de trouver des moyens de les acquérir, lorsqu'elles manquent) à partir de diverses sources.
Mission freelance
Data Cloud Architect
En tant que membre de l'équipe Data Capture, ce poste requiert une solide expertise technique et architecturale, ainsi qu'une expérience pratique significative dans les technologies Cloud, le développement de microservices et l'architecture pilotée par les événements (Event Driven Architecture). Il implique également une collaboration étroite avec les équipes informatiques du Groupe s, les partenaires métiers, les partenaires externes et tous les membres de l'équipe d'intégration. Objectifs et livrables : Concevoir et proposer des solutions autour des données en utilisant les technologies Azure Cloud dans notre cadre de travail Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie "Data as a Service" conformément aux meilleures pratiques architecturales Concevoir et développer des API/microservices pour enrichir notre cadre de solutions Soutenir la stratégie d'architecture pilotée par les événements basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l'enrichissement en libre-service Participer à la modernisation et à la sensibilisation technologique au sein de l'équipe Data Capture et dans l'organisation Data & Analytics Être le référent au sein de l'équipe sur tous les sujets liés au cloud Animer des ateliers et faciliter la collecte des exigences Accompagner les Data Engineers sur les sujets liés au cloud Soutenir l'équipe Sécurité sur les sujets associés Contribuer à la feuille de route et à l'évolution de Data Capture Challenger et accompagner les fournisseurs externes
Mission freelance
Architecte DataOps/Systems/GPU (H/F)
Pour un client du secteur bancaire, nous recherchons un Architecte DataOps/Systems/GPU expérimenté pour rejoindre l'équipe DataOps/DataLab au sein de la division AI & Innovation. Vous serez chargé de concevoir, implémenter, et superviser les plateformes de Data Science et AI, tout en renforçant les pratiques DevSecOps et GitOps. En tant qu’ Architecte DataOps/Systems/GPU , vos principales responsabilités incluent : Renfort des Équipes Systèmes et GPU Grid : Participer à la conception, à l'implémentation et au support des produits de Data Science/AI (exploration, MLOps, inférence, GPU Grid). Amélioration Continue : Contribuer à l'amélioration continue des produits et services de l'équipe, en intégrant les meilleures pratiques et innovations du marché. Gestion du Cycle de Vie des Produits : Automatiser et industrialiser les solutions de Data Science en suivant des approches "Cloud Native" basées sur Kubernetes. Supervision des Plateformes : Assurer la maintenance, la supervision et la fiabilisation des 15+ plateformes de Data Science (production et hors production). Garantir la robustesse et la performance des infrastructures en environnement Cloud et on-premise.
Mission freelance
Pilote d'exploitation - 3 ans d'xp minimum
Pour un de nos client situé à Nancy, nous recherchons un Pilote d'exploitation - 3 an d'expérience minimum Contrainte forte du projet : Activité de production Les livrables sont : Opérer en production dans le souci de maintenir et améliorer la QoS Participer au roulement du planning (06-00 - 13:30 et 11:30 - 19:00) Fort de proposition pour améliorer la qualité du travail rendu. Compétences techniques : Ordonnanceur Automator et Véga - Confirmé - Important Supervision Centreon et Zabbix - Confirmé - Important Outils : PowerBi, Grafana, dynatrace - Confirmé - Important Connaissance réseaux - Confirmé - Souhaitable Connaissances linguistiques : Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Finalité : - Assurer en permanence la surveillance du fonctionnement de l’ensemble des ressources informatiques du domaine de la production et leur gestion opérationnelle, en garantissant le niveau et les engagements de service ainsi que la qualité des traitements. En complément, ce poste est soumis à du roulement de cycle (06:00 - 13:30 et 11:30 - 19:00). Activités principales - Gestion des évènements : prise en compte des alertes remontées par la console de supervision relatives à la santé de l’infrastructure, des applications et des traitements ordonnancés conformément aux engagements de service. - Gestion des incidents : enregistrement, catégorisation, priorisation et clôture des incidents. Résolution et/ou escalade des tickets avec application des procédures de remédiation. Analyse des incidents récurrents (Point incident journalier). Création et validation des consignes et des fiches de procédure mises en œuvre au sein du cockpit de pilotage. - Gestion des demandes : traitement des demandes relatives à l’ordonnancement, au service du run des infrastructures et des applications. - Gestion des opérations : réalisation de contrôles manuels horodatés et mises en production selon le calendrier de déploiement. - Gestion de la communication : réalisation des comptes-rendus de vacation ainsi que les passages de relais avec le fournisseur. - Gestion de la documentation : maintenir et enrichir le corpus documentaire d’exploitation. - Amélioration continue des services : alimentation du registre des opportunités d’amélioration.
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Data Manager
Nous recherchons pour un de nos clients au Luxembourg un Data Manager. Profil recherché : Besoin de renforcer l’équipe Data Management sur les sujets suivants : Participer au déploiement de l’outil de catalogue de données (DataGalaxy) Alimenter et maintenir le catalogue de données Identifier les data stewards et data owners des uses-cases documentés Accompagner et fournir un support aux data stewards dans la documentation Gestion du changement Promouvoir le catalogue de données en interne Contribuer à la définition de la gouvernance des données non structurées Travailler en étroite collaboration avec les équipes CISO, DPO et informatique Définir les règles de gouvernance de données et priorités associées Analyser l’impact fonctionnelle et techniques des règles de gouvernance Mettre en place un suivi et audit des règles de gouvernance Identifier les nouveaux processus liés à ces règles de gouvernance Définir les rôles et responsabilités autour de ces règles et outils utilisés Formation / Evangélisation / Communication auprès des équipes métiers Gestion du changement
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Pret bancaire en portage salarial
- ESN en retard de paiement depuis 9 mois - Conseils pour relance
- 3 mois intercontrats, 6 entretiens client final 6 echecs
- Facturation client hors zone euro
- Numéro de TVA en EI micro
- Quel dispositif de mutuelle recommandez-vous pour un président non salarié de SASU à l’IS