Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert Data (H/F) - 94+95+Remote
L'enjeu de ce chantier consiste en un dé-silotage des données d'application pour construire une vision business 360 unifiée (une couche de données qualifiées, consolidées, homogénéisées et complètes pour exploitation) à travers une gestion de la qualité et de la cohérence des données Prestation Les expressions de besoin, fiche usage, fiche solution, et fiche budget, note de cadrage, cadrage des démarches, dossiers projet, comités de suivi, plan d’actions, documentation, CR, … relatif à son activité Les éléments de suivi des avancements, du planning, capacité à faire, plan d'action, budgets, difficultés, risques, … Les coaching, coordination, planification, optimisation, priorisation, animation, gouvernance Les conseils, propositions, pilotage Livrables associés EB d'ingestion (plusieurs sources/applications/tables) SFD (Spécification fonctionnelle détaillée) EB module d'ingestion industriel EB outil de supervision EB contrat de service EB environnement pour exploitation *Support/Présentation pour pilotage
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Offre d'emploi
Data Analyst Senior F/H
Envie de participer à un projet ambitieux ? Envie d’allier la technique au relationnel ? Pilotage, coordination et gestion sont tes maîtres mots ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer notre DSI afin de définir la gouvernance et les politiques d’utilisation de la donnée au sein du Groupe, et de fournir des informations pertinentes et exploitables pour les métiers afin de les aider à prendre des décisions éclairées et d'optimiser leurs processus. Ton quotidien sera rythmé par : L’identification des besoins en données de l'entreprise et leurs objectifs d'analyse La participation aux ateliers d’expression des besoins internes La compréhension des problématiques métiers et leur traduction de manière analytique La définition et la garantie de la gouvernance des données de l’entreprise La rédaction des spécifications d’automatisation des règles de gestion des données La maîtrise de la qualité des données tout au long de leur traitement La mise en place et maintien du catalogue de données La collecte des données à partir des différentes sources Le nettoyage et la préparation des données L’analyse des données La création des tableaux de bord, des graphiques et des visualisations L’élaboration de rapports et des recommandations
Mission freelance
Ingénieur sécurité Azure
En tant qu'ingénieur en sécurité Azure, vous jouerez un rôle essentiel pour garantir la sécurité et la conformité du parc cloud du client. Vous travaillerez en étroite collaboration avec les équipes informatiques, DevOps et SecOps pour concevoir, mettre en œuvre et gérer des solutions de sécurité qui protègent les actifs et les données de l'organisation. Votre expertise en matière de bonnes pratiques de sécurité contribuera à améliorer notre posture de sécurité.
Offre d'emploi
Ingénieur système expérimenté
HN Services recrute un ingénieur système Windows expérimenté. Il s'agira d'intervenir notamment sur: l'analyse des besoins, adaptation et la mise en œuvre des processus conception technique de nouvelles infrastructures traitement d'incident système et support N3 réalisation d'opérations techniques et de migrations développement et évolution de scripts suivi des livrables et des plannings de déploiement rédaction des procédures reporting veille technologique et proposition de solutions pour améliorer les performances des systèmes
Offre d'emploi
Ingénieur SysOps AWS
Contexte de la mission : La prestation d’expertise Cloud Public intègrera la DevTeam AWS de la Squad Cloud Public du client et prendra en charge des features Build dans le backlog qui pourront être soit orientées métier soit orientées infra et participera aussi aux actions liées au Run. Tâches à réaliser : · Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’application métier · Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements AWS · Assurer la généricité de ces pipelines · Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions · Garantir la sécurité ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement · Contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections · Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud · Ouvrir et suivre des incidents chez l’infogérant Cloud Public en cohérence avec les processus ITIL du client
Mission freelance
Assistant Support Technique IT
: Opportunité dans le secteur Assurance à Paris La Défense – 2/3 jours sur site par semaine 🗓 Démarrage : ASAP 💼 TJM : 300€ Nous recherchons un Assistant Technique IT spécialisé dans l'amélioration des processus , dont la mission principale sera de soutenir l'optimisation des processus IT, fournir une assistance technique aux équipes IT, et implémenter des outils technologiques pour le suivi des indicateurs de performance (KPI) et le suivi des activités. Responsabilités principales : 🔧 Amélioration des processus IT : Analyser les processus IT existants (onboarding/offboarding, demandes IT, suivi des actifs, consommation des licences). Collaborer avec les équipes IT pour identifier les inefficacités et proposer des solutions innovantes. Optimiser et automatiser les processus pour améliorer la performance et réduire les risques opérationnels. 🔧 Support technique : Fournir un support technique quotidien aux assistants de département sur les outils et systèmes IT. Assister dans le dépannage des applications, systèmes et infrastructures IT. Rédiger la documentation nécessaire pour former les assistants sur les outils et systèmes IT.
Offre d'emploi
Développeur Python React AWS
L'équipe supervise la maintenance et l'évolution des nombreux systèmes de trading qui permettent de participer à toutes sortes d'activités de marché. Les applications logicielles permettent d'effectuer au jour le jour les opérations nécessaires à la bonne gestion de ses activités. L'objectif du service est d'intégrer une personne supplémentaire à l'équipe chargée de gérer le backlog des applications en rédigeant, en suivant et en testant les User Story et en définissant les priorités. Les applications sont toutes développées en interne et écrites en Python en utilisant Redis, Celery, Flask et FlaskAdmin, SQL-Alchemy, PostgreSQL, Pandas, Timescale DB, React et elles sont hébergées sur AWS.
Mission freelance
PMO / Chargé de pilotage SI
Le group Sapiens est une ESN dont le siège si situe à Paris. Nous disposons de plusieurs agences en France. Nous accompagnons nos collaborateurs sur les domaines de la Data, du conseil, du digital, de l’infrastructure et bien plus ! Vous qui es à la recherche de nouvelles opportunités professionnelles, nous vous présentons une opportunité à ne pas manquer en tant que PMO. Les principales missions sont les suivantes : Supervision de la gestion opérationnelle et du reporting des activités d'un domaine. Gestion des plannings prévisionnels pour l'affectation des ressources, avec suivi des réalisations et du budget du projet. Alerte des chefs de projet en cas d'écarts par rapport aux prévisions. Suivi global du portefeuille de projets. Contribution à la création du portefeuille de projets, en intégrant les contraintes et interdépendances des ressources (coût, délais, compétences) nécessaires pour atteindre les objectifs de qualité. Suivi de l'avancement des projets et programmes en fonction des exigences définies (qualité, coût, délai) et des engagements pris. Vérification de l'application des méthodologies et des meilleures pratiques. Analyse et identification des risques potentiels. Évaluation de la capacité actuelle et future des ressources et des tâches, en vue d'optimiser si nécessaire. Proposition d'ajustements et de replanifications selon les besoins. Mise à jour et suivi du budget. Suivi des ressources utilisées par rapport aux prévisions (consommé, restant, planning). Mise en place d'un reporting adapté au pilotage des directions concernées et pour la création de tableaux de bord. Coordination du processus de création des schémas directeurs et application à travers des feuilles de route. Les livrables sont Suivi budget et conformité PFC Suivi des demandes de remédiations sécurités de la direction PFC Suivi de l’avancement des recommandations d’audit de la direction PFC
Offre d'emploi
Chef de projet data reporting H/F
Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Data, notre Tribu spécialisée dans le domaine du Digital. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Digital. Notre client recherche un(e) chef (e) de projet data reporting Vos principales missions et responsabilités : 1 : Conception, Développement et Implémentation de solutions reporting • Recenser et prioriser les besoins Métiers • Piloter les sujets en mode Agile ou cycle en V (depuis les phases de cadrage jusqu’au déploiement de la solution) • Recueillir les besoins Métiers en détail • Rédiger les spécifications techniques et fonctionnelles • Collaborer avec les référents applicatifs pour établir les mapping liés aux besoins métier • Proposer les formats de restitution des données les plus adaptés aux besoins des métiers au travers de maquettes de reportings (Power BI ou autres) • Préparer les données (contrôle de qualité, de cohérence, transformation…) • Fiabilisation des requêtes de données en basculant sur des technologies open-source (python et SQL) • Développer les reports Procurement BI • Piloter et animer les recettes utilisateurs (valider les chiffres, l’ergonomie…) • Mettre en place les flux pour l’alimentation quotidienne automatique du BI • Mettre en production les reports validés dans le respect du planning établi 2 : Conduite de changement et support utilisateurs • Définir et mettre en place les modalités et outils de communication et accompagnement à destination des utilisateurs • S’assurer de la bonne compréhension de la solution par les utilisateurs, soit en mettant en place des tool tips directement dans le BI soit en livrant une documentation utilisateurs. 3 : Maintenance applicative • Corriger les anomalies, erreurs remontées • Maintenir les rapports et tableaux de bord • S’assurer de l’alimentation quotidienne automatique du BI • Être garant(e) de l'accès aux solutions 4 : Amélioration continue • Optimiser les traitements pour améliorer les temps de réponse • Participer aux démarches d’amélioration continue avec l’équipe (nouvelle fonctionnalités…) • Participer à l'évolution et à l'optimisation de l'architecture de la plateforme 5 :Cleaning des données • Analyser la qualité de la donnée • Réaliser les actions de remédiation et de suivi de la qualité des données en cohérence avec les objectifs du métier 6 : Conformité/Réglementation • Assurer la conformité des processus de collecte, de stockage et d'analyse des données avec les principes du RGPD • Participer à la mise en place de mesures de sécurité et de gouvernance des données pour garantir la protection des données. •Être garant de l'application des principes de protection des données
Mission freelance
Data Analyst
Nous recherchons un Data Engineer dont la mission sera d'assurer la publication et l'exploitation efficace des données au sein de l'entreprise. Vous serez également responsable de la conception d'algorithmes intelligents à partir de ces données et du suivi des bonnes pratiques data. Tâches et responsabilités : Publication et gestion des données : Garantir la disponibilité et la qualité des données publiées pour l’entreprise (maintenance des données existantes, intégration des nouvelles données). Accompagner les autres produits internes qui consomment ces données, en assurant la bonne intégration et l'utilisation efficace des sources de données. Marketing interne des usages des données : promouvoir et sensibiliser les équipes aux différents usages possibles des données au sein de l’entreprise. Conception d'algorithmes intelligents : Concevoir, développer et implémenter des algorithmes intelligents basés sur l'exploitation des données disponibles. Proposer des solutions innovantes pour valoriser les données et répondre aux besoins métiers de l’entreprise. Amélioration continue des processus data : Challenger les pratiques et les outils existants en matière de gestion et exploitation de données. Apporter des améliorations pour optimiser l'efficience des processus data de l’entreprise, que ce soit en termes de qualité, rapidité ou efficacité. Collaboration et mobilisation des compétences internes : Collaborer étroitement avec les équipes data de l’entreprise pour assurer une synergie entre les différentes compétences (data scientists, data analysts, ingénieurs data). S'entourer des expertises internes pour mener à bien les projets de publication et d'optimisation de données.
Offre d'emploi
Product Owner DATA
Expériences requises dans des projets DATA Rattaché(e) à la Direction des projets métiers, sous la responsabilité du manager du Pôle Data auquel il appartient, le Product Owner est responsable de porter la vision du produit Data Platform par la déclinaison opérationnelle . Il est piloté par la stratégie du Produit définie par le Product Manager. Missions : Owner du product backlog : Alimentation de product backlog de façon itérative et continue Partage des US en fonction de la DOR établie par la DEV team Déclinaison des objectifs des sprints tout au long du PI, Validation avec l’équipe du périmètre des sprints et réajuste si besoin Affinage également le backlog avec l’équipe au fil des sprints Responsable de l’incrément produit : Porte la vision du produit par une déclinaison opérationnelle pour maximiser la valeur métier Anticipation des besoins clients et construit un plan de delivery sur plusieurs sprints Supervision du développement technique, challenge les peer review et technical maturation Maitrise de toute la stack du Produit Data (pipeline, modeling, sécurité, etc) pour être en capacité de vendre et d’accompagner l’usage du produit aux clients Responsable unique de la livraison en production Au service de l'organisation : Alimenter une équipe de Dev constituée de 8 collaborateurs Challenger l'équipe en toute bienveillance Evangéliser les bests practices de la DATA
Offre d'emploi
Data Analyst
Nous recherchons pour l'un de nos clients un(e) Data Analyst spécialisé en Power BI. Vos principales missions seront les suivantes : Collecter des données Analyser les données remontées par les utilisateurs Transformer les données en éléments exploitables Réaliser des études complètes de ces données Interpréter les résultats Rassembler les données chiffrées dans un seul outil et définir les règles de gestion de nettoyage pour supprimer les doublons. Mettre au point des algorithmes pour les explorer et en tirer des graphiques faciles à comprendre et à exploiter. Présenter ses résultats à la direction commerciale ou générale et proposer des possibilités d'en tirer parti. Participer aux ateliers d'expression des besoins internes et des clients. Organiser une veille sur les évolutions technologiques.
Offre d'emploi
Architectes / experts stockage sur les périmètres SAN, NAS et Objet S3 H/F
Participation active dans le cadre de projets d’infrastructure en tant qu’architecte/expert et/ou référent technique du socle Stockage : • Phase d’étude : v Définition de l’architecture, des spécifications techniques détaillées v Elaboration des normes et standards, de la roadmap et de la stratégie de Stockage v Elaboration de la stratégie, des scénarii et MODOP de migration • Phase de construction : v Participation à l’installation, à la configuration, à l’intégration dans l’écosystème (surveillance, authentification, sauvegarde, cloud, etc.), aux divers tests et recettes v Production de livrables documentaires techniques (Chronogramme, DAT, DEXP/PTE, PTI, etc.) et utilisateurs (MODOP, présentation des services, ODS, etc.) v Mise en œuvre d’indicateurs de performance et élaboration de scripts de supervision v Elaboration et mise à jour des processus et procédures d’exploitation (RACI, diagramme, MODOP, etc.) v Participation à l’élaboration, au suivi et à l’évolution du catalogue de services et des processus associés • Phase de passage en production : v Réalisation des phases de test, recette, validation technique et fonctionnelle v Monitorat des équipes opérationnelles v Passage en comité d’exploitation • Phase de migration : v Réalisation technique des gestes de migration § Gestion des évolutions, des opérations de mises à jour ou de migrations § Gestion des incidents, demandes, gestion des changements (CAB), gestion des mises en production, gestion de configuration et gestion des indicateurs, gestion des escalades § Participation, organisation et animation des ateliers internes ou avec des partenaires (constructeurs/éditeurs, fournisseurs etc.) § Participation aux phases de validation technique lors des ateliers de définition et d’architecture ou de mise en production § Elaboration et maintien de la documentation des infrastructures de stockage sur toutes leurs composantes Participation active aux comités de suivi opérationnel et technique avec les partenaires / fournisseurs et les parties prenantes § Assurer un support technique et fonctionnel de niveau 3 auprès des différentes parties prenantes Mise en œuvre des solutions méthodologiques et techniques permettant d’optimiser la production informatique (gestion capacitaire, gestion d’obsolescence), le reporting et de s’engager sur une qualité et une continuité de service § Identifier, préconiser et documenter les MAJ et les modifications de configuration nécessaires (matérielles, logicielles sur les socles serveur, virtualisation, OS, réseau, stockage et stockage) afin d’assurer la conformité des chaines de liaison et le respect des meilleures pratiques constructeurs/éditeurs § Développement de scripts/playbooks (Ansible, KSH, Python, etc.) afin d’automatiser les gestes récurrents
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Mission freelance
Data analyst (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyst (H/F) à Lille, Hauts-de-France, France. Contexte : Le data analyst est responsable du pilotage de la reprises des données de l’ensemble des systèmes de référencement, de l’industrialisation des process, de l’optimisation des outils d’analyse et du process de migration pendant les phases projet jusqu’au démarrage (bascule en production). A ce titre, il pilote opérationnellement l’ensemble des acteurs contributeurs (équipe solution, équipe legacy, métier, éditeur de l’outil d’aide à la reprise) depuis la mise au point des outils et processus jusqu’à l’exécution des migrations. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion des données de référentiel tiers. Les missions attendues par le Data analyst (H/F) : Compétences : - Structurer et organiser un chantier « données » (extractions, suppression des doublons, remise en qualité, enrichissement, chargement, traitement des rejets, contrôles) - Assurer la coordination des parties prenantes clés, incluant les outils de gestion de données tierces, les différentes Business Units et tout autre acteur impliqué. L’objectif est de piloter efficacement les équipes, déployer progressivement la solution, tout en garantissant la conformité et la qualité des données. Cela inclut l’optimisation des flux de données, la mise en place de contrôles qualité et l’intégration “sans couture” des données existantes dans le système cible. - Organiser et animer les instances utiles - Remonter les charges et les risques - Mettre en place les indicateurs de pilotage - Compétences techniques des outillages BI (SQL, scripting, looker, powerBI, connaissances en pipelines, …) Profil : - Capacité d’organisation et autonomie - Force de proposition - Rigoureux, dynamique mais aussi pragmatique et diplomate - Expérience réussie dans la conduite de projets jusqu’au golive - Capacité d’animation et de communication - Sens client, sens du service et réactivité - Savoir challenger la qualité de la data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.