Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Directeur Data
Cherry Pick est à la recherche d'un "Directeur Data" pour un client dans le secteur de la grande distribution Contexte de la mission Véritable ambassadeur sur les sujets data et IA, nous cherchons un profil qui saura apporter sa vision stratégique, fédérer les équipes autour de la transformation numérique et garantir l’évolution des plateformes data et IA en adéquation avec les ambitions de l’entreprise. Rattaché au CTO vous aurez en charge de : - Définir la stratégie et l'évolution des plateformes data et IA en lien avec la stratégie de l’entreprise, - Diffuser la culture data et IA (dont IA gen) au sein du groupe. - Garantir la disponibilité des plateformes Data et IA pour toutes les entités du groupe (Cdiscount,Octopia,Clogistic), - Conduire et assurer la transformation des équipes en mode produit, - Être l’ambassadeur de Peaksys lors d’évènements internes et externes sur des thématiques data et IA, - Organiser des évènements internes pour la promotion de la data et de l’IA - Manager une direction de 45 collaborateurs (dont prestataires locaux et offshore) répartis en 5 équipes avec des profils pluridisciplinaires (Mlops, Data ingénieur, Data architecte, Data manager, Ml ingénieur), - Assurer le recrutement des collaborateurs et leur évolution au sein de Peaksys. - Gestion des budgets, - Gestion de crises, - Participer aux comités internes et y représenter la data (Comité DSI, comité IA Gen, Copil B2B...), - Gérer les relations avec les principaux éditeurs et négocier les contrats de renouvellement (Snowflake et Microsoft), - Travailler en étroite collaboration avec les directions produits B2C, B2B, Advertising et Datascience afin d’anticiper les besoins et de construire les roadmaps des plateformes data et IA. Objectifs et livrables Pré-requis : Expérience d’au moins 7 ans sur un poste similaire Modalités de télétravail : 2 jours par semaine, 3 jours sur site le lundi, mardi et jeudi.
Mission freelance
Consultant MCO - Lille
PROPULSE IT recherche un consulatnt MCO pour une mission à Lille (59) Diagnostiquer et résoudre les incidents majeurs ou critiques impactant l'exploitation des réseaux et systèmes et assurer le retour du service aux utilisateurs (GTI 24h) - Réaliser les opérations de Maintien en Condition Opérationnelle Systèmes et Logiciels - Effectuer les opérations de maintenances préventive et corrective sur site client - Maintenir à jour les inventaires des stocks et lots de maintenance - Préparer et réaliser les opérations d'évolution des centres de gestion et systèmes - Etablir les procédures et fiches de maintenance, des fiches Reflex et des Retex - Traiter les problèmes non résolus par les opérationnels client - Analyser, gérer et traiter les Faits Techniques notifiés par nos clients, - Réaliser des CR et des reportings vers les équipes de développement et les clients, - Préparer et réaliser les opérations liées à la non-régression système lors des corrections logicielles sur plateforme, - Assurer une veille d'obsolescence et les mise à jour sur l'ensemble des logiciels déployés (Applicatifs, COTS, OS), - Assurer le maintien en condition de sécurité des systèmes Lorsque les sous-traitant n'est pas pour des actions et opérations sur site, il contribue aux phases d'IVQ du programme à Lambersart et à ce titre il devra : - Pratiquer les outils d'ingénierie (gestion des exigences, gestion des tests et des faits techniques, gestion de configuration, gestion documentaire, gestion et partage des actions). - Rédiger et dérouler les fiches d'essais et ainsi garantir la conformité aux exigences techniques et non techniques du système. - Détecter, analyser et formaliser sous forme de faits techniques les anomalies rencontrées ; - Proposer des solutions et appliquer des correctifs.
Offre d'emploi
Data Quality Analyst
Au sein de la DSI de notre client (secteur du retail), la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner les équipes opérationnelles au quotidien en leur mettant à disposition outils, insights et KPI Elle intervient sur tous les domaines opérationnels de notre client, notamment les produits, le CRM, les ventes, le merchandinsing, le demand planning, la logistique, les opérations et la finance dans une logique de collaboration, de résolution des problèmes et d’amélioration de la performance. Description de la mission En tant que Data Quality, vos responsabilités seront les suivantes : • Assister les Product Owners dans la mise en place du dispositif de qualité des données défini par les Data Owners (définition des exigences qualité, des contrôles, des KPIs et seuils d’alerte) • Animer le processus de gestion des incidents de qualité de données en faisant le lien entre les utilisateurs opérationnels et les équipes Data & IT • Aider les équipes opérationnelles à qualifier les incidents (impacts sur les usages, chiffrage, sévérité) • Analyser les root causes des incidents grâce à l’exploration des données des différentes bases • Proposer et instruire des plans de remédiations (identifier les solutions de contournement si besoin) • Prioriser les sujets en fonction de leur importance / urgence et de la difficulté à les développer • Collaborer avec les équipes de développement (Data Enginer, Dataviz Enginer) pour les analyses et la mise en place de solutions de correction • Collaborer avec les Data Owners afin de s’assurer de la cohérence et pertinence des solutions proposées • Proposer des outils / process / KPI afin de contribuer à l’amélioration continue de la qualité des données • Assister le Product Owner Master Data dans la conception de tableau de bord de pilotage de la qualité des données Environnement Technique : • ETL : Matillion (Cloud) • Dataviz : QlikSense • Cloud Data Platform : Snowflake sur Microsoft Azure • Langages : SQL , Python • Méthodologie Kanban orientée produit ou agile
Offre d'emploi
Data Analyst – Consultant Dataiku H/F
Le Data Analyst aura une expérience significative sur Dataiku pour intégrer une équipe dédiée au développement et à l'optimisation d'applications sur mesure dans un environnement bancaire. Missions principales : • Développement d'applications : Concevoir, développer et optimiser des applications pour le suivi des portefeuilles, les analyses de données et les outils d'aide à la décision. • Automatisation des workflows : Mettre en place des processus automatisés pour améliorer la gestion des données et leur traitement. • Support réglementaire : Contribuer à la conformité des outils et processus avec les exigences réglementaires, notamment MIFID2. • Collaboration interéquipes : Travailler en étroite collaboration avec les équipes IT et métiers pour concevoir, développer et tester des solutions robustes et efficaces. • Amélioration continue : Suivre la performance des outils déployés et proposer des évolutions adaptées aux besoins des utilisateurs.
Mission freelance
BI Senior / Snowflake
Consultant / & Nous recherchons un(e) Consultant BI Senior pour une mission stratégique au sein d’une équipe dynamique dans un environnement technique exigeant. ✅ Statut : ✅ Démarrage : ASAP ✅ Localisation : Paris Expertise en Talend (ou Matillion) et Snowflake. Maîtrise des bases de données (SQL, PostgreSQL). Solide capacité à comprendre et transposer les besoins métiers en solutions BI. - Développement et optimisation des pipelines de données avec Talend ou dans un environnement Snowflake. - Intégration et transformation des données pour répondre aux besoins stratégiques. - Collaboration avec les équipes métiers pour interpréter les besoins fonctionnels et techniques. - Documentation et support post-production pour assurer la pérennité des solutions.
Mission freelance
Tech Lead AWS/Airflow et Snowflake
Fiche de Poste – Tech Lead / Développeur Contexte de la mission : Notre client recherche des profils expérimentés pour intervenir sur un projet stratégique. L’équipe sera responsable de la conception et du développement des plateformes permettant le calcul des indicateurs de performance. Ces plateformes utilisent des technologies avancées telles qu’AWS, Airflow et Snowflake. Missions principales : Tech Lead : Superviser et accompagner les équipes de développement dans la mise en œuvre des solutions techniques. Garantir la qualité des livrables et la bonne gestion des projets techniques. Développeur : Participer au développement des plateformes, en particulier dans la conception des solutions techniques pour le calcul des indicateurs et des rapports. Assurer la mise en place et l'optimisation des processus de calcul des indicateurs sur des environnements de données complexes. Développer des solutions évolutives et robustes sur les plateformes cloud, principalement AWS, et participer à l'intégration des différents outils et systèmes. Technologies et outils utilisés : AWS : Mise en place et gestion des ressources cloud (EC2, S3, Lambda, etc.) Airflow : Orchestration des workflows de données. Snowflake : Data warehouse pour la gestion des données et l’analyse. Profils recherchés : Tech Lead : Expérience significative en gestion d’équipes techniques et en développement sur des plateformes cloud. Compétences en gestion de projets et maîtrise des outils mentionnés ci-dessus. Développeur : Forte expérience en développement, notamment sur des environnements cloud. Bonne maîtrise de Python, SQL, ainsi que des outils comme Snowflake et Airflow. Compétences clés : Expertise en AWS, Airflow, et Snowflake. Conception et développement de solutions techniques. Maîtrise des processus de gestion de données et des calculs d’indicateurs. Capacité à travailler en équipe et à coordonner des projets techniques. Esprit d’analyse et compétences en résolution de problèmes complexes.
Offre d'emploi
DevOps Bases de Données PostgreSQL ▸ Pneumatique (3 semaines de TT/mois)
Conception et mise en oeuvre des bases de données PostgreSQL Élaborer et mettre en place des environnements PostgreSQL dans différents contextes on-premise, cloud, IaaS, PaaS. Contribuer à la définition des standards d’architecture pour assurer la scalabilité, la résilience et la sécurité des bases. Participer à la migration de bases existantes vers PostgreSQL. Automatisation des processus Développer et maintenir des procédures automatisées de création, de déploiement et de gestion des bases de données à l’aide de Terraform et Ansible . Automatiser les tests de performance, les backups/restaurations, et les mises à jour. Intégrer les environnements PostgreSQL dans des pipelines CI/CD. Gestion des environnements multi-SGBD Assurer une supervision efficace des bases de données PostgreSQL ainsi que des bases secondaires telles que MongoDB , OracleDB , SQL Server et MySQL . Maintenir l’interopérabilité entre PostgreSQL et d’autres bases ou outils de données. Gestion des outils connexes Mettre en œuvre et administrer des solutions liées aux données comme DELPHIX (virtualisation des données) et Snowflake (entrepôt de données). Gérer les aspects réseaux, hyperviseurs, systèmes de stockage et OS en lien avec les bases de données. Optimiser les stratégies de sauvegarde et de restauration. Support et amélioration continue Diagnostiquer et résoudre les incidents liés aux bases de données ou à leur environnement. Apporter une expertise technique et des recommandations pour améliorer la performance, la sécurité et la fiabilité. Assurer une veille technologique pour identifier et intégrer les innovations pertinentes.
Mission freelance
Data Assets Owner IOT and Analytics Anglais courant
Contexte : Dans le cadre de projets stratégiques, l'objectif est de structurer et valoriser les données IoT pour la construction de tableaux de bord performants et l’optimisation des processus métier. La mission inclut l’intégration et l’exploitation de données en temps réel grâce à des technologies comme AWS, Snowflake, SQL, et Qlik, avec une attention particulière sur l’IOT et la visualisation analytique. Missions : Analyse et recueil des besoins métiers : Collaborer avec les équipes métiers pour identifier les cas d’usage liés aux données IoT (exemple : suivi en temps réel de la performance des équipements). Prioriser les besoins en données et définir les règles de gestion associées. Traitement et modélisation des données IoT : Spécifier et documenter les flux de données (par ex., transformation JSON). Élaborer des pipelines pour récupérer et traiter les données IoT en temps réel (AWS, Lambda). Construire des modèles de données pour répondre aux problématiques métiers. Création et gestion des dashboards : Proposer des maquettes sous Excel ou Qlik pour valider les besoins. Implémenter des tableaux de bord analytiques intégrant des règles de gestion claires. Expliquer les formules mathématiques utilisées pour une compréhension partagée avec les utilisateurs. Qualité et gouvernance des données : Garantir la qualité des données en auditant leur fiabilité et leur pertinence. Mettre à jour le dictionnaire des données pour faciliter leur exploitation. Support et formation : Former les utilisateurs sur les outils (Qlik, Excel, DAX) et accompagner l’intégration des solutions proposées. Appliquer des filtres avancés pour résoudre des problématiques liées à Snowflake. Compétences requises : Solide maîtrise des environnements AWS (Lambda, Snowflake) et SQL. Expertise en gestion et transformation des données IoT (analyse JSON). Bonne connaissance des outils BI comme Qlik et DAX. Expérience en modélisation de données (physique et logique). Capacité à expliquer des concepts techniques de manière pédagogique. Profil recherché : Bac+5 en informatique ou domaine similaire. Minimum 5 ans d’expérience en data analytics ou gestion de données IoT. Anglais courant. Autonomie, esprit analytique et aptitude à collaborer efficacement. Environnement de travail : Technologies : AWS, Snowflake, Qlik, SQL. Travail au sein d’une équipe pluridisciplinaire avec des projets impactants sur l’optimisation des processus métier. Opportunité de contribuer à des initiatives innovantes dans le domaine de l’IoT et de l’analytics
Mission freelance
CONSULTANT TECHNICO-FONCTIONNEL SAP FI-CO - SUPPORT APPLICATIF
Contexte Afin de renforcer l'équipe SAP FI CO, notamment sur le périmètre Support applicatif, nous cherchons un consultant connaissant SAP FI CO. Son intervention se fera sur nos 2 systèmes SAP fortement interfacés, au sein d'une équipe FICO de 5 personnes et en interaction avec d'autres personnes du domaine (MM SD ou Traducteur comptable) ou externes au domaine (MOE, MOA, métier). Description Sur les sujets qui lui seront confiés, le consultant assumera les missions suivantes : Mission principale : - Assurer la maintenance des systèmes au quotidien - Assister et former les utilisateurs (incidents, maintenance corrective-évolutive) Missions secondaires : - Assister la Maîtrise d'Ouvrage - Prise en charge et suivi des évolutions (recueil des besoins, chiffrage, planning et mise en œuvre) - Rédiger les spécifications fonctionnelles générales et détaillées - Réaliser le paramétrage SAP FI et CO - Effectuer les tests unitaires et les recettes - Assurer la coordination avec les autres équipes Livrables Rédiger et maintenir à jour la documentation technique et fonctionnelle
Mission freelance
Expert Snowflake
Nous recherchons un profil Data Engineer expert IICS avec une connaissance de Snowflake, pour une mission freelance (longue visibilité) Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation mission possible en full TT Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise informatica cloud Compétence Snowflake : Connaissance conaissance : Python Anglais courant obligatoire
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
INGENIEUR INFRASTRUCTURE PROXY SKYHIGH F/H | TOULOUSE (31)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur un projet de fusion d'infrastructure de proxy SKYHIGH. Des activités supplémentaires seront également envisagées sur des technologies comme F5, Fortinet, Ubika, Cisco ISE, Cisco Anyconnect, et Trellix. A ce titre, vous serez en charge de : Assurer la gestion des infrastructures de sécurité (pas de gestion des règles de sécurité). Effectuer l'intégration des infrastructures dans le réseau Réaliser l'administration avancée et le support technique. Environnement Technique : Skyhigh, F5, Fortinet, Ubika, Cisco ISE, Cisco Anyconnect, Trellix Le poste est basé en périphérie de Toulouse (31) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 10 jours de télétravail par mois. Des astreintes hebdomadaires, des permanences et des opérations HNO seront à prévoir.
Offre d'emploi
Architecte F5 H/F
L'expert F5 aura en charge la définition, l’évolution et l’optimisation des architectures réseau sécurisées basées sur les solutions F5. Missions principales : Conception d’architectures sécurisées : Concevoir, implémenter et maintenir des solutions d’équilibrage de charge, de sécurité applicative et d’accès sécurisé basées sur les technologies F5 (BIG-IP, ASM, APM, LTM). Garantir la robustesse, la performance et la conformité des solutions proposées avec les standards de sécurité du client. Analyse et conseil technique : Réaliser des études techniques pour évaluer les besoins en sécurité réseau des équipes métiers et projets. Proposer des améliorations et des évolutions adaptées aux nouveaux défis de la cybersécurité. Support et expertise : Intervenir en tant qu’expert F5 pour résoudre les incidents critiques et contribuer à la montée en compétences des équipes internes. Collaborer avec les équipes d’exploitation et de sécurité pour le déploiement et la maintenance des solutions. Veille technologique : Assurer une veille constante sur les technologies F5 et les innovations en cybersécurité. Proposer des adaptations en fonction des évolutions réglementaires et technologiques.
Offre d'emploi
Architecte technique réseaux sécurité (fortinet)
L'architecte technique réseaux sécurité est en charge de définir les solutions techniques en réponse aux besoins métiers, il rédige la documentation HLD, qui permettra à l'équipe de mise en oeuvre de réaliser l'intégration. Il assure le suivi de la relation fournisseur, pour aider à l'amélioration des solutions et réaliser la veille technologique, il définit et communique le cycle de vie des solutions de références, nécessaire à l'exercice de gestion de l'obsolescence, Il est en support des équipes de mise en oeuvre, avec qui il valide en lab les évolutions matérielles et logicielles pour mettre à jour le catalogue des produits de référence, Relation technique avec les fournisseurs pour le suivi de la prestation d'accompagnement et pour assurer la veille technologique, Rôle de product Owner (plan de continuité, cycle de vie, catalogue, …), Rédaction des HLD projets, Qualification des nouveaux matériels et logiciels en lab en coopération avec les équipes de mise en oeuvre. Architecture LAN DC : Cisco, Switching, Routing (OSPF, BGP) Loadbalancing : F5, PALO ALTO, Checkpoint, Rédation de documentation technique Gestion des référentiels Produits Reporting""" Firewall : Fortinet Architecture LAN DC : VXLAN/EVPN Architecture LAN DC : Arista
Offre d'emploi
INGENIEUR RESEAUX & SECURITE
INGENIEUR RESEAUX & SECURITE Démarrage : Janvier 2025 Durée de la mission : Longue Télétravail : 50% Localisation : Toulouse (impératif) Il y aura des activités possibles sur le reste de notre parc : F5, Fortinet, Ubika, Cisco ISE, Cisco Anyconnect, Trellix Nous ne travaillons pas sur les règles de sécurité, mais sur les infrastructures. Il faut donc de solides compétences réseau, une connaissance de la quincaillerie et des systèmes... Ingenierie N3 sur les infrastructures de Proxy SKYHIGH : architecture, installation, configuration, mise à jour... Maitrise N2 ou + d’au moins une des technologies suivantes : Firewall Fortinet, F5 LTM, WAF Ubika, sonde Trellix, Cisco ISE, VPN Cisco Anyconnect La connaissance de nos outils d’exploitation est un plus : Service Now, Centreon, Ansible, Python, Jira, Confluence… Une astreinte hebdo (~1/trimestre), des permanences (~1/semaine), et des opérations HNO sont obligatoires
Mission freelance
Un Administrateur Système et Réseaux (Red hat, FORTINET / F5) sur Nantes
Smarteo recherche pour l'un de ses clients, Un Administrateur Système et Réseaux (Red hat, FORTINET / F5) sur Nantes Descriptif: Mission : Il s'agit de renforcer une équipe existante pour la phase de Run et le déploiement du service sur le périmètre système et réseaux dans le cadre de la mise en oeuvre d'une messagerie au niveau national. Opération d'exploitation de l'infrastructure systeme et reseau. Traitement des tickets d'incidents, prise en charge, diagnostic, résolution. Participation à la construction de la supervision de la plateforme Compétences techniques requises : Red hat, FORTINET / F5 vlan, gestion des flx, vip, VM Ware, Ansible Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.