Trouvez votre prochaine offre d’emploi ou de mission freelance Web planneur à Paris
Le Web planneur a pour rôle de coordonner les différentes campagnes entre les différents médias traditionnels sur le Web. Cette compétence est en quelque sorte celle d’un chef de projet qui doit élaborer un plan média. Il tient un planning des différentes insertions publicitaires prévues, que ce soit pour le site internet, les réseaux sociaux ou d’autres achats d’espaces publicitaires en ligne. Il peut arriver qu’il s’occupe également des médias physique et print si personne d’autres n’est en charge. En fonction de l’objectif, le Web planneur choisit la meilleure stratégie à mettre en place. Puisque c’est un métier qui s’exerce principalement pour le Web, il faut donc des notions basiques d’informatique et de digital pour bien comprendre les enjeux du métier. La marque décidera du produit à mettre en valeur, et le Web planneur choisira alors de la stratégie qui conviendra le mieux sur les différents canaux de communication. Concrètement, le Web planneur fait le lien entre les annonceurs et les agences de ventes d’espaces publicitaires. Puisqu’il planifie et prend en main la stratégie, le Web planneur doit aussi anticiper et préparer un budget pour les campagnes publicitaires. Il calcule la rentabilité de chaque action de communication pour le Web. Le Web planneur peut exercer aussi bien dans une agence de communication, d’événementiel, web mais aussi en tant que Freelance chez l’annonceur. Dans tous les cas, le Web planneur a un rôle clef dans une entreprise car il est inévitablement lié à la partie de l'acquisition digitale. Un vrai levier stratégique en entreprise.
Informations sur la rémunération de la fonction Web planneur.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert growth hacking pour stratégie inbound
Pour une entreprise spécialisée dans l'intelligence artificielle appliquée à la radiologie. Elle développe des solutions d'IA pour aider les radiologues et médecins à analyser les examens d'imagerie médicale (comme les radiographies). L'objectif est d'améliorer la précision des diagnostics, d'accélérer les processus de lecture d'images et de réduire les erreurs humaines. Brief : Mise en place d'une stratégie d'acquisition inbound et growth hacking Actuellement, 90 % de leurs acquisitions commerciales sont réalisées en outbound . Leurs équipes, derrière leurs ordinateurs, identifient et contactent activement des médecins, notamment des radiologues, pour les convaincre et les rassurer. Cependant, ils constatent une augmentation significative des visites sur leur site web , suggérant une potentielle montée en puissance de prospects intéressés de manière proactive. Cela marque une opportunité stratégique de diversifier leur approche vers une acquisition inbound plus efficace. Structurer une stratégie d'acquisition inbound capable d'exploiter cette opportunité et de capter un grand volume de prospects qualifiés. Déployer une approche de growth hacking en complément de l'inbound marketing classique, avec des tactiques innovantes et scalables pour attirer et convertir rapidement des milliers de médecins. Aujourd’hui, leur structure est entièrement orientée outbound , avec peu ou pas de ressources dédiées à l’inbound. Un audit initial a été réalisé pour une stratégie inbound classique (SEO, contenu, campagnes digitales). Cependant, le volet growth hacking , essentiel pour toucher notre cible spécifique (les radiologues), n’a pas été abordé. Profil recherché (ne pas postuler si vous ne cochez pas parfaitement ces points) : - Experience notable (min 7 ans) en marketing digital et growth hacking - Profil disponible à temps plein - Au moins une expérience dans le secteur de la santé (avec des médecins)
Offre d'emploi
Business Analyst QA App mobile & Web
Votre rôle sera essentiel dans le bon déroulement du projet, en collaboration étroite avec le Product Owner, l’équipe de développement, et l’équipe de tests. Vous interviendrez à chaque étape clé du cycle de vie du projet, depuis la phase de conception jusqu’aux tests finaux. Vos missions principales : Collaboration avec le Product Owner : Participer au recueil des besoins métiers et à leur analyse. Organiser et animer des ateliers avec les parties prenantes. Rédiger et affiner les User Stories (US) en lien avec l’équipe de développement. Collaboration avec l’équipe de test : Définir et rédiger les plans de test et les cas de tests. Exécuter les tests fonctionnels sur les environnements web et mobile. Assurer un reporting régulier sur les campagnes de tests. Suivre et gérer les anomalies identifiées. Force de proposition : Contribuer à la priorisation des fonctionnalités et proposer des solutions fonctionnelles adaptées. Participer activement à l’ amélioration continue des processus et livrables du projet.
Mission freelance
Ingénieur SysOps (H/F)
Localisation : 92 TT : 2 jours Expérience ci-dessous requise (obligatoire): > Expérience confirmée d’ingénieur SysOps AWS > 3 ans > Expérience confirmée en IAC Terraform > Expérience forte de Build et de Run des services serverless AWS > Certifications AWS appréciées > Expérience confirmé on-premise > Environnement Linux / Redhat > Une expérience sur $Univers est un plus Core Skills - Maîtrise des technologies ci-dessous de l’écosystème AWS (obligatoire) : > Services Core AWS (IAM, cloudwatch, cloudtrail, route53, S3, VPC, …) > Maitrise de la majorité des Services AWS suivants: API gateway, CloudFront, Cognito, WAF, RDS, DynamoDB, Lambda, Step function, SQS ou MQ, ECS, EKS, ECR, OpenSearch, EMR ,... > Docker, Python, Gitlab CI, Terraform, Ansible, Graphana > Participation à l'amélioration du monitoring / alerting
Mission freelance
Product Owner Big Data
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique
Offre d'emploi
Data Engineer AWS
Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Mission freelance
Ingénieur de données / Big Data
Nous recherchons pour notre client grand compte ( secteur média ) un ingénieur de données pour la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Offre d'emploi
Chef de projet Junior - Migration Cloud
Pour renforcer l'équipe support chez un de nos clients, je recherche un/une Chef de projet junior - Migration Cloud qui interviendra sur différentes missions : Mots clés: Legacy, Cloud conteneurisé, Move to cloud Missions principales : Participer à la planification et à la coordination des projets de migration vers le Cloud. Assurer le suivi des étapes clés (analyse, migration, tests, validation). Collaborer avec les équipes techniques et métiers pour garantir le respect des objectifs. Identifier et gérer les risques liés à la migration. Produire des rapports d’avancement et assurer une communication claire avec les parties prenantes. Compétences requises : Connaissance des solutions Cloud (AWS, Azure, Google Cloud). Notions de gestion de projet (méthodologies Agile ou Waterfall). Capacités d’analyse et de résolution de problèmes. Excellentes compétences en communication et travail d’équipe. Anglais indispensable
Mission freelance
Data Gouvernance Manager
Expérience : 10 années d’expérience minimum, dont 5 années au moins en tant que Data manager, avec une expérience déjà faites en déploiement de data platform. Environnement : AWS/Azure SQL/NoSQL languages, cloud AWS, Collibra ontexte : Depuis l’an dernier, ils ont déployé une data platform, cherchant à migrer des données vers cette plateforme. Il s’agit d’un projet transverse, donc il n’y a pas d’équipe faites pour l’instant de façon formel. Mission : Déploiement Data platform Déploiement des process et divers outils sur la plateforme
Offre d'emploi
Expert PKI
Pour renforcer l'équipe support chez un de nos clients, je recherche un/une Expert(e) PKI, qui interviendra sur différentes missions: Mots-clés : PKI, Cloud (AWS, Azure), Automatization (PowerShell, AWS Lambda) Missions principales : Gestion du Cycle de Vie des Certificats : Surveiller et gérer le cycle de vie des certificats (CLM et CLA). Assurer le delivery des certificats et superviser les infrastructures cloud (AWS, Azure, PKI). Amélioration Continue & Support : Contribuer à l'amélioration des processus et infrastructures PKI. Fournir un support technique et collaborer avec les partenaires internes. Intégration et Documentation : Effectuer l'intégration des services avec l'orchestrateur Keyfactor. Rédiger la documentation technique (HLD, LLD) et assurer la traçabilité. Cloud & Automatisation : Gérer les PKI dans des environnements cloud et intégrer les services SaaS DigiCert. Automatiser les processus avec AWS Lambda, Power Automate, PowerShell, etc. Supervision et Monitoring : Utiliser des outils comme Nmap, OpenSSL pour superviser les infrastructures PKI. Collaboration et Support : Travailler avec les équipes Sécurité, Réseau, DevOps et offrir un support aux clients internes/externes. Astreintes et HNO : Être disponible pour les astreintes et travailler en heures non ouvrées. Compétences requises : Connaissance des infrastructures PKI, outils Keyfactor, DigiCert, Microsoft ADCS. Maîtrise des environnements cloud (AWS, Azure) et des outils de sécurité associés. Compétences en automatisation et scripting (AWS Lambda, PowerShell, Python). Bonne maîtrise des outils de supervision (Nmap, OpenSSL) et des protocoles d'infrastructure (DNS, HTTPS, etc.). Maîtrise des outils ITSM (ServiceNow) et des outils de test d'API (Postman). Langues : Français et anglais (lu, écrit, parlé). Qualifications : Bac +5 en CyberSécurité, Cryptographie, ou équivalent. Certification AWS Certified Solutions Architect - Associate (obligatoire). Expérience préalable en gestion de PKI.
Offre d'emploi
Développeur Java Finance (Dérivés actions, Pricing, Risk) 5 ans d'expérience F/H
Vous rejoindrez l'équipe OCSI chez notre client, Groupe bancaire mondial, dans la branche IT en charge des développements de la plateforme de calcul des risques de contrepartie (RWA for CCR). Cette équipe a une responsabilité globale et internationale (nécessité d'avoir un anglais courant). En tant que développeur, vous avez une appétence également pour le DevOps. Votre quotidien sera de : o participer aux développements sur les différents composants de la chaine end to end du calcul de RWA (Risk Weighted Asset) pour la gestion du risque de contrepartie (Counterpart Credit Risk). Vous devrez répondre aux challenges de performance que ce projet impose en terme de performance et de stabilité. o Vous êtes ouverts à étudier d’autres langages et à ajouter ou compléter une composantes devops. Vous travaillerez sur la plateforme GCP (Google Cloud Platforme) et pourrez évoluer vers des services AWS (Amazon Web Services) o Vous serez responsable de la mise en place et de l’exécution des tests sur vos composants, de la mise en production et de la documentation de vos développements. Vous devrez proposer des solutions répondant aux besoins de scalabilité, de résilience et de sécurité. o Vous assurez le support des applications.
Offre d'emploi
Expert/Architecte Kafka/MSK/ELK
Nous recherchons un Expert/Architecte Kafka/MSK pour piloter la conception, la mise en œuvre et l’optimisation d’une infrastructure Kafka/ELK (ElasticSearch, Logstash, Kibana) multi-région. Ce projet stratégique vise à soutenir une organisation opérant à l’échelle internationale, avec des besoins exigeants en termes de réplication des données, de faible latence, de scalabilité et de résilience. Missions principales : Conception et architecture : Définir l’architecture globale du système Kafka/ELK multi-région, en étant attentif à la réplication cross-région, à la synchronisation des clusters Kafka et à la tolérance aux pannes. S’assurer de la compatibilité avec les standards internationaux en termes de sécurité, de réglementations des données et de performances. Implémentation : Installer et configurer Kafka sur AWS MSK ainsi que les solutions ELK associées. Gérer l’intégration avec des systèmes existants et assurer une migration sans interruption pour les clients internes. Configurer la réplication multi-région (MirrorMaker 2.0 ou autres outils adaptés). Optimisation et supervision : Mettre en place une stratégie de monitoring avancée pour Kafka et ELK (Kibana, Prometheus, Grafana, etc.). Optimiser les performances en équilibrant les charges entre régions et en minimisant les latences. Gérer les mises à jour et assurer la maintenance de l’infrastructure. Sécurité et conformité : Implémenter des mécanismes de sécurité avancés (chiffrement, authentification, autorisation) pour Kafka et ELK. Veiller à la conformité avec les réglementations locales et internationales (ex. : GDPR, CCPA). Support et formation : Fournir un support technique aux équipes internes. Documenter les procédures et former les équipes à l’utilisation et à la gestion de l’infrastructure.
Mission freelance
devsecops banque
ous recherchons un.e INGÉNIEUR DEVSECOPS F/H SENIOR pour accompagner une ou plusieurs équipes Agile. Les grands enjeux de la mission sont les suivants : Construire les primitives d’automatisation Intégrer les différentes technologies au catalogue de la DSI (y compris Cloud S’appuyer sur les experts et acteurs DSI Construire les pipelines d’automatisation Accompagner les équipes applicatives à utiliser l’usine logiciel Participer à améliorer sans cesse les processus pour les rendre plus fluides, plus rapides, plus sûrs Mettre en place les solutions d’observabilité/alerting Réaliser des développements sur nous outils informatiques métier Être garant de la sécurité en continue des applications de votre équipe Être force de proposition dans le déploiement d’éléments concourant à l’amélioration continue des pratiques de/des équipe(s) Participer, fluidifier et améliorer le support de production Langages / Frameworks : Angular 10, typescript et programmation réactive - Spring Boot 2.0 – PostgreSQL, Java JEE, Struts, OPENApi/Swagger, Java 11 Moteur : Blaze Advisor ; Experian Power Curve Architecture : Microservices, Composants partagés, API (REST), Évènementielle (Kafka) Cloud: DOCKER, REDHAT OPENSHIFT, TANZU, AWS DevOps : Gitlab - Gitlab CI - Docker – Kubernetes, Jenkins Maven , XLDeploy, Terraform, Ansible Testing : Cypress - Cucumber, JUnit, Postman
Mission freelance
Développeur fullstack PHP/Symfony & angular
Un développeur back au sein du service Applications GP et Licenciés composé de 6 développeurs prestataires en régie. Profil recherché Responsabilités • Concevoir, développer et maintenir des API REST. • Assurer la performance, la sécurité et la scalabilité des applications backend. • Collaborer avec le DevOps pour assurer une livraison continue des fonctionnalités. • Implémenter et maintenir des tests unitaires, d’intégration et fonctionnels. • Participer aux revues de code et garantir la qualité du code selon les bonnes pratiques. • Documenter les processus techniques et les API développées.
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Mission freelance
CLOUD analyst - Azure AWS Finops
PROPULSE IT recherche un cloud analyst pour une mission en région parisienne ou en Full remote. La mission a lieu dans une équipe technique mondiale qui opère de manière agile au sein d'une organisation produit dynamique. Plongez-vous dans un environnement collaboratif où l'innovation prospère, et vos contributions joueront un rôle direct dans l'élaboration du chemin de nos produits de pointe. En tant qu'acteur clé de notre configuration agile, vous aurez l'opportunité d'améliorer l'efficacité, de favoriser créativité et jouent un rôle central dans notre processus de développement de produits. Faites partie d'une équipe qui embrasse l'adaptabilité et valorise l'amélioration continue, garantissant que nous restons à la pointe des avancées technologiques mondiales. L'analyste Cloud travaillera au sein de l'équipe Cloud Office, incluse dans la gestion des services. Ce sera une démarche transversale rôle au sein de l'ensemble de l'équipe technique, collaboration avec des collègues et des membres d'autres équipes. L'analyste cloud fournira un support transversal pour maintenir l'infrastructure et les services cloud afin d'offrir la meilleure valeur à tous les salariés. Il/elle aide Cloud Officer à aligner les solutions cloud avec les objectifs et buts de l'entreprise et superviser les opérations cloud d'un point de vue technique pour fournir la meilleure valeur sur les services cloud. o Soutenir le Cloud Officer dans la vision du paysage cloud en fournissant des contributions et des analyses o Diriger l'extension de la pratique FINOPS au sein du client en travaillant en étroite collaboration avec des coéquipiers des différents produits et équipes en charge des opérations quotidiennes o Concevoir et mettre en œuvre une analyse appropriée sur l'utilisation, la qualité, les performances et la valeur générée des services Cloud. o Collaborer au programme de perfectionnement pour les services cloud en fournissant une formation et une sensibilisation aux services avancés o Collaborer à la conception et à la gestion des services Cloud et d'infrastructure et assurer leur sécurité, leur disponibilité, et fiabilité o Assurer la livraison et la mise en œuvre des solutions techniques convenues o Participer à la mise en œuvre des processus, normes, directives et contrôles d'assistance informatique o Surveiller et rendre compte du respect, de la performance et coordonner ou intervenir chaque fois que nécessaire VOS DOMAINES DE CONNAISSANCES ET D'EXPERTISE COMPÉTENCES FONCTIONNELLES VOTRE ÉQUIPE Ligne hiérarchique (directe/indirecte) : Cloud Officer sur une base régulière et permanente. Intervenants internes clés : Directeur de la gestion des services, Toute autre équipe produit consommant des services cloud, notamment (Cloud & Infra, Données technologiques mondiales) Acteurs externes clés : Fournisseurs de services Cloud (Microsoft, AWS,...
Offre d'emploi
MLOPS Engineer
En tant qu’Ingénieur MLOps Senior, vous aurez pour mission de développer et d’optimiser les outils internes de MLOps afin de soutenir l’ensemble du cycle de vie des modèles d’IA. Vous serez spécialisé(e) dans l’utilisation des GPU pour améliorer l’entraînment, le déploiement et le serving des modèles. Construire et optimiser les pipelines de données pour la gestion des jeux de données, l’entraînment, l’évaluation et le déploiement des modèles. Garantir la traçabilité et la reproductibilité des expériences. Améliorer la maintenabilité et l’évolutivité des composants de la plateforme, en environnements cloud (AWS) ou on-premise. Configurer et gérer les infrastructures GPU pour l’entraînment des modèles. Implémenter des techniques avancées comme le mixed-precision training, la quantification et l’optimisation d’inférence via Triton Server ou TensorRT. Réduire les temps de calcul en exploitant les outils comme cuDNN ou NVIDIA Nsight. Développer des solutions robustes pour le serving des modèles d’IA dans des environnements contraints (on-premise et cloud). Améliorer la scalabilité des serveurs d’inference multi-GPU pour gérer un grand volume de requêtes. Mettre en place des outils de monitoring et de benchmarking des performances des modèles. Intégrer les workflows d’entraînment et de déploiement dans des pipelines CI/CD (GitHub Actions, Nomad). Automatiser le réentraîment des modèles en continu. Maintenir des tests de non-régression pour garantir la stabilité des modèles en production. Effectuer une veille technologique pour identifier les nouvelles solutions et techniques (AutoML, Kubeflow, TFX). Diffuser les bonnes pratiques et former les membres de l’équipe à travers du mentoring et des sessions techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.