Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Offre d'emploi
Consultant en Gouvernance et Sécurité IT (H/F)
✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Consultant en Gouvernance et Sécurité IT (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Cartographie et traitement des risques IT & Cyber 🔸 Contrôles permanents de niveau 2 🔸 Déploiement des politiques de sécurité 🔸 Reporting interne et externe 🔸 Participation aux comités de risques IT 🔸 Sensibilisation à la sécurité informatique 🔸 Gestion et suivi des risques IT et Cyber 🔸 Pilotage transverse (PMO) du domaine sécurité 🔸 Production des reportings et préparation des comités Risques hebdomadaires 🔸 Suivi des plans de réduction des risques et maintien de la qualité des données 🔸 Respect des référentiels et normes de sécurité (NIST, LPM, Dora, PCI DSS...) 🔸 Maîtrise des risques IT et Cyber 🔸 Connaissance des systèmes de paiement et protocoles associés (PCI DSS, EMV...) 🔸 Compétences en analyse de performance (Grafana, Prometheus) 🔸 Maîtrise des méthodologies Agile (Scrum, Kanban) et outils associés (Jira, Trello) 🔸 Compréhension des enjeux de sécurité et mise en place des contrôles 🔸 Maîtrise des outils bureautiques et analytiques (Power BI est un plus)

Mission freelance
Développeur Dataiku
Descriptif de poste : Développeur Dataiku / Administrateur (CICD) Notre client recherche un Développeur Dataiku confirmé, capable de maîtriser les aspects CI/CD (déploiement continu, intégration continue) tout en assurant une collaboration fluide avec les équipes métiers. Vous jouerez un rôle clé en tant qu'administrateur Dataiku, garantissant le bon fonctionnement des pipelines et des plateformes. Vous devrez combiner expertise technique et communication efficace pour accompagner les projets data. Poste idéal pour les profils autonomes et rigoureux.

Mission freelance
Dév PHP / VueJS
Au sein de la DSI de notre client Rennais, le Service Informatique Commercial (SIC) traite principalement des sujets en lien avec les enjeux marketing et commerciaux de l’entreprise : prospection et embasement de futurs clients, acquisition de nouveaux abonnements et gestion du stock des abonnés, fidélisation et développement de l’ARPU. Dans une démarche de collaboration avec les directions data, marketing, marché des professionnels, et opérations clients, nous construisons les solutions et produits utilisés quotidiennement par les gestionnaires, les commerciaux, et les conseillers de la Relation Clients. Dans ce contexte, le service est organisé en équipes « produit », avec une co-localisation des compétences métier et technique, un pilotage projet renforcé s’appuyant sur les valeurs de l’Agilité, une recherche du retour sur investissement et du time-to-market. Bien que les nouveaux projets et applications soient développés sur la stack JAVA, plusieurs applicatifs du domaine sont développés en PHP/Symfony. • C’est la cas du périmètre B2B, dont les applications sont utilisées – moyennant abonnement – par les entreprises pour leur veille ou leur business • Ainsi que de l’application de la Relation Client (IHM+) qui est utilisée chaque jour par une centaine de conseillers dans les centres d’appel.
Offre d'emploi
ingénieur /architecte Data Ops
Profil recherché : Expert Data Science et IA ingénieur ou architecte Data Ops avec une expérience solide en gestion d’infrastructures data et IA . Idéalement une premiere experience sur des projets Data Science en production et qui maîtrisent les technologies cloud et conteneurs Mission : Mission : Apporter un appui technique aux projets de Data Science et Datamining. Adapter la plateforme technique aux enjeux et contraintes des projets. Expertise en gestion de flux et bases de données (Oracle, PostgreSQL, SQL Server). Administration de systèmes d’exploitation Windows et Linux . Rédaction de documentation technique .

Mission freelance
DATA ENGINEER DATABRICKS/POWER BI SENIOR
Contexte : En tant que DATA ENGINEER spécialisé en traitement de données, vous intégrerez une équipe pour concevoir, réaliser, suivre et intégrer des travaux autour de la valorisation de la donnée. MISSIONS • Étude et rédaction d’US, en particulier sur des sujets liés à la data. • Maîtrise des bonnes pratiques de développement (utilisation de git, lisibilité du code, tests, intégration continue). • Fournir une vision complète des solutions data pour le programme. • La maitrise de DATABRICKS est impérative Résultats attendus et/ou livrables • Documentation et spécifications des développements à réaliser. La présentation interactive avec Power BI est à privilégiée • Analyse de données • Développements DATABRICKS • Schéma d’architecture data en lien avec les besoins • Rapports d’avancement : o Rapports hebdomadaires et mensuels sur l’état d’avancement du projet et des livrables, les points bloquants, les risques et les actions correctives. o Indicateurs associés propres au projet. • Documentation technique : o Documentation complète des solutions techniques mises en œuvre.

Mission freelance
Product Owner BI
Recueillir et analyser les besoins métiers pour optimiser la plateforme BI. Piloter la roadmap produit et garantir la livraison des features en adéquation avec les attentes business. Assurer la gestion du backlog et prioriser les évolutions avec les équipes techniques. Collaborer avec les équipes Data et IT pour concevoir des solutions performantes et scalables. Suivre la qualité et la performance des dashboards et modèles de données sous Power BI. Gérer le cycle de développement en mode agile via Azure DevOps.

Mission freelance
QA Engineer
Stratégie de test Définir et mettre en œuvre une stratégie de tests manuels et automatisés alignée avec Agile SCRUM. Intégrer la stratégie de test aux processus CI/CD. Rédiger des plans de test et créer des Tests Run sur X-Ray. Intégration des solutions de paiement Tester l'intégration KYC (Know Your Customer) et KYB (Know Your Business) pour les applications mobile et web. Tester l'intégration de la plateforme de vérification d'identité IDnow Ariadnext. Mettre en place des tests pour les moyens de paiement (DCA, Gift Card, SEPA, CB). Automatisation des tests Participer à la création et à la mise en œuvre du framework d'automatisation Cypress. Développer des scripts d'automatisation pour les tests de non-régression (TNR). Créer des tests exploratoires, de montée en charge et de validation. Pilotage des tests Piloter les tests sur plusieurs projets (DCA, Gift Card, IDnow, Euro Account, Saving Account). Collaborer avec les équipes pour assurer la bonne exécution des tests et le respect des délais. Tests d'intégration Effectuer des tests d'intégration Front-end / Back-end, y compris avec GraphiQL pour les requêtes GraphQL. Tester la gestion des wallets et des assets via le Back Office. Tester la gestion des comptes clients (Buy Limits, KYC, Asset freezing). Documentation et bonnes pratiques Intégrer X-Ray dans les squads et définir les bonnes pratiques d'utilisation. Rédiger des tests cases en Gherkin. Exécution des tests Exécuter des tests sur différentes plateformes (ReviewApp, Android, iOS, Postman, Firebase). Effectuer des tests manuels et automatisés sur les applications web et mobiles.

Mission freelance
Data engineer
Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2

Mission freelance
CONSULTANT MOA BI - EQUIPEMENT
AMOA BI - Equipement - GMAO MISSION l'AMOA BI est le point d'entrée de la DSI pour toute demande de BI sur les Solutions Equipement. Il fait l'interface entre les interlocuteurs Métier les équipes BI de développement et l'équipe Solution équipement. Son rôle est de comprendre les enjeux et besoins Métier en coordination avec l'AMOA BI pour les spécifier aux équipes de développement. Dans le cadre de la Roadmap BI le Référent fonctionnel BI devra notamment : • Travailler en étroite collaboration avec les équipes équipement pour spécifier l'extraction des données Maximo servant aux KPI Métier (utilisé dans Power BI) • Préparer le modèle de données BI pour l'intégration des données MAXIMO (équipement). Une attention toute particulière sera apportée aux notions de site Maximo ainsi qu'à la consolidation des données. • Spécifier les traitements d'intégration à destination du pole DATA. • Identifier les dimensions de « croisement » avec les Terminaux (équipement, temps, site etc…) • Proposer et accompagner les ajustements pour le portage des rapports MAXIMO & leur version consolidé sur la source. ACTIVITES PRINCIPALES 1. Piloter les projets BI opérationnels et l'implémentation des nouveaux usages / nouvelles solutions, coordonner les parties prenantes métier et DSI, et accompagner le changement associé (y compris la transition en RUN) 2. Sous l'impulsion des équipes BI, accompagner la diffusion d'une culture Data au sein des équipes DSI et Métier 3. Contribuer à la gouvernance appropriée pour mener à bien les projets BI sur le périmètre concerné 4. Proposer, en étroite collaboration avec les équipes Solutions et BI les solutions /modèles pour consolider et croiser les données équipement 5. Participer à la rédaction des spécifications fonctionnelles aux équipes BI de la DSI 6. Réaliser les Tests d'intégration, une fois les Données & rapports BI livrés 7. Organiser les UAT avec le Métier/Solution 8. Contribuer au déploiement des nouveaux rapports équipement 9. Être le garant du delivery (coût, qualité, délai) 10. Accompagner les pays et les équipes de déploiement pour s'approprier les outils et reporting BI et opérationnel existants Conditions particulières de travail Déplacements ponctuels à l'étranger dans le cadre des déploiements, de formations, d'Université ou de cadrage de sujets à enjeux majeurs

Offre d'emploi
Data Engineer - AI - Confirmé H/F
🚀 Vos Missions : 1. Collecte et Exposition des Flow Metrics : • Collaborer avec le Lean Agile Center pour définir les besoins. • Configurer la collecte de données, les datasets et les dashboards QuickSight. • Suivi des indicateurs : Cycle Time, Throughput, Backlog Age, etc. 2. Exposition des DORA Metrics : • Intégration des données issues de ServiceNow et Splunk O11Y . • Déploiement des dashboards pour piloter la performance des équipes. 3. Amélioration de l’Expérience Utilisateur de R2D2 : • Proposer des Topics pour créer des visualisations QuickSight en langage naturel. • Intégrer des modèles prédictifs via AWS SageMaker . • Développer une expérience conversationnelle avec AWS Bedrock .
Offre d'emploi
Développeur - Ansible
Nous recherchons un Développeur d'outils d'automatisation pour rejoindre notre équipe technique. En tant que membre clé de notre équipe, vous serez responsable de la conception, du développement et de la mise en place de solutions d'automatisation à travers des outils comme Ansible. Vous interviendrez sur l'ensemble du cycle de vie des projets d'automatisation, depuis l'analyse des besoins jusqu'à la mise en production. Missions : Concevoir et développer des solutions d'automatisation pour améliorer l'efficacité des processus internes. Rédiger, tester et maintenir des playbooks Ansible pour l'automatisation des tâches courantes. Participer à l'intégration des outils d'automatisation dans l'infrastructure existante. Identifier et résoudre les problèmes d'automatisation tout en assurant la stabilité du système. Travailler en collaboration avec les équipes DevOps et Infrastructure pour intégrer des solutions d'automatisation dans les pipelines de CI/CD. Analyser les besoins des utilisateurs et définir les spécifications techniques des outils à développer. Assurer le suivi et l'évolution des solutions d'automatisation en fonction des retours utilisateurs. Garantir la documentation technique des outils et des processus d'automatisation. Participer à l'amélioration continue des processus d'automatisation et de l'architecture d'infrastructure.

Offre d'emploi
DEVELOPPEUR PYTHON F/H | STRASBOURG (67)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Analyser les applications existantes développées en Python Renforcer la sécurité des développements en identifiant et appliquant les meilleures pratiques en matière de protection des applications et des bibliothèques Standardiser l’usage des outils et encadrer leur adoption grâce à une veille technologique active et au suivi des recommandations Développer et mettre en place une solution d’intégration et de déploiement continus (CI/CD) dédiée aux projets Python Accompagner les équipes dans son utilisation. Contribuer à la normalisation des images utilisées dans le cloud privé. Environnement Technique : Python, Pycharm, Visual Code Studio, Unix, Windows, WSL2, Jenkins, CloudBeed CI/CD, Kubernetes, Openshift, Shell, Powershell Le poste est basé à Strasbourg (67) . Dans le cadre de vos fonctions, vous pourrez bénéficier d 'un jour de télétravail par semaine après votre période d'intégration (~environ 3 mois).

Mission freelance
Consultant DevSecOps administrateur Gitlab
Consultant DevSecOps administrateur Gitlab (pas utilisateur) Ses missions sont: - Expertise technique sur le produit Gitlab (incluant Gitlab-CI) et les pratiques associées afin de gérer les montées de version, les changements d'architecture, le support N3. - Maitrise des socles Linux, Windows, Docker et Openshift. - Documentation les solutions (How to, maintenance fonctionnelle et technique). - En support du déploiement de la solution auprès des clients. Compétences demandées : OS : • Red Hat • Linux • CentOS Technologies : • Kubernetes • Openshift • VMware • Terraform Plates-forme : • Ansible • Apache Kafka • Atlassian • JFrog Artifactory / Xray Outils : • Atlassian Jira, • Docker • Grafana, • HashiCorp Vault • Jenkins • OpenShift • Prométhéus • SonarQube BDD : • PostgreSQL • Mongo DB Langage de programmation (build) : • Java • Python • .Net (.net Core & .Net Framework) • JS

Offre d'emploi
Consultant Data Engineer
Missions: Modéliser et structurer des bases de données en fonction des besoins analytiques. Implémenter des DAGs en python pour alimenter les entrepôts de données. Contribuer à la définition et l’optimisation des normes de développements de l’équipe Data Automatiser et enrichir les contrôles permettant de garantir la fiabilité des données alimentées. Réaliser la documentation fonctionnelles. Réaliser la documentation technique. Contribuer à la définition et l’exécution des plan de tests pour valider le bon fonctionnement des DAGs et assurer la cohérence et fiabilité des jeux de données. Maintenir les entrepôts de données. Participer à la mise en place de tableaux de bord Préparer, suivre les phases d'homologation et de déploiement des réalisations. Assurer un support technique et fonctionnel auprès des équipes métiers sur l'utilisation des données et des outils analytiques. Optimiser les process et proposer des méthodologies adaptées (veille sur les données, les outils). Livrables: Documentation technique Cahiers de tests Note de recommandations pour améliorer l’efficacité des DAGs DAGs Guides de bonnes pratiques

Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Développeur Python Interfaces Cloud (H/F)
Au sein d'une équipe de 5 personnes et rattaché au responsable du service FinOps au sein de la BU Cloud d'un des plus gros éditeurs de logiciel Européen, vous interviendrez en tant que Développeur Python afin de connecter les différents cloud utilisés par la société, récupérer certaines données et les stocker sur un Hub unique. La plateforme d'analyse ouverte unifiée permettant de générer, déployer, partager et gérer ces données de l'entreprise est la plateforme Azure Databricks. Vous devrez ensuite utiliser Power BI pour analyser et mettre en visibilité ces données. Les compétences pour ce poste sont les suivantes : - La connaissance et compréhension des API est indispensable. - La maîtrise du langage Python est également indispensable. - La connaissance et gestion de Power BI est un vrai +. - Des connaissances dans la gestion et l'utilisation de bases de données sont fortement recommandées. - La connaissance de la plateforme Azure Databricks n'est pas obligatoire, une formation sera réalisée en interne à ce sujet.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.