Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert Power-BI (H/F) - 67
Notre client recherche un profil ayant une forte expertise et un savoir-faire dans le développement de solutions de tableaux de bord et de cockpits BI engageants à l'aide de PowerBI de Microsoft. Au-delà d'une excellente connaissance de l'outil lui-même et d'une grande aisance dans le traitement des problématiques Big Data, le profil sélectionné devra être capable d'utiliser les données collectées pour comprendre les besoins métiers et les intégrer dans des outils de gestion clairs et intuitifs. Visualisation des données : Expertise avérée dans l'utilisation de Power BI et Power BI Embedded (API). Langage de programmation (Python et R sont les langages les plus utilisés par les Data Scientists) : DAX sous Power BI et fonctionnalités avancées, R, M, Python. Formation / certification / expérience : Certification Power BI avec 2 ans d'expérience prouvée (basée sur des exemples de projets Power BI réussis) Intégration de données : ETL (Extract Transform and Load) : Extraire des données à partir de sources telles que Oracle, MySQL DB, Google Analytics, APIs / Extraire des données à partir de notre Azure Datalake (Parquet, CSV et Sql Server) / Transformer et stocker les données dans un format ou une structure appropriée à des fins d'interrogation et d'analyse. Manipulation de données et exploration de données : Familiarité avec les structures de données et le contenu des sources de données analytiques (entrepôt de données, datamart, etc.) / Nettoyer et unifier les ensembles de données hétérogènes et complexes pour faciliter l'accès et l'analyse (Data Wrangling). Travailler en mode Agile (Méthodologie SCRUM, DevOps) (Obligatoire)
Offre d'emploi
Administrateur Système Unix/ Windows F/H
Pourquoi nous rejoindre ? Un cadre de travail hybride avec deux jours de télétravail par semaine. Un poste stimulant au sein d'une équipe dynamique et innovante. La possibilité de participer activement à des projets de transformation. Remboursement de 50% des frais de transport. Tickets restaurant Swile avec 8,50€ par jour travaillé Mutuelle d'entreprise très complète, avec la possibilité d'inscrire des membres de votre famille. Formation en e-learning avec la plateforme Pluralsight Un accompagnement sur la passation des certifications Un accès à un CE d’entreprise en ligne Un accès à une plateforme associative (Vendredi) Des primes d’intéressement, cooptation, apporteur d’affaires La participation à des évènements entreprise tel que les soirées OCSI qui ont lieu 2/3 fois par an Nous recherchons un(e) Administrateur(trice) Système expérimenté(e) pour rejoindre notre équipe d'exploitation. En tant qu'Analyste d'Exploitation, vous jouerez un rôle clé dans la gestion des incidents, le maintien en condition opérationnelle, et l'optimisation de nos processus. Vous serez également amené(e) à intervenir dans l'automatisation des applications et des processus, tout en analysant des logs et des scripts pour assurer une résolution efficace des problèmes. Vos responsabilités : Assurer la gestion des incidents et du changement en respectant les processus établis. Optimiser et automatiser les processus et applications pour améliorer l'efficacité. Analyser les logs et scripts afin de diagnostiquer et résoudre les problèmes rapidement. Maintenir en condition opérationnelle les environnements système.
Mission freelance
Développeur Fullstack Java
Nous recherchons un Développeur Fullstack Java Présence à Niort 2 à 3 jours par semaine Compétences techniques: JAVA 8 à 21 - Impératif API JAVA REST - Impératif ANGULAR - Important REACT JS - Important ---------- Livrables - Chiffrage technique - Le code produit lors du développement - Le code des tests unitaires et d'intégration produits et le compte-rendu de leur exécution - Ponctuellement, un dossier d'analyse et de proposition des améliorations continues d'architecture technique, qualité de code et processus de déploiement ---------- Compétences attendues 1. Environnement technique : Maîtrise de Java 8 à 21 (Spring Boot/Webflux/Batch), API REST, gestion desAPI (Spring Gateway/Keycloak), front-end avecAngular/React, conteneurisation/plateforme Openshift, architectures EDA et SOA, bases de données Oracle, Redis. Les connaissances suivantes sont des plus : IVM, Python, DBT, Liquibase, Postgres, Kafka, Prometheus/Grafana, Linux, Shell (bash). 2. Capacité à gérer des évolutions techniques de complexité variable avec autonomie. 3. Familiarité avec Intelli, VSCode,Maven, Git/Gitlab, Jenkins, Sonarqube,Artifactory, Jira.
Offre d'emploi
Expert Système - Windows et MECM (H/F)
NOOEH , Entreprise de Service du Numérique basée à Aix-en-Provence, recherche pour le compte d'un de ses clients situés à Aix-en-Provence un.e Expert Système - Windows et MECM (H/F) . Vous serez en charge de participer aux opérations de Mise à Jour Continue. Gestion des postes de travail sous Windows 10/11 (installation, paramétrage, résolution d'incidents). Utilisation de MECM (Microsoft Endpoint Configuration Manager) pour la gestion des mises à jour, création de packages et déploiement d'OS. Automatisation des tâches via PowerShell (développement de scripts). Support N3 pour la gestion des incidents complexes. Suivi des déploiements à grande échelle. Analyse et adaptation des scénarios de déploiement Windows et M365Apps. Rédaction de procédures et gestion des opérations techniques et de migration.
Offre d'emploi
Devops 6/9 ans d'expérience
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein du département "Architecture & Excellence Opérationnelle" de la DSI Corporate, Le domaine Development Factory regroupe l'expertise DevSecOps ainsi que le support de l'usine logicielle. Dans ce contexte, le domaine recherche un Ingénieur DevOps. 🤝 Responsabilités : Dans un environnement technique riche (Java / .Net / Angular / Python / Datastage / Oracle / MySQL / PowerBI / Shell / Openshift / GCP / …) : - Fournir un support aux composants de l'usine logicielle (Bitbucket/Jenkins/Azure DevOps/Sonar/Checkmarx/Artifactory/XLDeploy/XLRelease) - Améliorer les scripts Groovy internes pour offrir de nouvelles fonctionnalités dans les pipelines Jenkins - Aider les développeurs à construire des pipelines pertinents pour leurs produits - Collaborer avec les équipes de développement pour identifier et résoudre les problèmes.
Mission freelance
EXPERT CHEF D'EQUIPE WINDOWS & VIRTUALISATION H/F
Le prestataire est chargé d’apporter son expertise technique et piloter les équipes en vue de la construction le centre de compétence : - Système Windows Il participera aux entretiens d’embauche pour constituer les équipes indiennes et évaluer leurs compétences techniques. 2.3 Expertises techniques attendues Microsoft Windows Server (expertise) Active Directory Linux, RedHat Tanium RedHat Satellite Spacewalk Virtualisation VMWare (Vsphere, ESX, ESXi, ...) v
Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala
💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)
Mission freelance
Data Engineer / cloud Azure - Distribution - IDF (H/F)
Nous sommes un acteur majeur de la distribution. Au cœur de notre stratégie de transformation numérique, notre département IT déploie un programme ambitieux de rénovation de notre Système d'Information centré sur la data et le cloud (Azure). Cette mission s'inscrit dans une démarche de structuration de notre Big Data et de nos solutions BI répondant aux besoins critiques de nos métiers. ▶️ Missions Développer et mettre en œuvre des solutions d'analyses Big Data. Analyser les besoins, réaliser des études d'impact et concevoir des solutions techniques innovantes. Concevoir et modéliser des données dans un Data Lake utilisant des formats optimisés. Construire et optimiser des pipelines de données. Développer des notebooks avancés pour le traitement des données. Participer au Cloud Datawarehousing, incluant tuning et optimisation SQL. Rédiger des documentations techniques. Être impliqué dans la revue de code et les tests unitaires. Assurer la maintenance et l'évolution des solutions. Contribuer à l'optimisation des processus de livraison en environnement DevOps. 🔦Stack technique À maîtriser Azure Cloud Databricks, Spark Langages : Scala, Python, SQL CI/CD, Azure DevOps Architecture Lakehouse => Environnement technique global Outils Agile, notamment JIRA Environnement DevOps
Offre d'emploi
Data Analyst Senior F/H
Envie de participer à un projet ambitieux ? Envie d’allier la technique au relationnel ? Pilotage, coordination et gestion sont tes maîtres mots ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer notre DSI afin de définir la gouvernance et les politiques d’utilisation de la donnée au sein du Groupe, et de fournir des informations pertinentes et exploitables pour les métiers afin de les aider à prendre des décisions éclairées et d'optimiser leurs processus. Ton quotidien sera rythmé par : L’identification des besoins en données de l'entreprise et leurs objectifs d'analyse La participation aux ateliers d’expression des besoins internes La compréhension des problématiques métiers et leur traduction de manière analytique La définition et la garantie de la gouvernance des données de l’entreprise La rédaction des spécifications d’automatisation des règles de gestion des données La maîtrise de la qualité des données tout au long de leur traitement La mise en place et maintien du catalogue de données La collecte des données à partir des différentes sources Le nettoyage et la préparation des données L’analyse des données La création des tableaux de bord, des graphiques et des visualisations L’élaboration de rapports et des recommandations
Mission freelance
PMO technique - Lead Integration
Dans le cadre du développement d’un projet d’intégration technique au cœur du système, nous recherchons un(e) Coordinateur(trice) d’Intégration Technique pour superviser et coordonner l'intégration de 5000 connecteurs à travers 3 régions majeures : APAX, EMEA et Amérique. Vous serez en charge de la bonne mise en œuvre des intégrations techniques, en lien avec les équipes locales et les partenaires techniques, tout en assurant la cohérence entre les différents outils et systèmes utilisés dans le projet. Les régions concernées sont : APAX / EMEA / Amerique. Coordination des régions : Superviser les projets d'intégration pour les 3 zones géographiques (APAX, EMEA, Amérique) en veillant à la bonne exécution des intégrations techniques et en s'assurant du respect des délais et des contraintes locales. Gestion du portefeuille d’intégration : Suivre l'intégration de 5000 connecteurs sur le cœur du système (Core), en coordination avec les équipes internes et les prestataires externes. Optimisation des processus : Identifier des solutions pour améliorer l'efficacité des processus d’intégration, gérer les risques techniques et mettre en place des actions correctives si nécessaire. Outils techniques : Maîtrise des outils et technologies utilisés dans le cadre de l'intégration : Middleware Azure SQL Mulesoft Typecore Informatica Powershell Python Architecture des systèmes : Bonne compréhension des architectures de systèmes et des processus d'intégration, ainsi que des contraintes techniques liées à des environnements multi-régions. Expérience en gestion de projets d'intégration : Expérience confirmée dans la gestion de projets techniques d’envergure, de préférence dans le secteur du retail ou d’une activité similaire. Compétences en coordination : Excellentes compétences organisationnelles et capacité à coordonner des équipes à l’international.
Mission freelance
Data Analyst IOT & Analytics Anglais Courant
Contexte : Notre client, recherche un Data Analyst IoT & Analytics spécialisé en opérations et maintenance. En tant que membre clé de l’équipe data, vous serez responsable de l’ingestion, transformation et analyse des données IoT en provenance des équipements connectés pour optimiser la performance et la maintenance des opérations. Vous interviendrez dans un environnement technologique avancé, orienté cloud et big data. Missions principales : Ingestion de données : Assurer l’ingestion de données à froid dans le Datawarehouse Snowflake en utilisant Python et Airflow en remplacement de Talend. Traitement de données en temps réel : Mettre en œuvre et optimiser les solutions d’ingestion en temps réel avec Nifi pour des flux de données basés sur Kafka , API et AWS Lambda sous Python . Transformation de données : Utiliser SQS/SNS/Snowpipe pour gérer les flux d’ingestion de données vers Snowflake et transformer les données pour les rendre exploitables par les équipes de maintenance et opérations. Analyse de données IoT : Analyser les données IoT pour identifier des tendances et des patterns, soutenir la maintenance prédictive et améliorer les processus opérationnels. Collaboration inter-équipe : Travailler en étroite collaboration avec les équipes de maintenance et opérationnelles pour comprendre leurs besoins et fournir des insights exploitables. Documentation et reporting : Documenter les processus d’ingestion et transformation, et fournir des rapports analytiques sur les performances des équipements et les recommandations d’optimisation. Compétences techniques requises : Solide expérience avec Python et Airflow pour l’ingestion et le traitement des données. Connaissance approfondie de Snowflake comme Datawarehouse pour la gestion des données IoT. Maîtrise des technologies d’ingestion en temps réel, notamment Nifi , Kafka , API et AWS Lambda . Expérience avec SQS , SNS et Snowpipe pour l’automatisation de l’ingestion et la transformation des données. Bonne compréhension des concepts IoT et de l’analyse de données pour la maintenance prédictive.
Mission freelance
PC - Senior IAM expert SSOX - 23930-1 - 309
Senior IAM expert SSOX o profil sénior transverse, très bonne capacité de coordinateur des équipes techniques sur toute la partie authentification o Lead sur le SSOX o Très bonne maitrise du SAML o Expérience Serveur Unix/Linux, Shell Unix, Dynatrace o PKI opentrust o Capacité d’animation, méthodologie Agile - Safe – Scrum, Prince 2 ou équivalent Responsibilities: As a Security Engineer, you will apply security skills to design, build and protect enterprise systems, applications, data, assets, and people. You will provide services to safeguard information, infrastructures, applications, and business processes against cyber threats. You are expected to be an SME, collaborate and manage the team to perform. You will be responsible for team decisions and will engage with multiple teams and contribute on key decisions. Additionally, you will provide solutions to problems for your immediate team and across multiple teams. Expert proficiency in Authentication Operations is required.
Offre d'emploi
IT COORDINATEUR (H/F)
Notre client, entreprise multi-services, est à la recherche de son futur coordinateur IT, pour son site de Toulouse, dans le cadre d'un appel d'offre gagné. Vos missions : Dans le cadre d’une prestation en sécurité informatique, notre client recherche un(e) Coordinateur Sécurité chargé(e) de superviser et de coordonner les activités liées à la sécurité et à la conformité RGPD. Sous la direction du Directeur des Opérations et en collaboration avec le Responsable de la Sécurité, vos missions seront les suivantes : Encadrement et Supervision : •Fournir aux équipes opérationnelles le cadre de la sécurité et de la RGPD. •Superviser les activités quotidiennes de sécurité et de RGPD. •Piloter les Référents Sécurité locaux et intervenir en support pour la gestion des incidents. Gestion des Risques et Conformité : •Assurer une revue régulière des risques par pays et maintenir à jour le registre de sécurité du personnel. •Réaliser une revue annuelle des traitements d’activités selon la RGPD. •Contrôler les processus de sécurité appliqués ainsi que les accès logiques et physiques. Formation et Communication : •Former et sensibiliser les équipes à la sécurité et à la RGPD. •Mutualiser les processus et partager les bonnes pratiques. •Communiquer régulièrement sur les aspects de sécurité et animer les comités internes de sécurité. Gestion des Vulnérabilités et Veille Sécuritaire : •Gérer et suivre les vulnérabilités, les campagnes de patch et la sécurité des équipements. •Participer aux tests d’intégration pour valider le respect des exigences de sécurité et RGPD. Documentation et Reporting : •Contribuer à la mise à jour des documents internes (Livret d’accueil, RunBook). •Préparer et valider la documentation de sécurité avant transmission au client. •Suivre les évolutions du Plan d’Assurance Sécurité (PAS), du PCA/PRA et des plans de prévention.
Mission freelance
Ingénieur SysOps (Dynatrace)
Rejoignez notre équipe Cloud Operations en tant qu'Ingénieur SysOps Notre client, leader dans le secteur de l'environnement, est à la recherche d'un(e) Ingénieur(e) SysOps expérimenté(e) pour intégrer notre équipe Cloud Operations dynamique et innovante. Responsabilités principales Assurer la gestion, le déploiement et le monitoring des systèmes et applications cloud sur AWS Automatiser les processus d'exploitation à l'aide de Python et d'outils tels que Dynatrace Gérer les tickets d'incident et les demandes de service via ServiceNow Participer à la conception et à la mise en œuvre de solutions d'infrastructure cloud évolutives et sécurisées Qualifications requises Minimum de 7 ans d'expérience réussie dans un rôle d'ingénieur SysOps ou un poste similaire Excellente maîtrise des services cloud AWS Solides compétences en automatisation avec Python et familiarité avec les outils de monitoring comme Dynatrace Expérience avérée dans la gestion des tickets et des requêtes via ServiceNow Capacité à travailler de manière autonome et à gérer plusieurs projets simultanément Excellentes compétences en communication et en travail d'équipe
Offre d'emploi
Ingénieur Réseau H/F
Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences, et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Ingénieur Réseau H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg Secteur de l'assurance Vos missions seront : Le maintien en condition opérationnel des infrastructures : ● Gérer les incidents sur les infrastructures soit à distance via des télé actions, soit en coordonnant l'intervention des équipes de proximité. ● Ouvrir et gérer les tickets avec les constructeurs, que ce soit pour des remplacements d’équipements ou pour résoudre des dysfonctionnements. ● Élaborer et rédiger des plans d'opération pour les changements à effectuer, en détaillant les vérifications pré changement, post changement, ainsi que les plans de retour arrière. La prise en compte de nouvelles infrastructures : ● Rédiger les cahiers des charges pour l'intégration en exploitation des nouvelles infrastructures ● Préparer les dossiers techniques détaillés et les documents de recette des infrastructures réseau (validation des configurations, outils, mécanismes de redondance, etc.) ● Réaliser les tests de validation des nouvelles infrastructures. L'évolution des infrastructures : ● Gérer les projets d’évolution des infrastructures, tels que les mises à jour logicielles et les remplacements d’équipements ● Tester et documenter les procédures afin de garantir la réalisation des évolutions avec un impact minimal pour les clients. Le développement : ● Concevoir des scripts en Python pour collecter des données sur les équipements réseau et de sécurité, ou pour mener des actions de remédiation à l'échelle du parc ● Développer des playbooks Ansible, ou s'appuyer sur ceux existants, afin d'automatiser les tâches de remédiation et les actions sur l'ensemble du parc.
Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure
Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.