Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Administrateur des Systèmes de Gestion de Données
Description du Poste : L'Administrateur des Systèmes de Gestion de Données est responsable de la gestion, de l'administration et de l'optimisation des bases de données et des référentiels de l'entreprise. Il garantit la cohérence, la qualité et la sécurité des données, tout en participant activement à la mise en œuvre des solutions retenues par les projets. Missions Principales : Gérer et maintenir les infrastructures logicielles de bases de données (ORACLE, SYBASE, SQL Server) en environnement distribué. Traiter les incidents et optimiser les performances des bases de données. Assurer la continuité des services et participer aux tests de back-up. Documenter les configurations et rédiger les consignes pour les supports de niveaux 1 et 2. Déployer les bases de données dans le cadre des projets techniques et métiers. Assister les équipes études pour l’optimisation des requêtes SQL et des procédures stockées. Collaborer étroitement avec les équipes Études, Infrastructures, et Sécurité. Participer aux projets d'évolution des infrastructures de bases de données. Garantir l’intégrité, la sécurité et la performance des bases de données en exploitation. Assurer un support technique de second niveau et être l'interlocuteur technique des chefs de projets.
Mission freelance
Data Leader
D’une durée prévue de 4 mois à mis temps, et piloté par un membre de l’équipe Data du Conseil Interne, vous accompagnerez entre autres la Direction de la Communication et des Engagements dans : o Les réflexions menées sur un modèle Data Driven o L’identification et la définition d’un sous-domaine Data / Cas d’usage transverse à expérimenter o Sur le sous-domaine sélectionné L’identification des données pertinentes au regard du sous domaine Data La définition des pratiques d’animation et de pilotage des données
Mission freelance
Ingénieurs réseau et sécurité
CONTEXTE Dans le cadre d’une mission longue MISSIONS Savoir-faire opérationnel - Mettre en œuvre les méthodes et outils de diagnostic et de résolution de problèmes - Réaliser les ajustements au regard des impacts des facteurs de risques identifiés - Adapter et appliquer la méthodologie au contexte de production informatique - Utiliser les outils et techniques appropriées - Appliquer les procédures de sécurité informatique - Assurer le maintien de la qualité de service - Prendre toutes les dispositions pour respecter les conditions de gestion des dysfonctionnements - Alerter l’équipe et le Responsable SI sur les facteurs de risques identifiés et sur les différents niveaux de dysfonctionnement - Recueillir les données et tenir à jour les tableaux de bord - Rédiger les rapports d’études et d’audits - Rédiger les comptes rendus - Respecter et appliquer les règles de la confidentialité et du secret professionnel - Savoir faire preuve d’autonomie, de polyvalence et de rigueur - Détecter et résoudre les anomalies/erreurs en mettant en évidence leur origine Savoir-faire relationnels - Adopter un comportement relationnel adapté - Savoir être à l’écoute des services clients - Travailler en équipe en partageant ses informations et en mettant son savoir-faire au service du collectif - Collaborer avec les services clients - Transmettre des informations et renseigner ses interlocuteurs de façon claire, appropriée et compréhensible
Mission freelance
Consultant décisionnel BI (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Consultant décisionnel BI (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : 50 % sur site Lyon Les missions attendues par le Consultant décisionnel BI (H/F) : Activité principale o Analyser les besoins fonctionnels et techniques autour de l'exploitation des données et leur utilisation dans le pilotage de processus métier. o Garantir l’adéquation besoin/développement afin de répondre aux questions et de compléter au besoin o Préparer et animer des ateliers avec le métier et ses représentants utilisateurs o Aide à l'expression de besoins, les user-stories, les spécifications o Localiser les données de production permettant de répondre au besoin Activité secondaire o Livrer et déployer ses livrables o Participer aux revues de code o Assurer le suivi et le maintien en conditions opérationnelles de ses livrables en production Stack technique du projet Hadoop, Spark, Angular, Spring, Java, Kafka, PostgreSQL, GIT, Jenkins, Ansible, Docker, Kubernetes, ElasticSearch, Tableau desktop, HELM, PowerBi Compétences attendues sur le profil o Connaissance des outils de gestion de code et de déploiement projet o Aide à la définition des solutions et architectures techniques décisionnelles o Accompagner le métier tout au long de la réalisation du projet o Optimiser la performance de ses livrables o Animer des ateliers de recueil et analyse des besoins o Si nécessaire, accompagner les intervenants projet impliqués dans la mise en œuvre du besoin (développement de sources de données Big Data, devops, etc.) o Accompagner et former le métier tout au long de la réalisation du projet o Optimiser la performance de ses livrables o Maitrise des fondamentaux de l’agilité o Maîtrise avancée des outils de base BI utilisés par le projet (Base de donnée relationnelle, ETL, Outil de reporting) o Maitrise forte des technologies employées sur le projet concerné (par défaut) ou décrit dans la mission
Offre d'emploi
Architecte cloud Azure
Dans le cadre de son développement, l'entreprise recherche un Architecte Cloud Azure talentueux pour rejoindre son équipe. En tant qu'Architecte Cloud Azure, vous serez responsable de la conception, de la mise en œuvre et de la gestion des solutions Cloud sur la plateforme Azure. Vous collaborerez avec les équipes internes pour comprendre leurs besoins et traduire ces exigences en solutions Cloud efficaces et sécurisées. Vous jouerez un rôle clé dans la stratégie Cloud de l'entreprise et veillerez à ce que les solutions soient alignées avec les meilleures pratiques et les objectifs d'affaires. Concevoir et architecturer des solutions Cloud sur Azure en fonction des besoins techniques et opérationnels. Collaborer avec les équipes de développement, les équipes de systèmes et les parties prenantes pour assurer l’intégration et la mise en œuvre des solutions. Évaluer les besoins des clients et recommander des solutions Cloud adaptées en termes de performance, de coût et de sécurité. Mettre en œuvre des politiques et des meilleures pratiques en matière de sécurité et de gouvernance Cloud. Assurer une veille technologique continue et proposer des améliorations pour optimiser les solutions existantes. Fournir un soutien technique et des conseils pour les projets liés au Cloud Azure. Diplôme en informatique, en ingénierie ou dans un domaine technique similaire.
Mission freelance
Data Engineer Stambia Snowflake
Cherchent un Data ingénieur, un expert Stambia ++ Quelqu'un qui a de l'expertise dans la transformation de Data dans Snowflake Aspect BI important aussi Snowflake DBT (Data Build Tool) : quelqu'un qui a déjà fait de la transformation de flux stambia vers DBT Missions : Analyser, estimer le travail à réaliser et concevoir des solutions à partir des besoins apportés par les Products Owners et les équipes métier Enrichir le Datawarehouse (Snowflake) avec de nouvelles data Transformer et préparer la data (Mapping, table de fait, agrégation, ordonnancement) Construire la data visualisation et les reportings sur Tableau (datasource, dashboard) La stack technique, que l'on souhaite retrouver dans les expériences/formations des consultants, est la suivante : Snowflake, Tableau , Stambia
Offre d'emploi
Chef de projet Cognos TM1
Nous recherchons pour un de nos clients un(e) Chef de projet Cognos TM1 pour compléter leur équipe BI dans l'environnement Media avec une expertise particulière dans l'intégration des données et la création de solutions de reporting. Des projets visant à consolider les données provenant de diverses sources, à les intégrer de manière harmonieuse, et à développer des outils de reporting interactifs et analytiques. L'objectif est d'offrir aux équipes opérationnelles et aux dirigeants des insights pertinents pour améliorer les performances et optimiser les opérations. S'assurer que chaque initiative est menée à bien dans le respect des délais, des budgets, et des objectifs fixés, tout en maintenant une communication fluide entre toutes les parties prenantes. - Maitriser le bon fonctionnement des rapports comptabilité, financier, et régie publicitaire au travers de l’environnement BI (COGNOS, ODI, TM1). - Apporter une expertise sur la configuration des données du Data Warehouse, sur les connecteurs aux différents environnements opérationnels et sur la qualité des données. - Participer à la rénovation de l’environnement BI en place et à la refonte des rapports existants à partir des outils mis à jour, et sur une infrastructure plus moderne de type Cloud
Offre d'emploi
Ingénieur Snowflake/ADF
Nous cherchons un consultant Data Integration Senior pour nous accompagner sur la réalisation du projet de construction du datalake des équipes Group Digital. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. 30 sources de données référentiels et données applicatives de l’éco-système Cybersécurité sont à intégrer en 2024, différents protocoles de collecte : API, SFTP, Base de données. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.
Offre d'emploi
Consultant(e) MOA Analyse Sources Externes de Données de Marché
En tant que Consultant(e) MOA en analyse de sources externes de données de marché , vous intégrez un grand compte bancaire afin d’analyser les modes de consommation des données de plusieurs Directions (Actifs, Risques, Finance, Politiques Sociales etc.), d’identifier les facteurs de coûts puis de proposer des solutions de réduction des charges en termes de : Mode de consommation ; Organisation métier ; Apport des systèmes d’information dans la solution à envisager. Vous aurez pour missions : -Cartographier et d’identifier les usages de ces données -Identifier les autres solutions proposées par les fournisseurs de données pouvant permettre de répondre à ces usages -Proposer des nouveaux modes d’accès aux données répondant aux usages métiers en s’appuyant sur les solutions fournisseurs mais également les solutions socles proposées par le département Solutions des Données Transverses -Accompagner les métiers dans la transformation de leurs activités vis-à-vis de ces nouveaux modes de consommation
Mission freelance
Ingénieurs Cloud et virtualisation
Dans le cadre d’une mission longue MISSIONS Savoir-faire opérationnel - Mettre en œuvre les méthodes et outils de diagnostic et de résolution de problèmes - Réaliser les ajustements au regard des impacts des facteurs de risques identifiés - Adapter et appliquer la méthodologie au contexte de production informatique - Utiliser les outils et techniques appropriées - Appliquer les procédures de sécurité informatique - Assurer le maintien de la qualité de service - Prendre toutes les dispositions pour respecter les conditions de gestion des dysfonctionnements - Alerter l’équipe et le Responsable SI sur les facteurs de risques identifiés et sur les différents niveaux de dysfonctionnement - Recueillir les données et tenir à jour les tableaux de bord - Rédiger les rapports d’études et d’audits - Rédiger les comptes rendus - Respecter et appliquer les règles de la confidentialité et du secret professionnel - Savoir faire preuve d’autonomie, de polyvalence et de rigueur - Détecter et résoudre les anomalies/erreurs en mettant en évidence leur origine Savoir-faire relationnels - Adopter un comportement relationnel adapté - Savoir être à l’écoute des services clients - Travailler en équipe en partageant ses informations et en mettant son savoir-faire au service du collectif - Collaborer avec les services clients - Transmettre des informations et renseigner ses interlocuteurs de façon claire, appropriée et compréhensible
Offre d'emploi
Développeur Data
Nous recherchons un Expert Technique Senior pour participer à un projet stratégique de refonte de notre Data Lake. Ce projet vise à répondre de manière flexible et agile aux besoins métiers, et apporter une valeur ajoutée autour de la donnée. Missions principales : Participer au développement du Framework de gestion des flux de données Contribuer à la conception et l'architecture technique de la solution cible Proposer des solutions innovantes Être force de proposition sur le design des solutions techniques Rédiger les dossiers techniques et autres documentations nécessaires Assurer la cohérence technique des différents modules du projet Réaliser et automatiser les tests sur les outils/modules développés Veiller au respect des délais Accompagner la phase de validation business en UAT et PROD Préparer le roadbook de migration et participer à la mise en production
Mission freelance
Développeur Big Data - Spark et Scala
Poste : Développeur Big Data Spécialisation : Spark, Scala Langues : Anglais Courant (Impératif) Environnement : Agile, anglophone Contexte du Poste : Nous recherchons un Développeur Big Data expérimenté pour rejoindre notre équipe dynamique afin de mener à bien la migration de jobs Talend vers des solutions basées sur Spark. Le candidat idéal doit avoir une solide expérience en Spark et Scala et être capable de travailler efficacement dans un environnement anglophone et agile. Responsabilités : Migration des Jobs : Analyser et comprendre les jobs Talend existants. Concevoir et développer des équivalents en utilisant Apache Spark. Assurer une transition fluide des processus ETL de Talend à Spark en minimisant les interruptions de service. Tester et valider les jobs migrés pour garantir la précision des données et les performances requises. Développement et Optimisation : Développer des solutions de traitement de données à grande échelle en utilisant Apache Spark et Scala. Optimiser les performances des jobs Spark pour gérer efficacement de grands volumes de données. Collaborer avec les équipes de développement pour intégrer les solutions Spark dans les pipelines de données existants. Collaboration et Documentation : Travailler en étroite collaboration avec les équipes de data engineering, data science et autres parties prenantes pour comprendre les besoins et les exigences. Documenter les processus de migration, les architectures de solution et les meilleures pratiques. Participer aux réunions d'équipe Agile, contribuer aux rétrospectives et s'adapter aux changements de priorités. Support et Maintenance : Fournir un support technique pour les jobs Spark en production. Identifier et résoudre les problèmes liés aux performances ou aux erreurs de traitement des données. Mettre en place des processus de surveillance et d'alerte pour assurer la stabilité et la fiabilité des solutions mises en œuvre.
Offre d'emploi
Administrateur DB2 confirmé Z et open
La prestation se déroulera au sein de l’équipe BDZ de notre client. Vous serez dans le pôle administration DB2 avec contribution sur la réplication de données (Z et Open) et la gestion des accès DB2 distants (Client DB2 connect, drivers JDBC). Missions : Administrer et maintenir en condition opérationnelle les dispositifs, outils, procédures et politiques autour de Db2 gérés par notre client pour le compte de ses clients : Gérer les montées de versions et les obsolescences, Suivre le fonctionnement technique des composants Db2 et des logiciels associés ou satellites, Z et Open Z Mener les évolutions techniques et fonctionnelles, Mener des opérations de fiabilisation et d’optimisation ; Administrer les objets DB2 (gestion des évolutions de structure, sauvegarde /restauration, réorganisation) En contribution sur des projets Métiers ou techniques, En contexte d’incident ou de remontée d’alerte ou d’anomalies de comportement avec activation et participation aux procédures d’escalade et de crise, Fournir un support technique et méthodologique aux équipes opérationnelles et projets ou de la relation client. Les périmètres de la mission sont les suivants : Sous-systèmes Db2 et Groupe Data-Sharing Db2 sur plateformes Z. Objets DB2 contenus dans ces sous-systèmes Logiciels associés en réplication (IBM IDR, Qlik, autres). Composants DB2-Connect de la plateformes VM/Cloud
Offre d'emploi
Data Analyst /Business Analyst
Missions : - Participer activement à l'équipe projet. - Comprendre les usages des données digitales éditoriales par nos métiers (Sales, Care, Marketing, Pôle Editorial) et nos clients. - Comprendre le parcours des données de nos différents sites web éditoriaux, depuis leur génération jusqu'à leur collecte, leur stockage, leur transformation, leur modélisation et leur restitution en dataviz. - Réaliser des analyses quantitatives et qualitatives des données sources disponibles, et sur l'ensemble de la chaîne, en fonction des cahiers des charges existants (génération via les plans de tracking, collecte des données via l'outil web analytics, et chacune des étapes de transformation et de modélisation pour un usage BI). - Interpréter ces analyses et élaborer des rapports de diagnostics pour soutenir une stratégie d'optimisation de toute la chaîne d'exploitation des données d'usages. - Contribuer aux évolutions nécessaires pour répondre aux enjeux Business et BI, en collaboration avec l'équipe PO/DEV BI.
Mission freelance
Product Manager (h/f)
Nous sommes actuellement à la recherche d'un Product Manager F/H pour notre client grand compte dans le secteur Retail basé dans le Nord. Contexte de la mission Votre mission principale consistera à concevoir et implémenter des processus et algorithmes visant à optimiser le taux de matchmaking Vous travaillerez en étroite collaboration avec des équipes Data, des experts techniques (TechLead et développeurs), des product designers et d'autres parties prenantes externes. Responsabilités : Vous serez responsable du Product Backlog. Vous vous assurerez que la direction métier suivie est appropriée, que les priorités sont respectées en fonction de la valeur métier, et que la qualité des livrables de chaque cycle agile correspond aux attentes. Vous serez en mesure de prendre des décisions concernant le périmètre des besoins métiers Missions principales : Vision et stratégie produit : Élaborer et partager la vision du produit avec les équipes, identifier les attentes des utilisateurs, planifier les releases/versions du produit. Priorisation : Prioriser les user stories et maintenir le Product Backlog pour maximiser la valeur métier. Facilitation et collaboration : Faciliter la compréhension du besoin métier au sein des équipes agiles, décrire les fonctionnalités sous forme de user stories, et collaborer efficacement avec les parties prenantes. Recette et validation : Accepter ou refuser les stories implémentées, organiser les tests utilisateurs/métier, et assurer la non-régression des nouvelles versions. Reporting et communication : Communiquer sur l'avancement du produit et livrer des arbitrages en cours de développement.
Mission freelance
Data Scientiste
Nous sommes à la recherche d'un(e) ingénieur(e) de données/scientifique avec une expérience de travail avec des entreprises biomédicales/pharmaceutiques. Client : Industrie biomédicale Rôle : Data Curation Engineer Lieu de travail : Paris // Un jour sur site par semaine Durée du contrat : 3 mois renouvelables (Projet à long terme) Date de début : ASAP Votre objectif est de travailler au sein d'une équipe interfonctionnelle (Data Engineers & Data Scientists) sur le pipeline de qualité des données. Vous configurerez et exploiterez des scripts et des pipelines de données, avec des étapes comprenant l'extraction, le nettoyage, la curation et l'imputation de différents ensembles de données de patients.# Principales responsabilités : Participer au pipeline de qualité des données Vous vous assurez que les données sont alignées sur les normes et conventions du client (par exemple, codage, terminologies). Travailler en étroite collaboration avec l'équipe Data Engineering Configurer et exploiter des scripts et des pipelines de données afin de fournir des données conformes aux normes du client. Exécuter régulièrement les pipelines de contrôle conçus par les Data Scientists, transférer les données traitées dans les ensembles de données respectifs et assurer la conformité de la structure des ensembles de données. Assurer la structure et la révision des fichiers (versionnement, suivi, renommage, ingestion, formatage). Vous êtes en charge de la préparation et de la révision de rapports qualitatifs et quantitatifs détaillés sur les activités et les problèmes liés à la curation des données, à destination des clients et des parties prenantes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes