Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 463 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Expert.e SSO F/H

METSYS
Publiée le
Ansible
Internet Information Services (IIS)
ITIL

6 mois
50k-60k €
Paris, France

Dans le cadre d'une mission chez l'un de nos clients grand-comptes, je recherche un.e Expert.e SSO, qui travaillera au sein d'un équipe qui gère et gouverne les politiques d'accès. Le/ la candidat.e sera chargé.e du support et de la mise en oeuvre des projets sur les plateformes SSO et de gestion des Identités. Architecture et contribution au développement des feuilles de route SSO et LDAP Gestion de projets liés au SSO et LDAP, tout en fournissant une expertise technique sur ces sujets. Support et maintenance des plateformes de production Gestion des incidents et des problèmes et collaborer avec les équipes partenaires pour analyser les incidents amjeurs et critiques Gestion des changements etla qualité des changements Le/ la candidat.e devra également maîtriser des notions cryptographiques telles que RSA, le chiffrement symétrique et asymétrique, les certificats et signatures numériques, etc.

Freelance
CDI

Offre d'emploi
Architecte Data

VISIAN
Publiée le
Architecture
Big Data

3 ans
59k-94k €
Vélizy-Villacoublay, Île-de-France

Visian recherche pour un de ses clients grand compte un profil Architecte Data . Contexte : Au sein de la direction Architecture de notre client grand compte, l'Architecte de Data conçoit et met en œuvre l'architecture et la stratégie de données d'une organisation. Dans le cadre d'un programme de transformation numérique initié par le groupe, vous serez impliqué dans la conception et le soutien à la construction de l'environnement DATA 4.0. À cette fin, en tant qu'architecte data, vos principales missions seront de : Contribuer à l'architecture, à la mise en œuvre et à la pérennité de l'entreprise du point de vue technique et fonctionnel, en accord avec les architectes/expert IT de chaque domaine de compétence (Stockage, Réseau, etc.) afin de soutenir les données de l'entreprise et leur utilisation ; Formaliser la description des bases de données (modèle de données métiers et dictionnaire de définition) et s'appuyer sur le responsable des données ; Orienter les pratiques des Data Engineers de la plateforme (ingestion et exposition des données), ainsi que les responsables des pratiques en gestion des données, Dataviz et ingénierie ML avec la plateforme de données, responsables respectivement de la mise en œuvre de la gouvernance des données, de la dataviz et de la science des données ; Soutenir les projets informatiques (architecture) dans la définition des besoins métiers concernant la description et l'utilisation des données (concepts métiers, exigences métiers, utilisation des données dans les algorithmes, modèles de données, flux de données, etc.) et animer l'urbanisation des données du SI de l'entreprise ; Concevoir les produits et solutions de données soutenus par les équipes de la fabrique numérique (Data Factory) (BI, self-service, IA, IAGen, gestion des données) en fonction de la stratégie technique et industrielle du département IT en ce qui concerne les problématiques de données ; Orienter les projets en mettant en place et en appliquant des normes et standards applicables à la construction des données et à leur description, en particulier en utilisant le dictionnaire de données et les modèles métiers ; Porter la vision technique, en interne comme en externe, et encourager ses développements avec les équipes en ligne avec la stratégie globale ; Contribuer à la qualité du contenu du dictionnaire de données et des modèles de bases de données dans le temps, et mettre en place des outils pour garantir la pérennité des données Assurer la gestion des changements de données (formation à l'utilisation des données, communication), mais aussi sur les évolutions en matière de normes et standards de données, sur l'évolution du dictionnaire et des modèles de données.

CDI
Freelance

Offre d'emploi
DATA ENGINEER AZURE SCALA PYSPARK

DATSUP
Publiée le
Azure
Databricks
PySpark

2 ans
10k-51k €
Île-de-France, France

Vous rejoindrez une Data Factory, dont l'objectif est de concevoir et déployer des solutions Analytics innovantes pour les magasins, les fonctions support, la logistique, et surtout, les consommateurs. Notre client visent à industrialiser nos pratiques pour accélérer la livraison de nos produits tout en maximisant l'utilisation de notre patrimoine de données. Vous intégrerez une squad dédiée au développement de cas d'usage en BI, Analytics et Data Science, sur leur plateforme Data hébergée sur le Cloud Azure.

Freelance
CDI
CDD

Offre d'emploi
Data Engineer

Halian
Publiée le
Big Data
Snowflake

2 ans
80k-200k €
Belgique

Nous recherchons deux Ingénieurs Data — Medior — pour concevoir, implémenter et optimiser des solutions de données basées sur le cloud. Les candidats idéaux travailleront sur des plateformes de données modernes comme Snowflake et des outils comme DBT et Wherescape RED pour soutenir nos initiatives de data warehouse, y compris l'adoption de l'architecture Data Vault 2.0. Principales responsabilités : Concevoir et implémenter des processus ETL pour migrer des données d'Oracle vers Snowflake en utilisant DBT. Développer des solutions de données cloud en utilisant des outils comme DBT pour la transformation des données. Travailler avec le cadre Data Vault 2.0 pour concevoir des solutions de data warehouse évolutives. Collaborer avec des équipes interfonctionnelles pour implémenter des pipelines CI/CD pour les workflows ETL. Rédiger et maintenir une documentation complète pour les processus ETL et les pipelines de données. Compétences et exigences : Outils : DBT, Wherescape RED, Snowflake, Oracle, Azure Synapse. Programmation : SQL, Python, ou d'autres langages de programmation modernes similaires. Contrôle de version : Maîtrise de Git pour le développement en mode trunk-based. Tests : Expérience en tests d'intégrité des données, de performance et de régression. Connaissances : Data Vault 2.0, concepts modernes de data warehousing. Résumé du rôle : Le rôles est axés sur la création de pipelines de données efficaces et évolutifs en utilisant des technologies cloud telles que Snowflake et DBT. et est davantage concentré sur l'exécution pratique et la livraison des projets. Pour postuler, envoyez votre CV et vous contacterons dans les plus brefs délais.

Freelance

Mission freelance
Analytics Engineer (H/F) – Paris

Espace Freelance
Publiée le
Python

12 mois
100-550 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Analytics Engineer (H/F) – Paris Mission à pourvoir en régie sur Paris Présence sur site : 3 jours / semaine Compétences obligatoires : Python ; Scheduling Airflow ; Data Governance ; DBT ; SQL ; Data Modeling Votre mission : - Automatisation et industrialisation des pipelines de transformation de données servant aux Dashboards, modèles IA et data analyses - Construction et modélisation de la semantic layer de domaine métier - Définition de la stratégie des stacks techniques et garantie de la qualité des données exposées - Maintien des datasets et pipelines existants REF : EFP/NQS/ODVB Plus d’offres sur :

Freelance

Mission freelance
Suivi et mise en place de processus industriel et SI

Mon Consultant Indépendant
Publiée le
AMOA
Analyse
Data analysis

10 mois
560-620 €
Bordeaux, Nouvelle-Aquitaine

Pour un acteur industriel basé à Bordeaux, nous recherchons un(e) profil freelance fonctionnel, SI, analytique, pour accompagner la mise en place de processus industriel. Qualités recherchées : · Être capable de suivre un arbre de décision/logigramme (nombreux cas possibles) : commande fournisseur interne déjà passée, sous ensemble déjà fabriqué en ébénisterie · Être à l’aise avec les systèmes d’information et les données · Être très rigoureux(se) et réactif(ve) · Avoir un esprit analytique, nécessaire à la résolution de problèmes · Avoir idéalement une expérience en Industrie / manufacturing Missions : · Vérifications de données · Identification d’erreurs sur l’ERP · Traitement des modifications de commande et des modifications des référentiels. · Sécurisation de l’application des modifications de commande et le calcul du besoin en matière suite aux modifications. · Coordination avec le service des données techniques, le service planification, l’ADV et la production

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
Mission AMOA pour ex Responsable d'exploitation Data Center

Clémence Consulting
Publiée le
Data Center
Exploitation

4 mois
540-930 €
Paris, France

Dans le cadre de la création d'un nouvel opérateur de Data Center, de la définition et de la mise en oeuvre du SI d'exploitation d'un nouveau Data center, nous recherchons un ancien Directeur d'exploitation de Data Center ou un profil analogue (expérience indispensable en exploitation d'un Data Center en tant qu'opérateur de Data Center pour des Clients) pour collecter les besoins, les challenger et rédiger toutes les spécifications : comprendre le besoin du métier, le challenger, et formaliser.

CDI

Offre d'emploi
Chef de projet infrastructure datacenter

MGI Consultants
Publiée le
Data Center

10k-70k €
Vincennes, Île-de-France

Au sein de l’entité en charge de l’exploitation des Datacenters ainsi que les projets de mutualisation et de consolidation des Datacenters du Groupe en France et à l’international, nous recherchons un chef de projet afin d’améliorer la qualité de la gestion de la demande (projet et RUN). Principales tâches : La gestion de l’ensemble des demandes émanant du partenaire et/ou client ainsi que de l'entité Datacenter (récolter les besoins fonctionnels et techniques des besoins clients afin de les soumettre aux équipes Datacenter) Le Pilotage et suivi de l'avancement des projets (livrables des services) avec une analyse mensuelle du respect des SLA, de la mise en place et suivi des points d'améliorations Le suivi budgétaire de son périmètre Garantir la qualité et la continuité du service dans le respect des contrats de services La gestion des reporting mensuel (Projet et Run) ainsi que diverses documentations Expliquer les contraintes et les problèmes rencontrés lors de la livraison du service La gestion et le suivis de la roadmap projets (respect des délais de livraison et remonté des anomalies de traitement pour améliorations)

Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
300-600 €
Nanterre, Île-de-France

CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)

CDI
Freelance

Offre d'emploi
Developpeur Qlikview,Power BI, Azure, OLAP,OLTP,modèle en étoile, flocon, Datamart/Datawarehouse

Inventiv IT
Publiée le
Azure
Data Warehouse
Microsoft Power BI

12 mois
42k-59k €
Paris, France

La mission intervient dans le cadre du maintien en conditions opérationnelles (MCO) puis de la migration d’un projet de reporting BI, actuellement sous Qlik View et devant migrer à terme vers Power BI. Le développeur BI Qlik participera à la maintenance évolutive des reporting Qlik View. Par la suite (horizon 1 an), il participera aux études et à la migration de ces applications de Qlik vers Power BI. S’agissant d’un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l’équipe projet, il n’y a pas de responsabilité de production individuelle. Les sprints projet s’échelonnent généralement sur 2 semaines.

Freelance

Mission freelance
Network Security Architect

Neotrust
Publiée le
Ansible
Architecture
Automatisation

12 mois
700-780 €
Provence-Alpes-Côte d'Azur, France

Notre client, un grand groupe international, recherche un Cybersecurity Architect très qualifié et expérimenté, avec un fort accent sur la sécurité des réseaux, pour rejoindre l’équipe Cloud & Architecture Cybersecurity en pleine croissance. Le candidat idéal sera responsable de la conception, de la mise en œuvre et du maintien d'architectures de sécurité robustes qui protègent l'infrastructure réseau et les données sensibles de notre organisation. Ce rôle exige une compréhension approfondie des principes, des architectures et des technologies de sécurité des réseaux afin de garantir la sécurité des systèmes contre les menaces actuelles et émergentes. LE RÔLE - OBJECTIF DU POSTE Le Network Security Architect est responsable de la sécurité de la connectivité entre tous les sites du client, qu'ils soient dans le Cloud ou sur site. PRINCIPALES RESPONSABILITES Conception et mise en œuvre : - Développer et mettre en œuvre des architectures de sécurité réseau complètes alignées sur les objectifs et les politiques de sécurité de l'organisation. - Concevoir des solutions de réseau sécurisées, y compris des pare-feu, des VPN, des systèmes de détection/prévention des intrusions (IDS/IPS) et des systèmes de contrôle d'accès au réseau (NAC). - Elaborer des stratégies de segmentation du réseau afin de limiter l'accès et de réduire la surface d'attaque. Évaluation et gestion des risques : - Procéder à des évaluations approfondies des risques et à des analyses de vulnérabilité afin d'identifier les risques de sécurité potentiels dans les infrastructures de réseau. - Élaborer et mettre en œuvre des stratégies d'atténuation pour remédier aux vulnérabilités et aux risques identifiés. - Collaborer avec les équipes informatiques et opérationnelles pour intégrer des contrôles de sécurité dans les conceptions de réseaux existants et nouveaux. Politiques de sécurité et conformité : - Élaborer, mettre en œuvre et maintenir des politiques, procédures et normes de sécurité du réseau en conformité avec les meilleures pratiques de l'industrie et les exigences réglementaires (par exemple, PCI-DSS, HIPAA, GDPR). - Collaborer avec les équipes d'audit interne et de conformité afin de remédier à tout problème lié à la sécurité du réseau. Surveillance et réponse aux incidents : - Concevoir et mettre en œuvre des solutions de surveillance de la sécurité afin de détecter les incidents de sécurité du réseau et d'y répondre. - Collaborer avec l'équipe chargée des opérations de sécurité afin d'établir et de maintenir un plan de réponse aux incidents de sécurité du réseau. Évaluation et innovation technologiques : - Évaluer et recommander de nouvelles technologies et solutions de sécurité afin d'améliorer la posture de sécurité du réseau. - Diriger les initiatives de PoC pour les nouveaux outils et solutions de sécurité. Formation et sensibilisation : - Fournir des conseils et une formation aux équipes IT et aux autres employés sur les meilleures pratiques et politiques en matière de sécurité du réseau.

Freelance

Mission freelance
Business Analyst Customer Data 360 & CRM

W Executive France SAS
Publiée le
Agile Scrum
Big Data
Salesforce Sales Cloud

6 mois
100-350 €
Roissy-en-France, Île-de-France

Intégré(e) à la direction Marketing au sein du Customer Data Management (CDM) vous contribuerez au projet OneCRM dans un environnement complexe, international et transverse. Vous travaillerez au cœur de l’application Operational Customer Experiences (OCP), basée sur des technologies Big Data , qui capture et expose en temps réel des centaines d’événements au cours du parcours client. Dans ce rôle, vous serez responsable de la préparation des données clients pour un certain nombre de campagnes de communication (email, mobile, SMS), en coordination avec les parties prenantes internes (IT, projet OneCRM, architectes) et externes. Vous assurerez l’acquisition de nouvelles données, l’analyse des données existantes, et la validation des développements techniques. Analyse des données : Identifier les données disponibles, celles manquantes, et déterminer les règles de transformation. Gestion des campagnes : Préparer les données pour les campagnes de communication (email, app mobile, SMS) dans un contexte international. Suivi des développements : Accompagner les équipes techniques et valider les résultats. Qualité des données : Veiller à la qualité et à la fiabilité des données utilisées pour les campagnes. Documentation : Rédiger les règles métiers associées aux données et aux campagnes. Communication : Assurer un reporting régulier sur les réalisations et les avancées du projet auprès des parties prenantes.

Freelance
CDI

Offre d'emploi
Architecte réseau sécurité - (H/F)

SWING-ONE
Publiée le
Ansible
AWS Cloud
Cybersécurité

1 an
50k-70k €
Île-de-France, France

1) Contexte de la mission : Notre client Grand-Compte du luxe recherche un architecte réseau sécurité. L’architecte réseau et sécurité a pour principales missions : la définition d’architecture d’une solution standard, la spécification en réponse à un besoin client, la réalisation d’un cadrage, l’étude d’une solution répondant aux demandes études ou projets de la société cliente. Les infrastructures réseau et sécurité sont répartis sur plusieurs data centers world wide (firewall, VPN, switchs data center, Radius, DDI, DNS externe, Loadbalancing) et Cloud. 2) Missions du poste : En tant qu’architecte réseau sécurité, votre mission consistera à : Cadrer les demandes projet réseau sécurité affectées à l’équipe TP Network dans un contexte complexe et international. Réaliser des POC et proposer des solutions d’évolution des infrastructures réseau et sécurité. Rédiger les documents d’architecture et animer des réunions en anglais. Réaliser des opérations de migration. Piloter des intégrateurs. 3) Jalons clés : Validation des accès aux infrastructures et outils. Prise en compte du contexte de la société cliente : documentation et Process. Prise en compte des premières demandes et projets.

Freelance
CDI

Offre d'emploi
Data engineer ELK - Opensearch/Kafka

Digistrat consulting
Publiée le
Ansible
Apache Kafka
ELK

3 ans
40k-60k €
Paris, France

Contexte: Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur ELASTIC/OPENSEARCH et KAFKA Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search et Kafka L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs

CDI

Offre d'emploi
Data Engineer

Rædy
Publiée le
Alteryx
Data visualisation
MySQL

10k-55k €
Île-de-France, France

🎉 Nous recrutons un(e) Data Engineer passionné(e) ! 🎉 Vous rêvez de rejoindre une équipe dynamique, de contribuer à des projets novateurs et de transformer des volumes massifs de données en informations stratégiques ? Cette opportunité est faite pour vous ! Nous recherchons un(e) Data Engineer motivé(e), prêt(e) à relever de nouveaux défis et à impacter nos décisions grâce à des analyses approfondies. 🌟 🔍 Exploration et transformation des données Vous serez en charge de collecter, traiter et structurer des données brutes provenant de diverses sources, afin de les rendre exploitables et utiles pour les équipes métiers. 📊 Dataviz avec Tableau Software Grâce à Tableau, vous allez concevoir des tableaux de bord interactifs et visuels, permettant de traduire les données complexes en insights clairs et actionnables pour l'ensemble des parties. ⚙️ Mise en œuvre de DBT (Data Build Tool) Vous utiliserez DBT pour créer, gérer et optimiser des pipelines ETL (Extract, Transform, Load), garantissant ainsi un flux de données continu et de qualité entre nos différentes plateformes. 🛠 Manipulation des données avec Alteryx et SQL Vous travaillerez sur Alteryx pour automatiser des processus de manipulation de données et utiliserez SQL pour interroger, structurer et organiser les bases de données. 📈 Création de rapports et tableaux de bord Vous créez des rapports spécifiques à chaque métier, en répondant aux besoins d'analyse et en alimentant des tableaux de bord via Tableau Software et DBT pour un suivi continu. 💡 Optimisation et automatisation Vous serez également impliqué(e) dans l'amélioration continue des processus existants, en automatisant certaines tâches répétitives à l'aide des outils à votre disposition. Prêt(e) à transformer les données en insights précieux ? Rejoignez-nous et devenez un acteur clé de notre réussite ! 📈

463 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous