Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 456 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Analytics Engineer H/F

Insitoo Freelances
Publiée le
Github
Google Cloud Platform
Microsoft Power BI

2 ans
420-500 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analytics Engineer H/F à Lille, Hauts-de-France, France. Contexte : Au sein de la direction Data International, nous recherchons un Analytics Engineer afin de renforcer la palette de compétences présentes au sein de nos équipes composées de Product owner, Data Analyst & Data Engineer Les missions attendues par le Data Analytics Engineer H/F : - Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI - Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. - Assure la maintenance de ce qui a été produit. - Réalise des recettes techniques et fonctionnelles. - Veille au respect des normes et des pratiques de référence de la Data. - Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données - Garantit l’alignement et la cohérence des solutions data - Travaille en étroite collaboration aussi bien avec les équipes techniques que métier.

Freelance

Mission freelance
Consultant data science / Chef de projet data

BLOOMAYS
Publiée le
Data science
Gestion de projet

12 mois
450-600 €
Pantin, Île-de-France

Mission en freelance à pourvoir ASAP à Pantin (93) au sein d'un DataLab chez le client final Les missions : - Mettre en œuvre et de déployer avec succès des outils d’aide à la décision (Business Intelligence & Intelligence Artificielle) - Initier et Participer activement aux programmes de transformation axée sur leurs données (Data Gouvernance). - Imaginer de nouveaux usages de la data applicables aux business de nos clients Apporter de la pédagogie auprès du client, accompagnement, conseil, encadrer ce qui est faisable ou non, capacité à comprendre les enjeux de modélisation, d’analyser la structure business des métiers Intervention sur l’acculturation, traiter des problématiques d’efficacité opérationnelle, sortir des cas d’usages, puis emmener un poc vers l’industrialisation

CDI

Offre d'emploi
Technicien Datacenter H/F

METALINE SERVICES
Publiée le
Data Center
Routing & Switching (R&S)
VLAN

23k-34k €
Bussy-Saint-Georges, Île-de-France

Fort de 35 années d'expérience, METALINE se distingue par son engagement envers les services clients et son dévouement à accompagner les utilisateurs avec excellence. Le groupe est actif dans les domaines de l'infogérance Digital Workplace, Data Center et des Télécoms. Acteur incontournable des Services Managés, METALINE assure le maintien en conditions opérationnelles de l'infrastructure des systèmes d'Information. Les secteurs d'activités de nos clients sont variés : banque & assurance, industrie, télécoms, Grande Distribution... Le groupe compte plus de 800 collaborateurs répartis sur toute la France et est en pleine croissance avec un objectif de 1000 collaborateurs d'ici fin 2024. METALINE est également l'Editeur de la suite Nous recherchons pour l'un de nos clients, un Technicien Datacenter H/F , basé à Bussy saint Georges qui aura pour missions : Installation/désinstallation de matériel Câblage/Brassage entre équipements Installation logiciels/paramétrages/firmware Remplacement d’équipement Interventions spécifiques sous pilotage Gestion des stocks de matériel sur les sites ne disposant pas d’un logisticien dédié (réception, livraison, stockage, transport) Compte-rendu de passage de consigne Participer si nécessaire aux rotations d’astreinte des sites Escalader à son Pilote d’Activité toute difficulté rencontrée dans l’exercice de ses fonctions

Freelance

Mission freelance
Data engineer confirmé

Kaïbee
Publiée le
Hadoop
PostgreSQL
Python

1 an
100-600 €
Paris, France

En tant que Data Engineer, vous jouerez un rôle clé dans la conception, le développement et la maintenance de pipelines de données robustes et évolutifs. Vous travaillerez en étroite collaboration avec les équipes de data scientists et d’analystes pour garantir la disponibilité et la qualité des données. Vos missions principales : • Concevoir et développer des pipelines ETL (Extract, Transform, Load) pour ingérer et transformer des données provenant de diverses sources. • Gérer et optimiser les bases de données relationnelles et non relationnelles, notamment PostgreSQL et Teradata. • Développer et maintenir des solutions Big Data sur Hadoop et Spark pour traiter de grands volumes de données. • Programmer en Python, R et Scala pour automatiser les flux de données et les tâches de traitement des données. • Intégrer les processus de gestion de version et d’intégration continue avec Git, GitLab CI et Bitbucket. • Utiliser Ansible pour automatiser les déploiements d’infrastructure et la gestion des configurations. • Collaborer avec les équipes en utilisant des outils de gestion de projet et de documentation tels que Jira, Confluence, et Bitbucket. • Participer à l’amélioration continue des processus de traitement des données et à l’optimisation des performances.

CDI

Offre d'emploi
Tech Lead Java / Spark

Management Square
Publiée le
Ansible
Github
J2EE / Java EE

10k-60k €
Fontenay-sous-Bois, Île-de-France

Contexte : Nous recherchons un Tech Lead Java / Spark pour un projet stratégique de transformation des systèmes d'information dans le domaine de la gestion des risques structurels. Ce programme vise à améliorer la qualité des données, la cohérence comptable, et la certification des données pour les besoins de reporting et de pilotage du risque de liquidité. Responsabilités : Contribuer au cadrage technique et à l'instruction des projets. Implémenter des solutions techniques selon une méthodologie agile. Participer au développement et au support de toutes les versions prévues pour 2024-2025. Environnement technique : Langages : Java (Spark est un gros plus, Python est un plus). DevOps : Ansible, Jenkins, GitHub Actions, Sonar, Artifactory. Big Data & Cloud : Cloudera CDP, Apache stack (HDFS, Oozie, Yarn). Bases de données et APIs : Oracle DB, PostgreSQL, Hive, Elastic Search, REST APIs.

Freelance

Mission freelance
Expert Big Data - CLOUDERA - IDF

Expert Line Conseil
Publiée le
AWS Cloud
Cloudera
Hadoop

12 mois
560-670 €
Courbevoie, Île-de-France

Pour un acteur du secteur Energie, je suis à la recherche d'un consultant senior BIG DATA / CLOUDERA Missions principales : Mise en place de la roadmap technique pour la plateforme Orientations techniques stratégiques Veille technologique Orchestration des chantiers techniques transverses. Exemple : Migration de la version de l’OS Description de l’activité : Gestion des montées de versions Expertise en infrastructures Big Data sur la distribution Cloudera 7.1.7 Directives d’administration d’un cluster Cloudera de taille supérieure à 60 nœuds. Plan de montée de version et de déploiement de patchs. Mise en place de stratégies d’allocations de ressources dans Yarn et dimensionnement des queues Capacité à diagnostiquer et résoudre les problèmes techniques complexes liés aux clusters Cloudera. Fourniture d'un support avancé aux équipes d'exploitation et d’administration Apport d'expertise lors de la résolution des crises de production Expertise en scalabilité du cluster Mise à jour du capacity planning du cluster Anticipation de la montée en charge sur les composants principaux (Impala, hbase, yarn …) Définitions des stratégies d’ajout de nœuds et anticipation des potentielles problématiques qu’ils peuvent engendrer Dimensionnement des différents environnements Sécurisation des composants logiciels Big Data Revue des directives de cybersécurité sur les composants logiciels sur tous les environnements hors espaces produits Définition des gestes à effectuer pour faire évoluer les normes de sécurité des composants logiciels. Conception des outils pour le suivi de la sécurité des composants logiciels. Robustesse du cluster Découverte des problématiques à lever en pro action (exemple : hausse critique du nombre de petits fichiers) Injection de la supervision by design dans les chaines d’ingestion Support technique du PM/RTE et des utilisateurs Support du PM lors des cadrages et poser les architectures/ directives techniques. Support du RTE lors de la coordination des équipes sur des problématiques techniques. Support technique des utilisateurs de la plateforme pour l’utilisation de l’outillage ou l’optimisation de leurs traitements. Formalisation et diffusion de préconisations technique Audit technique du code pour veiller à la mise en place de bonnes pratiques Outillage Concevoir l’outillage Self-Service de la data plateforme. Conception et optimisation des composants d’ingestions Veille technologique pour proposer des solutions innovantes aux problématiques Leadership auprès des équipes de B4all Relation Editeur Interlocuteurs privilégiés avec le support de l’éditeur (helpdesk) sur les différents dossiers de supports Suivi et mise en place des préconisations éditeur sur les versions déployées Demandes de hotfix

Freelance

Mission freelance
DevOps Automatisation Middleware (Boomi, Axway, MFT, Solace...)

Cherry Pick
Publiée le
Ansible
Gitlab
Python

24 mois
500-570 €
Châtillon, Île-de-France

Au sein d'une équipe de devops de 10 personnes qui est en charge de l'automation et la mise en place des pipeline pour la gestion des flux, notre client recherche un nouveau devops afin de renforcer cette équipe et prendre part à l'ensemble des activités de l'équipe. Vos missions : Conception de Solutions d'Automatisation : Concevoir des solutions d'automatisations pour les processus manuels et répétitifs en utilisant des outils et des technologies appropriés - Focus déploiement de flux (composants plateforme d'intégration : KAFKA, BOOMI, SOLACE, MFT, API GATEWAY) Développement de Scripts et de Code : Écrire des scripts, du code et des programmes pour automatiser les tâches, en veillant à la qualité, à la fiabilité et à la sécurité du code. Intégration avec des Outils d'automatisation : Intégrer, déployer et maintenir des outils d'automatisation, tels que des outils de gestion de configuration, d'orchestration. Optimisation des Processus : Identifier et analyser les processus existants, puis proposer et mettre en œuvre des améliorations d'automatisation pour accroître l'efficacité opérationnelle. Collaboration en Équipe : Travailler en étroite collaboration avec les équipes de développement logiciel, d'opérations, de sécurité et d'ingénierie pour assurer l'intégration réussie des solutions d'automatisation Tests et Déploiement : Effectuer des tests approfondis des solutions d'automatisation et les déployer de manière efficace, en minimisant les interruptions. Formation : Former les membres de l'équipe et les utilisateurs finaux à l'utilisation des solutions d'automatisation Processus : 1 entretien Go - No Go

Freelance

Mission freelance
Data scientist (anglais courant) H/F

LeHibou
Publiée le
Python

6 mois
500-600 €
La Défense, Île-de-France

Notre client dans le secteur Énergie et ressources naturelles recherche un/une Data scientist H/F Description de la mission: TGITS MCM VD recherche donc un(e) Data Scientistqui intègrera une équipe agile à taille humaine : Il/elle est au contact direct des clients internes et participe à l’expression du besoin. Il/elle propose, en collaboration avec ses pairs, l’approche à mettre en œuvre pour répondre au besoin métier (bibliographie, méthodologie). Il/elle identifie, sur la base de l’analyse des données et de sa connaissance du métier (à acquérir) des cas d’usages améliorant l’expérience utilisateur. Il/elle élabore et entraine des modèles (machine/deep learning) sur-mesure pour répondre aux besoins métier. Il/elle participe, au-delà de la création des modèles, à l’ensemble de la chaine de traitement de la donnée (nettoyage, enrichissement …). Il/elle rapporte les résultats des travaux, en s’assurant de leur robustesse, à l'écrit et/ou avec des présentations internes/externes. ll/elle participe à la mise en production, en collaboration avec la Tierce Maintenance Applicative (TMA) et les équipes TGITS, conformément aux règles de la Compagnie (cybersécurité, architecture, design authority…) et plus particulièrement dans le respect des règles associées au projets Data (gouvernance, documentation, GDPR, etc.) Il/elle accompagne également les métiers sur le delivery (run et projets) Il/elle s’assure du maintien en conditions opérationnelles du parc applicatif Il/elle met en place les KPIs appropriés et pilote le planning, le budget, la qualité des livrables et les risques des projets (infaisabilité, retard…) Il/elle garantit le « move to run » Le Prestataire sélectionné démontrera les expertises suivantes : Un minimum de 6 ans d’expériences en tant que data scientist. BAC +5 en mathématiques ou statistiques, une thèse de doctorat (PhD) ou une expérience professionnelle dans un domaine lié aux bases de données, BI et Datamining / Analytics. Capacité à développer des algorithmes et coder, notamment en Python. Connaissance Databricks et ML Ops est un plus. Connaissance des environnements cloud, idéalement AWS sur des sujets data, est un plus. Excellentes qualités de communication orale et écrite, nécessaires à la rédaction de rapports ou supports, pour présenter aux différentes parties prenantes de TotalEnergies. Aime travailler dans un environnement divers, multiculturel et multidisciplinaire. Esprit d'équipe fort. Créativité et capacité à innover, prouvées au travers des expériences précédentes. Anglais courant obligatoire. La prestation requiert : - Des compétences relationnelles - Une grande autonomie Compétences / Qualités indispensables : ml ops, Python, cloud AWS, databricks, anglais, présentation des resultats, data analytics Informations concernant le télétravail : 2 jours

Freelance

Mission freelance
Développeur Fullstack

Jinane Consulting
Publiée le
AWS Cloud
Java
Python

4 mois
400-490 €
Lyon, Auvergne-Rhône-Alpes

Projet: Depuis 2023, le projet SI PLURI a été repris dans le périmètre prioritaire du programme VISION 2035 de la DPNT dans le cadre de la rénovation du SI de la DPNT qui apporte de nouveaux moyens et méthodes de développement à la hauteur de l’ambition du projet. Le rôle premier du Pluriannuel pour la DPN est d'optimiser le placement (DATARREP) et la durée des arrêts de tranche afin d'optimiser au maximum nos capacités de production Les principales ambitions du SI Pluri sont : o Améliorer le temps métal de l'ensemble des parties prenantes pour constituer des prévisions dynamiques et résilientes aux variations de contexte, en permettant de simuler des scénarii avec réactivité (comme le placement des arrêts - DATARREP) et en capitalisant les meilleures performances, au moyen d’une IA notamment. o Améliorer la qualité et la stabilité des Avants Projets Pluriannuels (vision 10 ans) et par conséquent des prévisions associées pour tous métiers confondus.Intégré à une équipe Produit, le développeur conçoit, développe et déploie les applications métiers. En plus de faire évoluer l'application, il participe à la surveillance de son bon fonctionnement en production et corrige les problèmes identifiés. Participe à l’ensemble des activités de développement logiciel au sein de son équipe (conception, dev, tests, déploiement) Participe aux différents ateliers de conception et cérémonies agiles Applique les meilleures pratiques de développement pour un code propre et maintenable (TDD, BDD, DDD, Pair programming…) Participe activement à la relecture du code des autres développeurs de l’équipe En fonction du niveau d’expertise, accompagne des développeurs plus juniors Force de proposition dans la résolution des problèmes, l’amélioration de la qualité du code et l’atteinte des indicateurs Accelerate (DORA Metrics) Certification AWS Developeur Associate (au plus tard 3 mois après l'intégration au programme) Force de proposition dans la résolution des problèmes de code. Esprit d'équipe, sens du délai, de la qualité et des résultats

Freelance

Mission freelance
Business Analyst - Financements structurés

ABSIS CONSEIL
Publiée le
Data analysis
Finance
MOA

2 ans
550-580 €
Yvelines, France

Nous recherchons un Business Analyst spécialisé en financements structurés pour l’un de nos clients. Le consultant aura pour mission l'analyse et la vérification des données liées à des contrats de financements structurés complexes. Ce rôle exige une forte interaction avec les équipes Back Office, Middle Office, et IT pour garantir la qualité et la conformité des données. Responsabilités : Analyser et vérifier la cohérence des données des contrats de financements structurés. Identifier les erreurs et incidents, et assurer leur remontée aux équipes Back Office et Middle Office pour correction. Collaborer avec les équipes IT en cas de bugs ou anomalies techniques et contribuer à leur résolution. Participer à l’amélioration continue des processus en utilisant une approche agile. Assurer une communication fluide avec les différentes équipes et services. Profil recherché : Bac+5 école d'ingénieur ou équivalent Expérience significative en tant que Business Analyst dans le secteur des financements structurés. Maîtrise du fonctionnement des crédits structurés et des processus de contrôle associés. Bonne connaissance des environnements IT et expérience dans un service IT. Capacité à travailler en mode agile. Anglais courant indispensable (échanges réguliers avec des interlocuteurs internationaux). Excellentes compétences en communication et capacité à gérer plusieurs interlocuteurs.

Freelance

Mission freelance
Data Engineer SQL (FH)

Taleo Capital
Publiée le
Data Warehouse
DevOps
Hadoop

6 mois
470-550 €
Paris, France

Notre client bancaire recherche un Data Engineer SQL confirmé (6 à 9 ans) pour rejoindre ses équipes IT. Le projet supporte plusieurs Business Lines, telles que Global Market, CCO, Compliance, et On Boarding, avec des équipes Agile localisées à Paris (80%) et Porto (20%). La mission est centrée sur l'impact de la migration vers Windows 11, incluant des modifications des process techniques, des optimisations, et le support niveau 2. Objectifs de la mission : Le consultant sera intégré dans le chapter « Data & BI Client - Data Engineering », et devra : Assurer la maintenance évolutive des flux de données : SQL : Modélisation, transformation des données, calculs d’indicateurs. Ordonnancement des traitements via Ctrl-M. Gestion des flux de données (fichiers plats, XML, web services). Optimisation SQL. Gérer l'impact de la migration Windows 11 : adaptation des outils, processus et pipelines. Développer et implémenter des corrections et améliorations techniques. Réaliser des tests unitaires et participer aux recettes. Participer au support opérationnel (niveau 2) et à la méthodologie Agile-Kanban (daily meetings, rétrospectives). Contribuer à la rédaction de documentations techniques. Participer à des astreintes techniques.

CDI

Offre d'emploi
Ingénieur Data Expert Power BI

Management Square
Publiée le
Big Data
Microsoft Power BI

40k-52k €
Arcueil, Île-de-France

Nous recherchons un Data Engineer confirmé, expert en Power BI, pour rejoindre une équipe dynamique au sein d'une grande entreprise. Vous jouerez un rôle clé dans la conception, le développement et l'optimisation de solutions de reporting et de visualisation de données pour répondre aux besoins de nos utilisateurs et parties prenantes. Créer et maintenir des rapports Power BI performants et adaptés aux besoins des utilisateurs Participer activement à la migration des rapports existants de Power BI Report Server vers Power BI Service Concevoir, développer et optimiser des modèles de données et des cubes pour assurer des performances optimales Appliquer les meilleures pratiques en matière de visualisation de données Collaborer étroitement avec les équipes IT et métiers pour une intégration fluide des solutions Sécuriser l'accès et la diffusion des données en conformité avec la politique de sécurité de l'entreprise Comprendre les besoins métiers et proposer des améliorations pour les applications et projets de transformation Se tenir informé des nouvelles fonctionnalités de Power BI et proposer des optimisations

Freelance

Mission freelance
Expert Data et BI

SKILLWISE
Publiée le
Azure Data Factory
Databricks
PySpark

3 mois
100-1k €
Paris, France

L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Développeur Senior Python/GO

Zsoft Consulting
Publiée le
CI/CD
Cloud privé
ELK

12 mois
100-3k €
Levallois-Perret, Île-de-France

Nous sommes à la recherche d'un développeur Senior Python/GO, capable de concevoir et de maintenir des applications robustes et performantes. Le candidat idéal devra posséder une solide expérience en développement logiciel et être à l'aise avec les technologies de traitement des données. Il sera amené à travailler en étroite collaboration avec les équipes produit et technique pour définir et implémenter des fonctionnalités avancées, tout en contribuant à l'élaboration de solutions innovantes qui répondent aux besoins stratégiques de l'entreprise et soutiennent son plan de croissance à long terme.

Freelance

Mission freelance
Data analyst (H/F)

Espace Freelance
Publiée le
AWS Cloud
Python
SQL

12 mois
400-500 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data analyst compétences tableau / python (H/F) Vos principales missions : Vous essayerez de comprendre au mieux la problématique sur laquelle vous travaillerez, Vous imaginerez des solutions Data correspondantes en étant force de proposition et en respectant leurs contraintes et avec une bonne connaissance des analyses et outils existants, Vous identifierez les données nécessaires à l'étude, Vous développerez et documenterez vos analyses, Vous rendrez disponible les résultats des analyses via des interfaces simples et user friendly. Vous saurez construire des dashboard efficient et user friendly

CDI
Freelance

Offre d'emploi
Développeur/se Python/Django

Alpineo Consulting
Publiée le
Django
Python

1 an
10k-54k €
Lyon, Auvergne-Rhône-Alpes

Alpineo accompagne ses clients dans la réalisation de leurs projets de transformation digitale en leur mettant à disposition ses équipes de consultants. Dans ce cadre, nous recrutons un(e) développeur/se pour renforcer nos équipes et intervenir chez notre client à Lyon. Responsabilités : Le poste s’articulera autour des activités suivantes : Développer, opérer et maintenir des applications Discuter directement avec les PO (ceux qui font vos tickets) Développer les tickets validés et estimés par l'équipe Participer aux backlog refinement avec l'équipe Builder et déployer votre code grâce à Docker et Kubernetes Maintenir la documentation technique POC rapidement et essayer d'améliorer des solutions existantes Stack Technologique : Python 3 Django 2, 3, 4 Postgresql et influxDB Grafana Celery Docker Kubernetes GitlabCI

456 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous