Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 820 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer GCP

KEONI CONSULTING
Publiée le
Python
Scripting
Shell

12 mois
100-500 €
Bordeaux, Nouvelle-Aquitaine

Contexte : Mise en place de flux d'alimentation d'un entrepôt de données sous GCP. MISSIONS : • Conception et développement de flux de données • Exploration des données sources • Rédaction de spécifications (mapping) • Migration depuis l’ancienne architecture Compétences recherchées : - Obligatoires : Expérience avérée de 12 mois minimum sur un projet Data sous GCP validée par une certification Professional Data Engineer GCP Big Query Dataform Cloud Storage Composer SQL Python Scripting Shell - Optionnelles : Dataiku QlikSense Google Data Studio GIT DBT Expérience nécessaire : 3 années minimum Langue : Français

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
Apache Kafka
BigQuery
CI/CD

3 ans
350-500 €
Lille, Hauts-de-France

La mission consiste à : - Participer aux rituels agiles - Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprise - Développer les solutions data - Valider la qualité des développements - Améliorer et optimiser le patrimoine actuel - Maintenir les solutions existantes (RUN) - Contribuer à la construction du nouveau socle et des services - Accompagner les métiers sur les bonnes pratiques de l'exploitation de la Data - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Première expérience en Data Engineering indispensable - Expertise SQL, ETL, CI/CD, GIT, Terraform, Kafka, GCP ... - Connaissances sur Power BI, Looker ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +

Freelance

Mission freelance
TechLead SQL/Python

Streamlink
Publiée le
Azure
Gestion de maintenance assistée par ordinateur (GMAO)
Kubernetes

6 mois
380-540 €
Massy, Île-de-France

•Compréhension technique des environnements du SI (GMAO maximo, Qliksense, ETL) … •Compétences en coordination technique et fonctionnelle de plusieurs squads •Compétences en gestion d’un backlog produit : rédaction et suivi des Epics.features/USs •Compétences techniques basiques en SQL •Compétences techniques basiques en script (par exemple : shell, python, etc …) •Compétences techniques en Automatisation des tâches (développement de scripts, tests automatiques, etc …) •Connaissances générales pour les technologies Big Data (NoSql , Data Virtualization, etc …) et Cloud (Azure, Kubernetes)

Freelance

Mission freelance
Technico-fonctionnel SQL, Oracle, Unix, Shell, API, Java Nantes (2 à 3 jours de télétravail)/du

WorldWide People
Publiée le
SQL

12 mois
290-350 €
Nantes, Pays de la Loire

Technico-fonctionnel SQL, Oracle, Unix, Shell, API, Java Nantes (2 à 3 jours de télétravail) Nous recherchons un profil technico fonctionnel qui a plus de 5 ans d'expérience, qui maitrise nécessairement SQL et qui a déjà travaillé sur de la data. SQL, Oracle, Unix, Shell, API, Java Le consultant aura en responsabilité la compréhension fonctionnelle des applications et la traduction de la donnée dans la BI. Les principales tâches seront: o Recueil du besoin o Rédaction des spécifications fonctionnelles de la data pouvant aller jusqu’à la modélisation/pré conception. o Suivi des développements o Gestion des environnements de recette et des jeux de données o Suivi des mises en production

Freelance

Mission freelance
data scientist

Innov and Co
Publiée le
BigQuery
Microsoft Power BI
Python

12 mois
100-600 €
Ivry-sur-Seine, Île-de-France

Le Data Scientist pourra intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Il travaillera en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, il interviendra sur les différentes étapes clés, y compris : - La compréhension des besoins et des enjeux identifiés et leur traduction en une problématique de data science lorsque c’est pertinent. - L’identification, l’exploration et la préparation de données. - L’identification des algorithmes pertinents - L’entrainement, l’optimisation, l’interprétation et le déploiement de modèles de Machine Learning le cas échéant - La conception d’A/B Tests et d’outils permettant de piloter la performance des modèles et de mesurer leur impact en s’appuyant sur des KPIs pertinents. - La présentation de la démarche et des résultats aux différentes parties prenantes. Livrables Analyses de données Modèles statistiques et machine learning Résultats des modèles Compétences - Modélisation statistique et Machine Learning - Maitrise de Python et des librairies de data science courantes (Pandas, Scikit-learn, XGBoost,..) - Maitrise de SQL et Git - Connaissance de l’environnement cloud GCP - Outil de visualisation de données (PowerBI, Looker Studio, etc.) - Très bon niveau de communication et d’autonomie ainsi qu’une bonne force de proposition et une capacité à prendre des initiatives - La connaissance du monde Retail sera un plus

Freelance

Mission freelance
Développeur Data

COEXYA
Publiée le
API REST
Azure Data Factory
Databricks

1 an
100-560 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

MISSIONS: Développer et maintenir des pipelines de données avec Azure Data Factory. Créer et gérer des rapports et tableaux de bord avec Power BI. Concevoir et optimiser des bases de données SQL. Travailler avec Databricks pour le traitement et l’analyse des données. Développer des scripts en Python pour automatiser les processus de données. Gérer et intégrer des API REST. Utiliser les services SSIS de SQL pour les processus ETL. COMPETENCES: Expérience avec les technologies Azure Data (Data Factory, Power BI, SQL, Databricks). Compétences en développement Python. Connaissance des API REST. Expérience avec les services SSIS de SQL.

Freelance
CDI
CDD

Offre d'emploi
Développeur Full Stack H/F

THE PORTERS
Publiée le
Angular
Back-end
CI/CD

1 an
10k-120k €
Montpellier, Occitanie

Nous recherchons un développeur Fullstack H/F passionné et motivé pour un de nos clients basé sur Montpellier. Le candidat idéal aura une solide expérience dans le développement web, maîtrisant à la fois les technologies front-end et back-end. Responsabilités : - Concevoir, développer et maintenir des applications web performantes et évolutives. - Collaborer avec les équipes de design et de produit pour traduire les besoins fonctionnels en solutions techniques. - Assurer la qualité du code via des revues de code et des tests automatisés. - Participer à l'amélioration continue des processus de développement. - Rester à jour avec les nouvelles technologies et tendances du secteur.

Freelance

Mission freelance
Data Engineer BI

CHARLI GROUP
Publiée le
Apache Spark
Apache Sqoop
BigQuery

3 ans
100-560 €
Île-de-France, France

➢ CONTEXTE * Au sein du domaine Data BI nous recherchons un Data Engineer qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l’équipe. À la suite d’une passation avec notre centre de service, il devra également être en mesure d’innover et d’améliorer les processus existants pour perfectionner l’efficience de l’équipe au quotidien dans ses différentes tâches. ➢ DESCRIPTION DE LA MISSION • Participe à l’analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) • Être force de proposition sur l’amélioration de notre stack Data • Faire le reporting d’avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Freelance
CDI

Offre d'emploi
Consultant Dataiku

Lùkla
Publiée le
Agile Scrum
Azure
Dataiku

2 ans
60k-70k €
Paris, France

En tant que Consultant(e) Dataiku Senior, vous serez au cœur de nos projets de Data et IA. Vous aurez notamment pour missions : Accompagnement : Réaliser des ateliers de conception et de cadrage des projets Être le point de contact de la plateforme des solutions Dataiku adaptées aux besoins clients Former les équipes internes à l'utilisation de la plateforme Expertise technique: Maîtriser les fonctionnalités avancées de Dataiku (préparation des données, machine learning, déploiement de modèles) Développer des pipelines de données robustes et efficaces Contribuer à l'amélioration continue de nos méthodes et outils Innovation: Être force de proposition sur les dernières tendances en matière de Data Science et d'IA Participer à la conception de nouvelles offres de services

CDI
Freelance

Offre d'emploi
Consultant senior DataGalaxy

Lùkla
Publiée le
Data management
Data mining
Data Warehouse

2 ans
55k-65k €
Paris, France

En tant que Consultant(e) Expert(e) DataGalaxy, vous serez en charge de : Accompagnement des projets : Piloter et mettre en œuvre des projets de mise en place et de déploiement de DataGalaxy au sein de la direction data et IA. Assurer la configuration et la personnalisation de la plateforme en fonction des besoins spécifiques de chaque organisation. Former les utilisateurs aux différentes fonctionnalités de DataGalaxy et les accompagner dans leur utilisation au quotidien. Gouvernance des données : Définir et mettre en œuvre une stratégie de gouvernance des données en collaboration avec les équipes métiers et IT. Modéliser les données, définir les règles de qualité et les mettre en place au sein de DataGalaxy. Assurer le suivi et l'amélioration continue de la qualité des données ... Expertise technique : Maîtriser en profondeur la plateforme DataGalaxy (modélisation, catalogage, qualité des données, etc.). Avoir une bonne connaissance des bases de données relationnelles et des outils d'intégration de données. Être à l'aise avec les langages de programmation (Python, SQL, etc.).

Freelance

Mission freelance
Senior Data Ingénieur - Connaissances Risques indispensables

Tekway (Archytas)
Publiée le
ETL (Extract-transform-load)
Microsoft Power BI
Python

12 mois
100-860 €
Île-de-France, France

Pour le compte d'un de nos clients bancaire, le consultant interviendra dans un contexte de projet Socle Data pour améliorer la gestion des données et leur exploitation dans un environnement de plus en plus digitalisé. La mission consiste à intégrer une équipe technique spécialisée dans la gestion des risques et l'ingénierie des données. Le but est de renforcer l’infrastructure de gestion des données du groupe pour garantir une utilisation optimale des outils analytiques et faciliter la prise de décision informée. Le projet vise à la fois l'ingestion, l'agrégation et l'exposition de données provenant de sources multiples afin de produire des rapports métier sur la surveillance des risques. Ce projet s'inscrit dans une logique de transformation continue, avec des livrables sur plusieurs phases jusqu'en mai 2025. Conception et développement : Participer à la conception de la solution technique pour ingérer, agréger et analyser des données à grande échelle. Développer des flux ETL efficaces pour intégrer les données provenant de plusieurs sources internes et externes à BPCE. Collaborer avec les architectes de données pour définir la meilleure approche pour la gestion des volumes de données. Automatisation des processus : Utiliser DBT (Data Build Tool) pour automatiser le traitement des données et permettre une mise à jour en temps réel des rapports de risques. Veiller à l’intégration continue des données dans les systèmes existants en utilisant des pratiques DevOps . Analyse et reporting : Produire des rapports automatisés via PowerBI , permettant une visualisation des données pertinente pour les équipes métiers (notamment les équipes de risques et finance). Collaborer avec les utilisateurs finaux pour comprendre leurs besoins en matière de reporting et ajuster les livrables en conséquence. Optimisation de la performance : Travailler sur l’optimisation des performances des flux de données pour garantir la rapidité et l’efficacité des traitements. Implémenter des solutions de stockage avec Singlestore afin de gérer des volumes importants de données tout en maintenant un haut niveau de performance. Collaboration inter-équipe : Participer aux réunions avec les équipes métier et techniques pour bien comprendre les besoins et s’assurer que les solutions répondent aux attentes. Travailler en étroite collaboration avec les autres développeurs et data engineers pour assurer la fluidité des développements et des mises en production. Documentation et formation : Rédiger des documentations techniques complètes pour les solutions développées. Participer à la formation des équipes internes sur les nouveaux outils et processus mis en place.

Freelance

Mission freelance
Développeur C++ / IT Quant (FH)

Taleo Capital
Publiée le
Git
Nosql
Python

1 an
450-650 €
Paris, France

Nous recherchons plusieurs IT Quant confirmé d'expérience pour rejoindre les équipes de notre client financier situé à Paris 13è. Responsabilités : Développer, maintenir et optimiser des logiciels quantitatifs en C++. Collaborer avec les équipes de recherche pour concevoir et implémenter des modèles financiers avancés. Analyser et améliorer les performances des systèmes existants pour assurer leur robustesse et efficacité. Garantir la qualité du code, en respectant les normes de développement internes. Participer aux revues de code et suggérer des améliorations techniques. Gérer les phases de tests et de validation des systèmes quantitatifs pour garantir leur bon fonctionnement.

Freelance

Mission freelance
Data Ops Engineer (H/F)

Espace Freelance
Publiée le
BigQuery
Google Cloud Platform
Python

3 mois
100-500 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Ops Engineer (H/F) Mission à pourvoir en régie sur Lille Présence sur site : 3 jours / semaine Votre mission en mode agile : être le garant des développements de l'équipe être le garant de l'amélioration continue Définition de la roadmap technique et du contenu des sprint avec les experts métiers Être garant de la qualité des livrables et animation des équipes (Agile / DevOps) S’assurer que le processus de MCO soit correctement adopté Formation de l’équipe et participation aux entretiens de suivi (Data Engineer) Support N3

Freelance

Mission freelance
Data Engineer

CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
Git

3 ans
100-550 €
Île-de-France, France

Le contexte : L'un des objectifs clés du plan de convergence DATA du groupe est de développer des infrastructures de données robustes et de qualité. Au sein de notre équipe, nous sommes responsables de la gestion des données pour les équipes en charge des campagnes marketing. Cette infrastructure permettra aux équipes marketing de mieux maîtriser les outils de gestion des campagnes, optimisant ainsi les stratégies de communication et la personnalisation des messages pour un déploiement plus efficace sur tous les canaux. Des exemples de projets sont nombreux et variés : • Intégration des données dans Braze pour une gestion centralisée et efficace des campagnes. • Développement et ajout de pipelines de données pour garantir la prise en compte complète de tous les canaux de communication. • Mise en place de solutions d'analyse avancée pour optimiser les stratégies de marketing en fonction des insights obtenus. L'objectif principal de la mission est de maintenir le système actuel et de réaliser des projets ambitieux. Début : le plus tôt possible Description du poste : • Mise en place et optimisation de pipelines de données pour intégrer les données de communication provenant de tous nos canaux (SMS, TV, application MyCanal, etc.) avec la nouvelle application de Marketing Automation Braze. • Conception et mise en œuvre d'architectures de données • Migration des anciens pipelines data. • Rédaction de la documentation des nouveaux flux de données.

Freelance
CDI

Offre d'emploi
MOE SQL/C# Structural & Market Risk

Digistrat consulting
Publiée le
.NET CORE
SQL

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Au sein du domaine Risk & PnL dont le mandat est le calcul des indicateurs de risque de marché. Il s'agit d’une mission de développeur afin de contribuer sur les sujets du BAU et des projets de l'équipe 🤝 Expertises spécifiques : La mission consiste à traiter les projets d'évolutions concernant la mise transformation des solutions de production des indicateurs de risque de marché : Contribution aux différents projets métiers et techniques au sein de l’entité Rédaction des spécifications techniques, développement, tests unitaires, livraison, assistance UATs, rédaction des user guides Contribution à la maintenance évolutive des projets déjà en place dans le département. Assistance au support de production de 3ème niveau.

CDI

Offre d'emploi
DBA SQL/ NoSQL F/H

ATOS
Publiée le

Qui nous sommes Nous sommes une équipe d'experts passionnés avec une ambition claire : utiliser le numérique pour faire avancer ce qui compte pour nos clients et la société. Chaque jour, nous travaillons ensemble pour créer des fondations numériques fiables et évolutives pour les entreprises, les institutions et les communautés du monde entier. Plus d'informations sur : Advancing what matters Atos Sophia-Antipolis est situé au coeur de la première technopôle d'Europe, dans une région ensoleillée. Vous serez immergé dans une entreprise innovante aux missions diverses, notamment dans les secteurs du télécom, du voyage, des collectivités territoriales ou du sport. Nos équipes recherchent leur futur(e) DBA SQL/NoSQL en CDI ! Ce que vous allez faire si vous nous rejoignez : * Installer et configurer les bases de données SQL et NoSQL selon les besoins de l'entreprise. * Gestion des Performances : Optimiser les requêtes SQL, indexer les bases de données et surveiller leur performance pour assurer un accès rapide aux données. * Sécurité : Mettre en place des mesures de sécurité pour protéger les données sensibles contre les accès non autorisés et les cyberattaques. * Sauvegarde et Récupération : Planifier et exécuter des stratégies de sauvegarde régulières. En cas de panne ou de perte de données, restaurer les bases de données à partir des sauvegardes. * Migration et Mise à Niveau : Gérer les migrations de bases de données d'une plateforme à une autre ou lors des mises à jour logicielles. * Maintenance : Effectuer des mises à jour, corriger les bugs, et superviser la santé générale des systèmes de bases de données. * Support : Collaborer avec les développeurs et les équipes techniques pour résoudre les problèmes liés aux bases de données. Compétences techniques requises : * Compétences avancées sur des systèmes comme MySQL, PostgreSQL, Microsoft SQL Server, Oracle, etc. * Expertise sur des systèmes comme MongoDB, Cassandra, Couchbase, Redis, etc. * Connaissance de SQL pour les bases de données relationnelles et des langages comme JavaScript, Python pour les bases de données NoSQL. * Capacité à automatiser les tâches administratives avec des scripts (bash, Python, etc.). * Maîtrise de l'administration des serveurs sous Linux et Windows. * Connaissance approfondie des pratiques de sécurité pour les bases de données. Votre profil : * Bac+3-5 * 3 à 5 ans d'expérience sur un poste similaire Optionnel : certifications * Oracle Database Administrator certified professional * Microsoft certificed : Azure database, Database administrator associate * MongoDB Certified DBA * Certified PostgreSQL

820 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous