Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 308 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
AWS Platform Engineer (F/H)

Quick Source
Publiée le
AWS Cloud
Confluence
Git

6 mois
550-580 €
Paris, France

La mission se déroulera au sein du département Digital Platform travaillant en mode Agile. Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS -Vous êtes amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. -Vous participez aux activités de RUN liées à la plateforme. -"Infra as Code” : Vous développez des modules Terrraform et pipeline CICD pour déployer/configurer/gouverner l’infrastructure (aucun déploiement sera fait manuellement via la console AWS). -“User centric” : Vous êtes à l’écoute des utilisateurs du produit et rechercher leur feedback, documenter pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles

Freelance

Mission freelance
data ingénieur

Innov and Co
Publiée le
Apache Hive
AWS Cloud
Dataiku

12 mois
100-540 €
Boulogne-Billancourt, Île-de-France

Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée. CICD Expert AWS Avancé Scheduling Airflow Expert Python Expert kubernetes Expert Stockage S3 Expert PYSPARK Expert SQL Expert Git Expert Dataiku Avancé Hive Expert

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

Freelance

Mission freelance
Ingénieur/ Intégrateur DevOps F/H/X

CAT-AMANIA
Publiée le
Apache
Apache Tomcat
CentOS

3 mois
220-320 €
Orléans, Centre-Val de Loire

Dans le cadre de vos missions, vous serez principalement en charge de : Effectuer les montées de version OS Mettre en recette/production les applications qui n'ont pas encore été intégrées dans le CICD Assurer la supervision des services Piloter les contrats de maintenance des infrastructures Collaborer avec les développeur·euse·s pour améliorer les pratiques de développement et de test automatisé, et s'assurer de l'alignement sur les objectifs métier de l'entreprise Concevoir et mettre en oeuvre des pipelines de livraison continue pour les applications et les services, en intégrant les pratiques de sécurité dans une optique shift security to the left Agir en tant que chef·fe de projet pour les produits numériques d'infrastructure (Authentification, plateforme CI/CD, etc.), en s'assurant du respect des échéances et du budget, et en maintenant une communication régulière avec les parties prenantes Intégrer et administrer des outils du SI de gestion Automatiser les tâches de déploiement, de configuration et de gestion de l'infrastructure Mettre en place des pratiques de surveillance et de résolution des incidents pour garantir la disponibilité et la performance des applications Participer à l'amélioration continue des processus et pratiques DevOps, en contribuant aux comités ad-hoc

Freelance

Mission freelance
data scientist

Innov and Co
Publiée le
BigQuery
Microsoft Power BI
Python

12 mois
100-600 €
Ivry-sur-Seine, Île-de-France

Le Data Scientist pourra intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Il travaillera en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, il interviendra sur les différentes étapes clés, y compris : - La compréhension des besoins et des enjeux identifiés et leur traduction en une problématique de data science lorsque c’est pertinent. - L’identification, l’exploration et la préparation de données. - L’identification des algorithmes pertinents - L’entrainement, l’optimisation, l’interprétation et le déploiement de modèles de Machine Learning le cas échéant - La conception d’A/B Tests et d’outils permettant de piloter la performance des modèles et de mesurer leur impact en s’appuyant sur des KPIs pertinents. - La présentation de la démarche et des résultats aux différentes parties prenantes. Livrables Analyses de données Modèles statistiques et machine learning Résultats des modèles Compétences - Modélisation statistique et Machine Learning - Maitrise de Python et des librairies de data science courantes (Pandas, Scikit-learn, XGBoost,..) - Maitrise de SQL et Git - Connaissance de l’environnement cloud GCP - Outil de visualisation de données (PowerBI, Looker Studio, etc.) - Très bon niveau de communication et d’autonomie ainsi qu’une bonne force de proposition et une capacité à prendre des initiatives - La connaissance du monde Retail sera un plus

Freelance

Mission freelance
Senior Data Ingénieur - Connaissances Risques indispensables

Tekway (Archytas)
Publiée le
ETL (Extract-transform-load)
Microsoft Power BI
Python

12 mois
100-860 €
Île-de-France, France

Pour le compte d'un de nos clients bancaire, le consultant interviendra dans un contexte de projet Socle Data pour améliorer la gestion des données et leur exploitation dans un environnement de plus en plus digitalisé. La mission consiste à intégrer une équipe technique spécialisée dans la gestion des risques et l'ingénierie des données. Le but est de renforcer l’infrastructure de gestion des données du groupe pour garantir une utilisation optimale des outils analytiques et faciliter la prise de décision informée. Le projet vise à la fois l'ingestion, l'agrégation et l'exposition de données provenant de sources multiples afin de produire des rapports métier sur la surveillance des risques. Ce projet s'inscrit dans une logique de transformation continue, avec des livrables sur plusieurs phases jusqu'en mai 2025. Conception et développement : Participer à la conception de la solution technique pour ingérer, agréger et analyser des données à grande échelle. Développer des flux ETL efficaces pour intégrer les données provenant de plusieurs sources internes et externes à BPCE. Collaborer avec les architectes de données pour définir la meilleure approche pour la gestion des volumes de données. Automatisation des processus : Utiliser DBT (Data Build Tool) pour automatiser le traitement des données et permettre une mise à jour en temps réel des rapports de risques. Veiller à l’intégration continue des données dans les systèmes existants en utilisant des pratiques DevOps . Analyse et reporting : Produire des rapports automatisés via PowerBI , permettant une visualisation des données pertinente pour les équipes métiers (notamment les équipes de risques et finance). Collaborer avec les utilisateurs finaux pour comprendre leurs besoins en matière de reporting et ajuster les livrables en conséquence. Optimisation de la performance : Travailler sur l’optimisation des performances des flux de données pour garantir la rapidité et l’efficacité des traitements. Implémenter des solutions de stockage avec Singlestore afin de gérer des volumes importants de données tout en maintenant un haut niveau de performance. Collaboration inter-équipe : Participer aux réunions avec les équipes métier et techniques pour bien comprendre les besoins et s’assurer que les solutions répondent aux attentes. Travailler en étroite collaboration avec les autres développeurs et data engineers pour assurer la fluidité des développements et des mises en production. Documentation et formation : Rédiger des documentations techniques complètes pour les solutions développées. Participer à la formation des équipes internes sur les nouveaux outils et processus mis en place.

Freelance
CDI

Offre d'emploi
Ingénieur QA Automatisation – Aix en Provence H/F

Acpqualife
Publiée le
Batch
Gherkin
Java

1 an
45k-53k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Dans le cadre de projets dans le domaine du test en région PACA, nous recrutons un Ingénieur automatisation ( F/H) pour renforcer nos équipes d’experts en test vers Aix -en- Provence. Réalisation de l’automatisation des tests Participation à la rédaction des Users Stories Rédiger les plans de test Préparer les jeux de données SQL Définition du processus de mise en œuvre de l'automatisation des tests Rédiger les scripts d'automatisation des tests à partir des spécifications Exécuter les cas de tests automatisation Mettre à jour les tests automatisés Rédiger les rapports de tests Télétravail Hybride = 3 jours de présentiel - 2 jours de remote – 1er mois intégration en présentiel –

Freelance

Mission freelance
Data Engineer Junior H/F

HAYS MEDIAS
Publiée le
AWS Cloud
Python
Scala

6 mois
100-350 €
Courbevoie, Île-de-France

Notre client est une entité clé au sein de son Groupe un important acteur dans son secteur, spécialisée dans la gestion des actifs énergétiques. Avec des bureaux à travers le monde, notre client optimise les ressources énergétiques du groupe et développe des solutions innovantes pour répondre aux défis de la transition énergétique. En tant que Data Engineer Junior, vous rejoindrez l’équipe Data & Analytics, dont la mission est de fournir des solutions de gestion de données robustes et efficaces. Vous travaillerez en collaboration avec des Data Scientists, des Analystes et d'autres équipes techniques pour soutenir les activités et pérenniser les projets, d’analyse et d’optimisation des actifs énergétiques.

Freelance

Mission freelance
Développeur C++ / IT Quant (FH)

Taleo Capital
Publiée le
Git
Nosql
Python

1 an
450-650 €
Paris, France

Nous recherchons plusieurs IT Quant confirmé d'expérience pour rejoindre les équipes de notre client financier situé à Paris 13è. Responsabilités : Développer, maintenir et optimiser des logiciels quantitatifs en C++. Collaborer avec les équipes de recherche pour concevoir et implémenter des modèles financiers avancés. Analyser et améliorer les performances des systèmes existants pour assurer leur robustesse et efficacité. Garantir la qualité du code, en respectant les normes de développement internes. Participer aux revues de code et suggérer des améliorations techniques. Gérer les phases de tests et de validation des systèmes quantitatifs pour garantir leur bon fonctionnement.

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance

Mission freelance
Ingénieur DevOps/SRE Kubernetes (3 à 6 mois de mission)

Cherry Pick
Publiée le
Administration linux
Ansible
AWS Cloud

3 mois
570-600 €
Paris, France

Dans le cadre d'un remplacement et pour assurer la transition, notre client recherche un nouveau DevOps/SRE pour accompagner ses équipes sur les thématiques devops/kubernetes. Vos missions : Fournir une expertise sur la chaîne DevOps permettant d'assurer un temps de mise en production et une exécution en exploitation optimisés. Participer à l'élaboration d'une stratégie continue de conteneurisation d'applications existantes permettant la construction de solutions évolutives. Participer à la diffusion d'une culture DevOps homogène au sein des équipes effectuant des développements maison. Pendant les cycles de déploiement continu : Assurer la disponibilité des outils de la chaîne d'intégration continue Assurer la disponibilité des outils de test Assurer la disponibilité des outils de déploiement continu Assurer le respect des principes d'architecture immuable Fournir un support opérationnel bout-en-bout sur la chaîne d'outils DevOps Favoriser l'adoption d'une architecture micro-services lorsque c'est pertinent (sur le Cloud public ou privé) Mettre en place les métriques permettant la mesure de la performance de la chaîne DevOps (qualimétrie du code produit, supervision de la performance applicative, mise en oeuvre et gestion de la plateforme d'aggrégation des logs, etc..) Aider à résoudre les problèmes de processus de CI ou d'outils DevOps auprès des équipes de développement Assurer la centralisation et la communication autour des bonnes pratiques de DevOps. processus : 2 entretiens Go - No Go

Freelance

Mission freelance
Administrateur MEGA/HOPEX Aquila

HIGHTEAM
Publiée le
BI
Microsoft Power BI
Python

3 ans
450-520 €
Île-de-France, France

Le département Architecture a en charge le référentiel d'architecture applicative et technique de la DSI MEGA/HOPEX Les principales missions confiées en lien avec le reste de l'équipe en interne, l'éditeur, les équipes de production, les utilisateurs (architectes.. ) seront donc : - Contribution à l'administration technique et fonctionnelle et au MCO : extensions du métamodèle, ),support utilisateur... - Participation à la montée de version vers HOPEX 6.0 Aquila (contribution à la recette et POC sur nouveaux usages de l'outil...) - Réalisation de cartographie applicatives sous MEGA - Contribution à la mise en place et au suivi des KPIS qualité et complétude des données (reporting..) - Maj/Evolution des process d'alimentation de l'outil en lien avec le référentiel d'application du Groupe et les autres outils groupes - Spécification et mise en œuvre d' évolutions de l'outil et des process pour répondre à des nouveaux besoins (interfaces avec d'autres outils, montée de version du progiciel, impacts TRM et DORA) - Participation à l'animation de la communauté des utilisateurs - Impératif : connaissance du progiciel Mega / Hopex (minimum 5) - Modélisation des schémas d’architecture /cartographie dans MEGA/Hopex - Rédaction de spécification et process - Compétence en développement (language natif Mega/hopex, .net..) - Des connaissances Power Bi seraient un plus

Freelance

Mission freelance
DBA Oracle/SQL Consultant

Enterprise Digital Resources Ltd
Publiée le
Ansible
dBase
Linux

6 mois
100-600 €
Hauts-de-France, France

Notre Client recherche pour cette mission un consultant DBA Oracle/SQL pour participer à un programme d’envergure nationale, en intégrant une organisation orientée DEVOPS dans un projet visant l’état de l’art de la sécurité. Les tâches au quotidien seront: - Être partie prenante du projet dès son lancement afin d’apporter ses conseils et son expertise sur l’architecture à fournir en fonction du besoin exprimé par les clients - Installer et configurer les serveurs de bases de données selon les règles et standards propres à l’écosystème du client - Prendre en charge le diagnostic et la résolution des incidents et gérer les demandes d’évolution et de chargement des Bases de données - Participer à l’automatisation des process d’installation, de mises à jour et de rechargement des bases de données - Mettre en œuvre la sécurité des bases de données, les normes et les lignes directrices - Résoudre les problématiques de performance, grâce à ses capacités d'analyse - Formuler des propositions d’optimisation - Travailler sur des projets stratégiques et complexes, à forts enjeux et sur leur passage en production - Travailler de façon transverse avec les autres entités de systèmes, réseau, exploitation, sur des sujets communs à forte valeur ajoutée (virtualisation, OpenShift, Ansible…)

Freelance

Mission freelance
Software & AI Architect

Groupe Aptenia
Publiée le
API
AWS Cloud
Full stack

3 ans
100-660 €
Paris, France

✅Localisation : PORTO, Portugal ✅Concevoir et développer des architectures IA et logicielles innovantes ✅Guider l'équipe de développement software (5-6 personnes, juniors et internes) ✅Interagir avec d'autres équipes (ingénieurs logiciels, développeurs web, architectes infrastructure) ✅Développer des API scalables et des solutions logicielles traditionnelles ✅Mettre en place une architecture de micro services ✅Mentorer, communiquer et expliquer des concepts complexes de manière simple ✅Promouvoir les meilleures pratiques au sein de l'équipe

Freelance
CDI

Offre d'emploi
Data Engineer

NOSCO
Publiée le
Ansible
Hadoop
Jenkins

2 ans
31k-62k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : Assure la création, la maintenance, l'optimisation et la sécurité des bases de données Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier Assure le support aux équipes de développement afin d’identifier et proposer des solutions performantes SGBD les mieux adaptées d’un point de vue métier Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données Conception et développement de traitements de données Réalisation d’études statistiques Présentation de résultats sous la forme de rapports d’étude ou de tableaux de bord Développement d’outils de visualisation de données pour faciliter les analyses Documentation des traitements en vue d’une industrialisation Participation aux cérémonies agiles de l’équipe Diffusion et vulgarisation des résultats d’étude Activité secondaire : Veille technologique sur les outils utilisés au sein du projet Partage et formation sur les guides de bonnes conduites

Freelance

Mission freelance
Data Ops Engineer (H/F)

Espace Freelance
Publiée le
BigQuery
Google Cloud Platform
Python

3 mois
100-500 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Ops Engineer (H/F) Mission à pourvoir en régie sur Lille Présence sur site : 3 jours / semaine Votre mission en mode agile : être le garant des développements de l'équipe être le garant de l'amélioration continue Définition de la roadmap technique et du contenu des sprint avec les experts métiers Être garant de la qualité des livrables et animation des équipes (Agile / DevOps) S’assurer que le processus de MCO soit correctement adopté Formation de l’équipe et participation aux entretiens de suivi (Data Engineer) Support N3

308 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous