Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 396 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Senior Data Ingénieur - Connaissances Risques indispensables

Tekway (Archytas)
Publiée le
ETL (Extract-transform-load)
Microsoft Power BI
Python

12 mois
100-860 €
Île-de-France, France

Pour le compte d'un de nos clients bancaire, le consultant interviendra dans un contexte de projet Socle Data pour améliorer la gestion des données et leur exploitation dans un environnement de plus en plus digitalisé. La mission consiste à intégrer une équipe technique spécialisée dans la gestion des risques et l'ingénierie des données. Le but est de renforcer l’infrastructure de gestion des données du groupe pour garantir une utilisation optimale des outils analytiques et faciliter la prise de décision informée. Le projet vise à la fois l'ingestion, l'agrégation et l'exposition de données provenant de sources multiples afin de produire des rapports métier sur la surveillance des risques. Ce projet s'inscrit dans une logique de transformation continue, avec des livrables sur plusieurs phases jusqu'en mai 2025. Conception et développement : Participer à la conception de la solution technique pour ingérer, agréger et analyser des données à grande échelle. Développer des flux ETL efficaces pour intégrer les données provenant de plusieurs sources internes et externes à BPCE. Collaborer avec les architectes de données pour définir la meilleure approche pour la gestion des volumes de données. Automatisation des processus : Utiliser DBT (Data Build Tool) pour automatiser le traitement des données et permettre une mise à jour en temps réel des rapports de risques. Veiller à l’intégration continue des données dans les systèmes existants en utilisant des pratiques DevOps . Analyse et reporting : Produire des rapports automatisés via PowerBI , permettant une visualisation des données pertinente pour les équipes métiers (notamment les équipes de risques et finance). Collaborer avec les utilisateurs finaux pour comprendre leurs besoins en matière de reporting et ajuster les livrables en conséquence. Optimisation de la performance : Travailler sur l’optimisation des performances des flux de données pour garantir la rapidité et l’efficacité des traitements. Implémenter des solutions de stockage avec Singlestore afin de gérer des volumes importants de données tout en maintenant un haut niveau de performance. Collaboration inter-équipe : Participer aux réunions avec les équipes métier et techniques pour bien comprendre les besoins et s’assurer que les solutions répondent aux attentes. Travailler en étroite collaboration avec les autres développeurs et data engineers pour assurer la fluidité des développements et des mises en production. Documentation et formation : Rédiger des documentations techniques complètes pour les solutions développées. Participer à la formation des équipes internes sur les nouveaux outils et processus mis en place.

Freelance

Mission freelance
data scientist

Innov and Co
Publiée le
BigQuery
Microsoft Power BI
Python

12 mois
100-600 €
Ivry-sur-Seine, Île-de-France

Le Data Scientist pourra intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Il travaillera en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, il interviendra sur les différentes étapes clés, y compris : - La compréhension des besoins et des enjeux identifiés et leur traduction en une problématique de data science lorsque c’est pertinent. - L’identification, l’exploration et la préparation de données. - L’identification des algorithmes pertinents - L’entrainement, l’optimisation, l’interprétation et le déploiement de modèles de Machine Learning le cas échéant - La conception d’A/B Tests et d’outils permettant de piloter la performance des modèles et de mesurer leur impact en s’appuyant sur des KPIs pertinents. - La présentation de la démarche et des résultats aux différentes parties prenantes. Livrables Analyses de données Modèles statistiques et machine learning Résultats des modèles Compétences - Modélisation statistique et Machine Learning - Maitrise de Python et des librairies de data science courantes (Pandas, Scikit-learn, XGBoost,..) - Maitrise de SQL et Git - Connaissance de l’environnement cloud GCP - Outil de visualisation de données (PowerBI, Looker Studio, etc.) - Très bon niveau de communication et d’autonomie ainsi qu’une bonne force de proposition et une capacité à prendre des initiatives - La connaissance du monde Retail sera un plus

CDI

Offre d'emploi
Développeur Python / Full Stack (Angular) - H/F

TOHTEM IT
Publiée le
Angular
Python

38k-50k €
Toulouse, Occitanie

Nous recherchons un développeur Python Full-Stack avec une solide expertise en Angular pour équipe l'un de nos clients. Vous serez impliqué dans le développement en prenant part à toutes les étapes du processus, de la conception à la mise en production. Concevoir, développer et maintenir des applications web en utilisant Python (Django, Flask) côté back-end et Angular côté front-end. Collaborer avec les équipes produit et design pour définir les spécifications techniques des projets. Optimiser et améliorer les performances des applications existantes. Participer à la rédaction des tests unitaires et des documents techniques. Assurer la maintenance évolutive et corrective des applications. Implémenter les meilleures pratiques de sécurité et de performance.

Freelance

Mission freelance
AWS Platform Engineer (F/H)

Quick Source
Publiée le
AWS Cloud
Confluence
Git

6 mois
550-580 €
Paris, France

La mission se déroulera au sein du département Digital Platform travaillant en mode Agile. Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS -Vous êtes amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. -Vous participez aux activités de RUN liées à la plateforme. -"Infra as Code” : Vous développez des modules Terrraform et pipeline CICD pour déployer/configurer/gouverner l’infrastructure (aucun déploiement sera fait manuellement via la console AWS). -“User centric” : Vous êtes à l’écoute des utilisateurs du produit et rechercher leur feedback, documenter pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles

CDI

Offre d'emploi
Développeur Python Django (H/F)

CELAD
Publiée le
Python

37k-43k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur Python Django pour intervenir chez un de nos clients. 💻💼 Contexte : Au sein d'une équipe dynamique de 6 personnes, vous participerez activement au développement d'une stack technique innovante permettant d'opérer et d'optimiser les réseaux radio du groupe. Les outils que vous développerez seront utilisés par des ingénieurs spécialisés en radio et en réseau, contribuant directement à l'amélioration de la performance et de la fiabilité des infrastructures de communication. Voici un aperçu détaillé de vos missions 🎯 : - Développer, opérer et maintenir des applications robustes et performantes utilisant Python et Django - Collaboration avec les PO pour comprendre et affiner les exigences des tickets - Développer les tickets validés respectant les standards de qualité et les délais fixés - Participer aux sessions de backlog avec l'équipe - Maintenir la documentation technique à jour, assurant une compréhension claire et partagée des solutions développées - Réaliser des Proofs of Concept (POC) pour tester et améliorer des solutions existantes, en explorant de nouvelles idées et approches technologiques.

Freelance

Mission freelance
Développeur embarqué C++ Python

THE PORTERS
Publiée le
Python

1 an
310-360 €
Marignane, Provence-Alpes-Côte d'Azur

Développement de logiciels embarqués pour des systèmes de drones Collaboration avec les équipes techniques pour intégrer des fonctions de pilotage et de radar Participation à la conception et à l'architecture des systèmes Intégration de Capteurs : Développer et intégrer des drivers pour les capteurs embarqués, tels que les radars, afin d'améliorer les capacités de détection et de navigation des drones. Optimisation des Performances : Analyser et optimiser le code pour garantir des performances élevées et une consommation d'énergie minimale dans les systèmes embarqués. Support au Déploiement : Participer au déploiement et à la mise en service des systèmes développés sur les plateformes de test, en assurant un suivi des retours d'expérience pour des améliorations futures.

Freelance

Mission freelance
Développeur C++ / IT Quant (FH)

Taleo Capital
Publiée le
Git
Nosql
Python

1 an
450-650 €
Paris, France

Nous recherchons plusieurs IT Quant confirmé d'expérience pour rejoindre les équipes de notre client financier situé à Paris 13è. Responsabilités : Développer, maintenir et optimiser des logiciels quantitatifs en C++. Collaborer avec les équipes de recherche pour concevoir et implémenter des modèles financiers avancés. Analyser et améliorer les performances des systèmes existants pour assurer leur robustesse et efficacité. Garantir la qualité du code, en respectant les normes de développement internes. Participer aux revues de code et suggérer des améliorations techniques. Gérer les phases de tests et de validation des systèmes quantitatifs pour garantir leur bon fonctionnement.

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

Freelance

Mission freelance
Ingénieur/ Intégrateur DevOps F/H/X

CAT-AMANIA
Publiée le
Apache
Apache Tomcat
CentOS

3 mois
220-320 €
Orléans, Centre-Val de Loire

Dans le cadre de vos missions, vous serez principalement en charge de : Effectuer les montées de version OS Mettre en recette/production les applications qui n'ont pas encore été intégrées dans le CICD Assurer la supervision des services Piloter les contrats de maintenance des infrastructures Collaborer avec les développeur·euse·s pour améliorer les pratiques de développement et de test automatisé, et s'assurer de l'alignement sur les objectifs métier de l'entreprise Concevoir et mettre en oeuvre des pipelines de livraison continue pour les applications et les services, en intégrant les pratiques de sécurité dans une optique shift security to the left Agir en tant que chef·fe de projet pour les produits numériques d'infrastructure (Authentification, plateforme CI/CD, etc.), en s'assurant du respect des échéances et du budget, et en maintenant une communication régulière avec les parties prenantes Intégrer et administrer des outils du SI de gestion Automatiser les tâches de déploiement, de configuration et de gestion de l'infrastructure Mettre en place des pratiques de surveillance et de résolution des incidents pour garantir la disponibilité et la performance des applications Participer à l'amélioration continue des processus et pratiques DevOps, en contribuant aux comités ad-hoc

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance
CDI

Offre d'emploi
LEAD QA APPIUM JAVA MOBILE

CHARLI GROUP
Publiée le
Application mobile
Git
ISTQB

1 an
10k-65k €
Paris, France

Objectifs de la mission : Au sein d’une équipe engagée dans une dynamique d’amélioration continue, vos principales missions seront : Développement de tests automatiques - Analyse des users stories (critères d’acceptances, JDD, ..) - Développement de tests automatiques - Préparation et réalisation des tests automatiques quotidiennement et en phase de TNR - Réalisation des phases de tests pour validation des besoins métiers - Support aux métiers lors des phases de recettes internes Maintenance & Qualité - Amélioration continue de la chaine de test automatique (Performances / QoS / …) - Participation à la mise en place d’outillage et de bonnes pratiques QA - Garant des valeurs de la QA Lead QA - Participation à la définition des objectifs avec le QA manager - Acteur de l’amélioration continue de la QA, et en priorité sur le périmètre de l’automatisation des tests - Force de proposition Compétences générales - Expérience significative de développement de tests automatiques sur le framework Appium - Bonne compréhension des problématiques liées au contexte de mobilité et du ecommerce - Maîtrise de la chaîne de production et ses outils (gestion de version, suivi des incidents, test unitaires, build, intégration et déploiement continu) - Adaptabilité et capacité à intervenir simultanément sur des sujets variés : développement, intégration de systèmes, étude de performance, analyse de dysfonctionnement…

Freelance
CDI

Offre d'emploi
Data Engineer Teradata

Deodis
Publiée le
Scrum
Teradata
Test unitaire

3 ans
48k-52k €
Nantes, Pays de la Loire

Au sein de la tribu Data Hub, vous intégrerez la Squad Pilotage Commercial en charge des usages décisionnels pour les domaines Clients, Distribution, Marketing et Régalien. La squad est responsable des solutions de données modélisées (datawarehouse), agrégées et optimisées (datamarts) ainsi que des couches d'exposition et des tableaux de bord de pilotage. La squad contribue également aux besoins transverses pour ces domaines (ex : reporting réglementaire multi-domaine). Missions : Développer des User Story relatifs à la mise en place de solution de chargement et de restitution du SGBD Teradata. Mettre en œuvre les tests unitaires. Déployer le produit dans les différents environnements Garantir et assurer le fonctionnement des produits en production. Produire la documentation associée à ses développements. Participer à l’affinage et chiffrage des solutions Participer aux cérémonies et démarche agile SCRUM de la squad. Attendus : Développer des traitements de chargement, d’extraction et de restitution de données utilisateurs à destination de la plateforme Teradata et des Datawarehouse. Développer des indicateurs de pilotage répondant aux usages métier. Développer des reporting et les moyens de supervision. Suivre les évolutions et être garants de la cohérence des solutions mises en œuvre Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production. Le profil devra avoir la capacité de prendre de la hauteur sur les solutions à fournir, avoir la capacité de les expliquer et d’accompagner leur bonne appropriation par les utilisateurs.

Freelance
CDI

Offre d'emploi
Développeur full stack Python Django et react

Ewolve
Publiée le
Django
PostgreSQL
Python

3 ans
23k-193k €
Courbevoie, Île-de-France

Nous recherchons un Développeur Full-Stack Python Django / React (H/F) pour travailler sur des projets stratégiques dans le domaine public. Vous serez responsable du développement d'applications web en utilisant Python Django pour le back-end et React pour le front-end. Vous participerez à la conception, au développement, et à la maintenance des API et des interfaces utilisateurs. Vous aurez aussi un rôle clé dans la Tierce Maintenance Applicative (TMA) pour assurer les évolutions demandées et corriger les bugs éventuels

Freelance

Mission freelance
Développeur Python/.net/Angular

VISIAN
Publiée le
.NET CORE
Angular
AWS Cloud

1 an
100-580 €
La Défense, Île-de-France

Les objectifs du service sont les suivants : - Contrôler le périmètre applicatif et l'infrastructure associée dont l'équipe est responsable - Réaliser les projets et activités de maintenance en visant l'excellence opérationnelle (méthodes, outils, qualité du code, etc.) - Prise en compte des aspects cybersécurité « by design » - Établir une relation étroite avec les clients internes - Contribuer à la communauté informatique de la GBU (échanges sur les bonnes pratiques, REX, etc.) Les principales activités sont : - Contribution à l'élaboration de solutions techniques et à la rédaction de spécifications fonctionnelles et techniques - Réalisation des tâches du projet assignées par le responsable de livraison (y compris les tests) - Traitement des demandes de support applicatif et réalisation de maintenances correctives ou évolutives sur le périmètre - Suivi technique - Partage sur REX et bonnes pratiques Les principaux défis sont : • Livrer dans une organisation complexe avec de nombreuses parties prenantes dans les pays, les régions, les hubs et la R-GBU. • Développer des solutions avec un état d'esprit agile avec différents niveaux de maturité agile au sein des équipes métiers Les principales interfaces sont : • Représentants d'entreprises • Responsable de la livraison du développement • Responsables du SI • Equipe informatique, données et développement, architectes • Équipe de cybersécurité Les Livrables attendus sont : ? Qualification des besoins, définition des solutions ? Spécifications techniques et fonctionnelles ? Projeter et exécuter la documentation ? Traitement et mise à jour des tickets (maintenance et projet) ? REX ? Rapports hebdomadaires et mensuels sur les activités de livraison ? Suivi du temps mensuel, rapport d'activité, tableau de bord KPI

Freelance
CDI

Offre d'emploi
Ingénieur QA Automatisation – Aix en Provence H/F

Acpqualife
Publiée le
Batch
Gherkin
Java

1 an
45k-53k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Dans le cadre de projets dans le domaine du test en région PACA, nous recrutons un Ingénieur automatisation ( F/H) pour renforcer nos équipes d’experts en test vers Aix -en- Provence. Réalisation de l’automatisation des tests Participation à la rédaction des Users Stories Rédiger les plans de test Préparer les jeux de données SQL Définition du processus de mise en œuvre de l'automatisation des tests Rédiger les scripts d'automatisation des tests à partir des spécifications Exécuter les cas de tests automatisation Mettre à jour les tests automatisés Rédiger les rapports de tests Télétravail Hybride = 3 jours de présentiel - 2 jours de remote – 1er mois intégration en présentiel –

Freelance

Mission freelance
Data Engineer Junior H/F

HAYS MEDIAS
Publiée le
AWS Cloud
Python
Scala

6 mois
100-350 €
Courbevoie, Île-de-France

Notre client est une entité clé au sein de son Groupe un important acteur dans son secteur, spécialisée dans la gestion des actifs énergétiques. Avec des bureaux à travers le monde, notre client optimise les ressources énergétiques du groupe et développe des solutions innovantes pour répondre aux défis de la transition énergétique. En tant que Data Engineer Junior, vous rejoindrez l’équipe Data & Analytics, dont la mission est de fournir des solutions de gestion de données robustes et efficaces. Vous travaillerez en collaboration avec des Data Scientists, des Analystes et d'autres équipes techniques pour soutenir les activités et pérenniser les projets, d’analyse et d’optimisation des actifs énergétiques.

396 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous