Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 433 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance

Mission freelance
QA test intégration Python

BLOOMAYS
Publiée le
Python

6 mois
400-600 €
Paris, France

Contexte : Rejoindre une startup en pleine croissance après une phase de transition précédant son rachat. L’entreprise repose sur une architecture technique moderne en microservices. L’équipe technique se structure comme suit : • Backend : 4 développeurs sous la direction de l'Engineering Manager. • Frontend : Une équipe dédiée. • Mobile : Une équipe dédiée. • DevOps : une personne dédiée. • QA : nous recherchons une personne. L’organisation va évoluer vers un modèle de Feature Teams. Mission proposée : Dans ce contexte, L'entreprise recherche un.e freelance pour intervenir sur les tests d’intégration et renforcer l’observabilité des services. Détails de la mission : 1. Tests d’intégration • vient en complément des tests GraphQL, tests unitaires et tests E2E. • Mettre en place des tests d’intégration plus complets. • Implémenter des tests contractuels avec Pytest, en utilisant des fake providers. Technologies principales : • GraphQL (Node.js utilisé en proxy). • Python (API principale). 2. Observabilité • Améliorer la traçabilité avec des outils comme Sentry ou Datadog. • Apporter une observabilité permettant de résoudre des problématiques techniques complexes.

Freelance

Mission freelance
Developpeur Frontend react JS

PROPULSE IT
Publiée le
développeur
Front-end
Javascript

24 mois
375-750 €
Massy, Île-de-France

PROPULSE IT recherche un développeur Frontend JS Dans ce cadre, les missions et travaux à mener en tant que développeur sur l'applicatif du cockpit du SI sont : Cette prestation aura pour objectif principal la maintenance et la production sur la base des technologies existantes mais également de travailler avec l'équipe en charge de la refonte de la couche technique sous-jacente. •Prendre en main l'architecture existante, •Participer aux activités de corrections des Faits Techniques pouvant être identifiés en PROD •Discuter avec les experts Maximo pour définir les données nécessaires et maitriser leur rafraichissement pour afficher des indicateurs clairs, •Documenter et réaliser la mise en oeuvre du pipeline de données avec les technologies imposées (Qlik, API maximo, Kafka), •Participer à la définition de la refonte de cette architecture de données avec les équipes projet

Freelance
CDI
CDD

Offre d'emploi
data engineer Forecasting Databricks / Mlops / Machine learning

Gentis Recruitment SAS
Publiée le
Apache Spark
Databricks
Machine Learning

12 mois
40k-80k €
400-600 €
Paris, France

Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Engie est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.

Freelance
CDI

Offre d'emploi
IA Program Manager

Atlanse
Publiée le
KPI
Natural Language Processing (NLP)
Python

3 ans
43k-65k €
400-650 €
Île-de-France, France

Au sein du département Data Science, vous serez en charge de développer, déployer et maintenir un périmètre de solutions basées sur l’IA, en veillant à leur alignement avec les objectifs stratégiques de l’entreprise. Votre rôle Gestion du programme et coordination des ressources · Traiter la demande commerciale, la conception, la planification, les priorités, le développement, les essais et la documentation associée · Collaborer avec le chef de projet informatique · Coordonner les ressources internes et externes pour soutenir le développement et l’implémentation du produit · Déployer les application au sein des unités opérationnelles en assurant la transition fluide des solutions et leur adoption Création de valeurs · Proposer des solutions innovantes pour soutenir de nouveaux cas d’utilisation · Evaluer la performance des modèles génératifs et des solutions NLP/NLU · Identifier les améliorations possibles Sécurisation de l’exécution et de la maintenance des applications basées sur l’IA · Suivre les accords de niveau de service (SLA) et collaborer avec les équipes de support · S’assurer que la documentation est maintenue à jour avec les évolutions de chaque produit Gouvernance et gestion du changement · Sécuriser le processus de gestion du changement afin d’assurer l’adoption et l’utilisation continues des solutions IA · Gérer les indicateurs clés de performance (KPI) relatifs aux projets IA · Etablir et animer une communauté IA au sein de l’entreprise

Freelance

Mission freelance
Expert Databricks - Développement Python

ABALSIA CONSULTING
Publiée le
Databricks
PySpark
Python

1 an
400-600 €
Île-de-France, France

Conception de solutions azure, optimisation de l'efficacité et de la qualité de la gestion des données en mettant en œuvre des processus automatisés, des normes de sécurité et une collaboration interfonctionnelle pour faciliter l'analyse et la prise de décision Conception et création des chaînes ci/cd pour databricks et data factory Développement des pipelines data ETL, ETL (Azure Data Factory, Databricks) Création des pipelines d’ingestion avec rivery Développement d’une solution Spark SQL pour extraire, copier et anonymiser les données dans un autre environnement Mise en place des solutions de monitoring et d’alerting Développement d’une solution finops sur databricks Participation a l’upgrade de Databricks, metastore vers unity catalog.

CDI

Offre d'emploi
Business Analyst en Finance de Marché

INGENIANCE
Publiée le
Bloomberg
JIRA
Python

45k-60k €
Paris, France

Dans un contexte où la data devient de plus en plus clé dans les processus métiers de l'Asset Management, la prestation sera rattachée au service Data, au sein du pôle Back To Front & Clients Externe. A ce titre, les principales missions à mener sont : o Contrôle des Holdings o Mise à jour les KPIs clients - Optimisations des process de production et des contrôles pour une meilleure efficacité - Support de second niveau auprès des utilisateurs - Automatisation de Alto Dashboard - Traitement des demandes Jiras des clients sur la partie securities, portefeuilles et Atlas - Support de second niveau auprès de nos utilisateurs (Alto Ticketing, jiras et mails) - Automatisation Python et VBA pour l'équipe de Production pour améliorer nos météos et automatiser notre activité pour les clients externes - Garantie de la cohérence de nos processus avec les principes de la Gouvernance des données - Contribution à l'optimisation et à l'amélioration continue de nos processus métiers, opérationnels et notre plateforme data management pour accompagner la croissance mondiale du Groupe - Automatisation de la configuration alto pour les clients externe - Automatisation du Dashboard alto pour les KPIs clients Stack Technique : Outils bureautiques (Excel, Word, PowerPoint) / Bloomberg / Reuters /SQL/ VBA/ Python Anglais indispensable Resultats attendus / livrables : - Contrôle de la production quotidienne des intégrations des flux d'alimentation des administrateurs de fonds, dépositaires par application des procédures de contrôles qualités - Contrôle de la production transverse MDS de la prestation Back To Front pour l'ensemble de nos clients externes. o Contrôle des Holdings o Rapprochement et création des instruments financiers o Mise à jour des KPIs clients - Proposition d'optimisations des process de production et des contrôles pour une meilleure efficacité - Support de second niveau auprès des utilisateurs La mission est à pourvoir ASAP, se dérouleras dans Paris Intramuros. 2 ou 3 jours de télétravail par semaine sont prévus.

Freelance

Mission freelance
Développer C# - Python

SILKHOM
Publiée le
Angular
Python

2 mois
350-800 €
Bordeaux, Nouvelle-Aquitaine

- Comprendre rapidement l’existant (API cloud, structure SQL, et performances actuelles). - Analyser les choix techniques effectués et proposer des alternatives en accord avec les besoins métiers. - Développer et optimiser des modules en C#, tout en proposant des solutions complémentaires en Python si nécessaire. - Collaborer avec l’équipe pour restructurer la solution en mode Agile, avec une architecture modulaire. - Participer à l’intégration de la supervision des données collectées de 3000 stations, tout en garantissant des temps de réponse optimaux. - Apporter une vision technique sur les technologies à privilégier pour garantir une pérennité des solutions. Pourquoi accepter cette mission ? 1. Projet stratégique : Vous participerez à la refonte d’une solution clé utilisée dans 3 000 stations-service, avec un impact direct et des enjeux techniques stimulants. 2. Polyvalence et défis techniques : Une mission diversifiée touchant au cloud Azure, aux API, et à l’intégration de données, dans un environnement mêlant matériel et logiciel. 3. Rôle clé : Vous serez moteur dans les choix techniques et l’optimisation des performances, avec une autonomie et des responsabilités accrues. 4. Collaboration et flexibilité : Une équipe à taille humaine, jusqu’à 2 jours de télétravail par semaine, et une mission adaptable (2 mois renouvelables).

Freelance
CDD

Offre d'emploi
Data Engineer AWS, Docker, K8S, Terraform, Microservices, Python - Paris

Espritek
Publiée le
AWS Cloud
Docker
Microservices

12 mois
110k-127k €
650-750 €
Paris, France

Nous recherchons, dans le cadre d'une mission chez l'un de nos clients, un(e) Data Engineer expérimenté(e) pour la conception, la construction et la gestion de l’infrastructure data. Vos missions : Conception architecturale : Définir et mettre en œuvre l'architecture de la plateforme de micro-services, en optimisant les performances et la scalabilité. Développement : Développer des pipelines de traitement de données complexes, en utilisant des outils tels que Python, Spark et les services AWS (S3, EMR, Lambda, etc.). Intégration : Intégrer les différents composants de l'infrastructure (bases de données, outils de visualisation, etc.). Optimisation : Garantir la performance, la fiabilité et la sécurité de l'infrastructure. Profil recherché : Expérience : Au moins 6 ans d'expérience en tant que Data Engineer, avec une expertise reconnue dans les technologies Big Data et AWS. Compétences techniques: Maîtrise approfondie de Python, Spark, SQL, AWS (S3, EMR, Lambda, Redshift, etc.), Kubernetes, Docker, et des outils de CI/CD. Qualités: Curiosité, rigueur, autonomie, capacité à travailler en équipe et à prendre des initiatives. Détails : Durée : 12 mois Télétravail possible Démarrage ASAP

Freelance

Mission freelance
Consultant FinOps & GreenOps AWS / DevOps

Tenth Revolution Group
Publiée le
AWS Cloud
Git
Gitlab

6 mois
100-500 €
Nanterre, Île-de-France

Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.

Freelance
CDI

Offre d'emploi
Data Engineer Python/SQL

Oceane consulting
Publiée le
Numpy
Pandas
Python

15 mois
54k-63k €
500-550 €
Paris, France

Data Engineer Python/SQL Dans le cadre d'une équipe dédiée à la gestion des données globales et transverses pour un acteur majeur de la finance de marché, vous participerez à des projets stratégiques autour de la gestion et de l’analyse des données pre-trade. Vous contribuerez au développement et au maintien d’outils de détection d’abus de marché basés sur des modèles statistiques, en mettant en œuvre des solutions techniques avancées en Python et SQL dans un environnement technico-fonctionnel exigeant.

Freelance

Mission freelance
Data Engineer - SDDS Finance

Freelance.com
Publiée le
BigQuery
CI/CD
Cloud

3 mois
300-600 €
Clichy, Île-de-France

Client : Secteur luxe et beauté Mission : Data Engineer - SDDS Finance Expérience : + 5 ans Localisation : Offsite Démarrage : 02/01/2025 Objectifs/Descriptif de mission : Compétences requises: - GCP (focus on BigQuery, Cloud Run, Cloud Build) -SQL -Python -DevOps (Github) -API Development (Flask RestX or FastAPI) -Terraform Contexte de la prestation : Dans le cadre de la transformation Beauty Tech de notre client, l'équipe Engineering de la Data Factory Team à deux missions: 1- Développer la Beauty Tech Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du groupe L'Oréal 2- Développer des use cases Data sur la Beauty Tech Data Platform à l'aide des équipes de la Data Gouvernance.

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

CDI

Offre d'emploi
Administrateur Supervision Zabbix – CDI - (H/F)

SWING-ONE
Publiée le
Ansible
Docker
Kubernetes

40k-50k €
Pays de la Loire, France

CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte de la Banque un/une Administrateur(trice) spécialisé(e) en supervision Zabbix. Vous participerez activement à des projets innovants de transformation et de convergence des outils de supervision et métrologie, tout en contribuant à l’amélioration continue des plateformes existantes. MISSIONS PRINCIPALES : Accompagner les projets de transformation liés à la supervision et à la métrologie, en proposant des solutions techniques sécurisées et industrialisées. Optimiser l’administration des plateformes par l’automatisation et contribuer à l’implémentation de nouveaux composants. Fournir un support expert auprès des équipes locales et offshore, tout en collaborant avec les éditeurs. Participer au contrôle qualité et à l’évolution des infrastructures techniques.

Freelance

Mission freelance
Architecte Cloud AWS

Phaidon London- Glocomms
Publiée le
Ansible
AWS Cloud
Docker

12 mois
500-650 €
Toulouse, Occitanie

Titre du poste : Architecte Cloud AWS Lieu : Toulouse Secteur : Leader de l'industrie aérospatiale Durée du projet : Contrat de 6 mois (renouvelable) Durée totale du projet : 3 ans À propos de l'entreprise Notre client est un acteur mondial de premier plan dans l'industrie aérospatiale, spécialisé dans la conception, la fabrication et la livraison de produits et services innovants aux compagnies aériennes et entreprises de l’aviation à travers le monde. Engagé dans le développement des technologies de pointe, il vise à améliorer la connectivité dans le secteur de l'aviation. Description du poste Nous recherchons un Architecte Cloud AWS talentueux et passionné pour rejoindre notre équipe dynamique et innovante à Toulouse. Dans ce rôle, vous collaborerez avec notre client dans le secteur aérospatial sur divers projets d’architecture cloud. Vos principales responsabilités incluront : Concevoir et définir des architectures cloud selon les meilleures pratiques AWS et les standards d'infrastructure IT du client. Garantir la conformité de la plateforme en matière de sécurité en collaboration avec les experts en sécurité. Fournir une expertise en architecture de solutions cloud, en particulier sur AWS. Définir les coûts d'infrastructure cloud et optimiser les stratégies de déploiement. Contribuer aux analyses d'impact et évaluer la viabilité des solutions cloud. Réaliser des Proof of Concepts (POC) et se tenir informé des technologies émergentes pertinentes pour les projets en cours. Collaborer étroitement avec le Product Owner et les équipes de développement pour assurer l'alignement et une mise en œuvre fluide. Participer activement aux comités d'architecture et contribuer aux propositions stratégiques. S'intégrer dans une équipe Agile pluridisciplinaire et s'adapter aux besoins et exigences évolutifs. Compétences et qualifications requises : Expertise Cloud : Solide expérience avec les clouds publics, en particulier AWS (certification AWS Solutions Architect Associate souhaitée). Conteneurisation : Connaissance des outils Docker et Kubernetes. Langages de programmation : Maîtrise de Terraform, Ansible, Python, PowerShell et Bash. CI/CD : Expérience avec les pipelines d'intégration et de déploiement continus. Compétences linguistiques : Niveau minimum B1 en anglais, français courant ou natif indispensable. Collaboration en équipe : Capacité à travailler efficacement au sein d'une équipe et à diriger des projets dans un environnement Agile. Communication : Excellentes compétences en communication pour interagir avec les clients et les parties prenantes.

Freelance

Mission freelance
Expert Ingénieur OpenStack

Phaidon London- Glocomms
Publiée le
Ansible
Monitoring
OpenStack

12 mois
550-700 €
Paris, France

Titre du poste : Expert Ingénieur OpenStack Lieu : Paris/Madrid Secteur : Banque Durée du projet : Contrat de 12 mois (renouvelable) Durée totale du projet : 3 ans Travail à distance : 2 jours sur site par semaine À propos de l'entreprise Notre client est un leader mondial de la banque de financement et d'investissement, présent dans plus de 70 pays. Il propose des solutions personnalisées de financement, de conseil et de marchés financiers à des entreprises, institutions financières et investisseurs. Engagé dans l'innovation et la durabilité, il favorise les initiatives de financement vert tout en promouvant une culture collaborative et tournée vers l'avenir. Description du poste Nous recherchons trois experts ingénieurs OpenStack pour rejoindre notre équipe sur un projet dynamique et de long terme. C’est une opportunité unique de travailler avec des technologies de pointe dans un environnement international de fournisseur cloud et IT. Un poste est basé à Paris et deux postes sont basés à Madrid, avec un modèle hybride : 2 jours sur site et 3 jours en télétravail par semaine. Responsabilités Gestion des infrastructures : Gérer, optimiser et garantir la fiabilité des infrastructures OpenStack Canonical. Automatisation & Orchestration : Développer et maintenir des scripts innovants utilisant Ansible, Python et d'autres outils pour automatiser les workflows et les opérations système. Gestion des inventaires : Créer et maintenir des inventaires CNDB précis et efficaces, en adéquation avec les besoins du projet. Supervision : Mettre en œuvre et gérer des outils de monitoring tels que Prometheus pour assurer la santé et la performance des systèmes. Collaboration : Travailler en étroite collaboration avec des équipes internationales (New York, Singapour, Bangalore) pour garantir des opérations fluides et une intégration cohérente. Excellence en production : Participer aux tâches de production, résoudre les problèmes de manière proactive et améliorer les processus pour atteindre des performances optimales. Compétences et qualifications requises Expérience approfondie avec OpenStack Canonical. Maîtrise avancée d'Ansible, Python et outils d'automatisation. Compétences solides dans le développement et la gestion d'inventaires CNDB. Expertise en systèmes de supervision, en particulier Prometheus. Connaissances approfondies des regex et techniques de scripting en ligne. Expérience avérée en ingénierie système et optimisation d’infrastructures. Une expérience dans des environnements internationaux est un plus. Compétences comportementales Esprit proactif, capable d’identifier et résoudre les problèmes de manière créative et efficace. Capacité à travailler en équipe et à collaborer avec des équipes internationales. Grande attention aux détails et engagement envers la qualité. Langues Anglais courant requis.

Freelance

Mission freelance
développeur windev

Cherry Pick
Publiée le
C/C++
Développement web
Python

12 mois
550 €
Paris, Île-de-France

Contexte de la prestation Dans le cadre du développement des outils spécifiques de la Direction des projets stratégiques de La Direction Organisation et Systèmes d’Informations souhaite recourir à l’expertise de deux prestataires pour la réalisation de ses travaux de développement. Objet des prestations :Les prestations consistent en la réalisation par le prestataire :- de l’analyse des applications actuelles,- de la prise en compte des besoins,- de la rédaction d’un dossier de spécifications,- de la réalisation des adaptations des applications,- de l’exécution des tests unitaires,- de l’exécution des tests fonctionnels.Livrables attendus :- Spécifications Fonctionnelles Détaillées,- Résultats des tests,- Codes source.Environnement de développement :· WinDev 2025,· WebDev 2025,· Base de données : HFSQL, MySqlExpertises requises principales :- Compétence de type MOE- Expertise de WinDev / WebDev- Exploitation des assemblages .Net au sein de projets WinDev- Une connaissance des langages Python et C# serait un plus- Maîtrise de MySql et HFSQL et du requêtage SQL- Capacité rédactionnelle et relationnelle- Maitrise du domaine des assurances

433 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous