Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 711 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Intégration/ Recette

Digistrat consulting
Publiée le
Linux
Oracle SQL Developer
Python

3 ans
40k-60k €
Paris, France

💼 Poste : Intégration/ Recette 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : IDF 🗓 Démarrage : ASAP 💡 Contexte de la mission : Le client souhaite un accompagnement dans le cadre de la mise en œuvre des évolutions fonctionnelles et techniques sur une application critique. Contribution est en contact direct avec les métiers, le fournisseur et les entités de production. Objectifs de la mission : Contribution à la mise en place de l'architecture technique du système d’information, Conception et préconisation des solutions techniques / veille technologique, Pilotage et contribution aux recettes techniques et fonctionnelles des versions applicative, Analyse des impacts techniques des nouvelles versions/solutions et leur cohérence avec l'architecture existante, Mise en œuvre des solutions et pilotage d’interventions dans le cadre des versions applicatives, Support applicatif auprès des utilisateurs métier et de la MOA et gestion des incidents (astreintes). Expertise des technologies : MQSeries, systèmes de paiements, ORACLE SQL, Linux, shell script, python et evnentuellement le progiciel Environnement anglophone

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data
ingenieur

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
300-600 €
Nanterre, Île-de-France

CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)

Freelance

Mission freelance
Administrateur système et réseau - Grenoble (H/F)

LeHibou
Publiée le
Docker
MySQL
Python

12 mois
350-440 €
Échirolles, Auvergne-Rhône-Alpes

Notre client est à la recherche d'un administrateur système et réseau : Missions - Surveiller les systèmes et assurer le bon fonctionnement de toute l'infrastructure du lab et des clusters HPC & AI. - Installer, mettre à jour et configurer le logiciel, le micrologiciel et le matériel. - Faire évoluer les architectures des systèmes et de l'infrastructure pour s'adapter au nouveau matériel - Assister les développeurs lorsqu'ils rencontrent des problèmes de disponibilité au sein du lab - Être force de proposition pour l'amélioration des produits développés par l'équipe de R&D logicielle. Compétences : - Système d'exploitation Linux (RedHat, SUSE) - Scripts (Python/Perl/Bash) - Administration de réseaux (Ethernet, InfiniBand...) - Gestion de la configuration (Puppet, Ansible) - Virtualisation (KVM) - Conteneurs (Docker, Kubernetes) - Base de données (Postgresql, MySQL) - Monitoring (Centreon, Grafana/Prometheus) - Backup Vous utilisez des outils de gestion de versions (GIT) et êtes capable de vous intégrer dans une équipe de R&D dans un contexte Agile. La connaissance du HPC, de Slurm, de Luster et du stockage est un plus.

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance
CDI
CDD

Offre d'emploi
TechLead Cloud DevOps

bdevit
Publiée le
Ansible
AWS Cloud
CI/CD

36 mois
50k-60k €
Île-de-France, France

En tant que TechLead Cloud DevOps , vous serez chargé de concevoir, d’implémenter et d’optimiser des infrastructures cloud tout en établissant des pipelines CI/CD automatisés. Vous superviserez la migration des environnements on-premise vers le cloud, en assurant la robustesse, la sécurité et la scalabilité des systèmes, principalement basés sur Kubernetes et des architectures microservices. Missions principales : - Concevoir et déployer des infrastructures cloud robustes, évolutives et sécurisées, basées sur des architectures microservices ; - Administrer et gérer les environnements OpenStack, en veillant à leur bon fonctionnement et à leur évolutivité ; - Orchestrer les conteneurs avec Kubernetes, gérer les clusters en production et optimiser leur performance ; - Mettre en place, déployer et gérer des pipelines CI/CD automatisés, principalement avec GitLab CI, afin d’assurer des déploiements continus et fiables ; - Automatiser les tâches d'administration et de déploiement à l'aide de scripts Python et d'outils d'infrastructure as code (Ansible, Terraform) ; - Surveiller les performances des infrastructures et effectuer les ajustements nécessaires pour garantir leur fiabilité et leur disponibilité.

CDI
Freelance

Offre d'emploi
Ingénieur Validation (F/H)- Domaine Scientifique – Toulouse (31)

CELAD
Publiée le
pytest
Python
Squash TM

1 an
35k-37k €
Toulouse, Occitanie

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recrutons un Ingénieur Validation (H/F) pour intervenir sur l’un de nos projets, dans le secteur scientifique. Les missions 🎯 : Pour renforcer l'équipe, vous serez chargé(e) des responsabilités suivantes : - Examiner les exigences fonctionnelles et non fonctionnelles de la plateforme client - Contribuer à l'élaboration de la stratégie de test et définir les besoins en matière de tests - Concevoir et mettre en œuvre des tests (automatisés et manuels) ainsi que des scripts pour générer des données de test - Préparer et exécuter des campagnes de validation en adéquation avec les progrès de l'équipe de développement Compétences exigées : Validation fonctionnelle, Scripts Python, Pytest, Playwright, Squash, Exécution de tests, Rédaction de rapports Compétences appréciables (non-obligatoires) : Git, Jira, Anglais

Freelance

Mission freelance
Data Scientiste

Phaidon London- Glocomms
Publiée le
Big Data
Data science
ETL (Extract-transform-load)

6 mois
550-700 €
Paris, France

Nous sommes à la recherche d'un(e) ingénieur(e) de données/scientifique avec une expérience de travail avec des entreprises biomédicales/pharmaceutiques. Client : Industrie biomédicale Rôle : Data Curation Engineer Lieu de travail : Paris // Un jour sur site par semaine Durée du contrat : 3 mois renouvelables (Projet à long terme) Date de début : ASAP Votre objectif est de travailler au sein d'une équipe interfonctionnelle (Data Engineers & Data Scientists) sur le pipeline de qualité des données. Vous configurerez et exploiterez des scripts et des pipelines de données, avec des étapes comprenant l'extraction, le nettoyage, la curation et l'imputation de différents ensembles de données de patients.# Principales responsabilités : Participer au pipeline de qualité des données Vous vous assurez que les données sont alignées sur les normes et conventions du client (par exemple, codage, terminologies). Travailler en étroite collaboration avec l'équipe Data Engineering Configurer et exploiter des scripts et des pipelines de données afin de fournir des données conformes aux normes du client. Exécuter régulièrement les pipelines de contrôle conçus par les Data Scientists, transférer les données traitées dans les ensembles de données respectifs et assurer la conformité de la structure des ensembles de données. Assurer la structure et la révision des fichiers (versionnement, suivi, renommage, ingestion, formatage). Vous êtes en charge de la préparation et de la révision de rapports qualitatifs et quantitatifs détaillés sur les activités et les problèmes liés à la curation des données, à destination des clients et des parties prenantes.

Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
Big Data
Consultant

24 mois
275-550 €
Nanterre, Île-de-France

Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)

Freelance

Mission freelance
Consultant SAP CO

KN CONSULTING
Publiée le
Support technique
Tierce Maintenance Applicative (TMA)

10 mois
100-530 €
Paris, France

Analyse de rentabilité SAP CO (P3 - Avancé) Le projet est dédié à la mise en œuvre de SAP CO Profitability Analysis pour apporter de la valeur aux entreprises. Responsabilités : Responsable de la maintenance et de l'évolution du modèle NEO Core pour le contrôle de gestion SAP S/4HANA. Conception fonctionnelle, personnalisation, tests et déploiement pour les activités en cours et futures. Support de plus haut niveau en cas d'incidents de type AMS productifs. Collaboration avec des équipes offshore, d'autres équipes (squads), etc. Télétravail : Le télétravail est possible, mais pas pour un consultant entièrement à distance. Le ratio hybride habituel entre travail sur site et télétravail est plutôt de 60 % sur site par semaine. Langues : Anglais (requis), français (apprécié)

Freelance

Mission freelance
Architecte Technique

KUBE Partners S.L. / Pixie Services
Publiée le
microsoft
Support technique

6 mois
100-750 €
Yvelines, France

Nous recherchons pour l'un de nos clients dans le domaine financier, un Architecte Technique et Applicatif, pour une mission de 6 mois renouvelable. Votre intervention se fera dans le cadre du maintien en condition de l'architecture technique. Vous contribuerez aux différents projets de mise en place de solutions transverses complexes. Vous contrôlerez la qualité des livrables. Les missions attendus seront : Choix des solutions; Définition et rédaction de l'architecture technique; Contribution et/ou définition de l'architecture applicative; Participer à la validation des projets au sein des comités; Support ponctuel sur le déploiement de l'architecture technique.

Freelance

Mission freelance
Lead Dev Computer Vision H/F

LeHibou
Publiée le
Computer vision
Python

12 mois
550-600 €
Lyon, Auvergne-Rhône-Alpes

Notre client dans le secteur Énergie et ressources naturelles recherche un/une Lead Dev Computer Vision H/F Description de la mission: Notre client souhaite se renforcer sur le domaine de la vidéo intelligente. Les objectifs métiers : Définir les solutions technique svidéo répondant aux besoins des métiers Réaliser les expérimentations Maintenir et faire évoluer les installations existantes et être en appui à l'exploitation L'équipe est en cours de construction et se composera d'un CP, d'un expert Video, d'un référent lead tech La mission : Prendre le rôle de lead dev du périmètre Computer Vision Mettre en place une plateforme de développement Appuyer les architectes et les CP lors de la conception Expérimenter et tester les prototypes Implémenter et produire du code industriel définir les spécifications détaillées vielle technologique ... Compétences / Qualités indispensables : Expérience en computer vision , connaissance scientifique en traitement d'image , Dev Python avec Opency, Pytorch, Tensorflow, ONNX, Linux (redhat, Ubuntu), nvidia,cuda, Docker,Git

Freelance

Mission freelance
Ingénieur MLOPS

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Airflow
AWS Cloud
Google Cloud Platform

3 mois
100-380 €
Montpellier, Occitanie

Nous recherchons pour un de nos clients basés à Montpellier un consultant MLOPS, pour une mission freelance (longue visibilité) avec une possibilité de Pré embauche sous 1 an de mission Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance

Mission freelance
Data Engineer

INSYCO
Publiée le
Gitlab
GitLab CI
Google Cloud Platform

15 mois
450-600 €
Paris, France

Nous recherchons pour notre client grand compte, secteur médias, un Data Engineer répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées par MAIL [à freelance à insyco . fr] avec les informations suivantes : - Argumentaire écrit répondant de façon ciblée au besoin - CV à jour (format Word) - Date de prochaine disponibilité - Tarif journalier - Merci d’indiquer la référence VSE/DATA/4525 en objet du mail La Direction Technique du Numérique de notre client mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Avec pour objectif d’accélérer dans le déploiement de la Gouvernance des données au sein de notre plateforme Data, nous souhaitons constituer une nouvelle équipe en charge de déployer les différents datasets organisés par domaine de données. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constituée de Python, Spark, SQL, dbt, BigQuery et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions de cette équipe : 1- Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2- Accompagner les utilisateurs dans leurs usages 3- Mettre en place le contrôle qualité sur ces datasets Prestation attendue pour les 2 lots En interaction avec les membres de l’équipe, la prestation consistera à - Construire et maintenir de pipelines data robustes et scalables - Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données - Organiser et structurer le stockage des données - Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données - Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données - Construire et maintenir les workflows de la CI/CD centrés données - Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur - Participer à la guilde des data ingénieurs - Assurer l’évolutivité, la sécurité, la stabilité des environnements - Contribuer et veiller à la mise à jour de la documentation - Faire de la veille technologique active dans le domaine - Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe

Freelance
CDI

Offre d'emploi
Service Delivery Manager

Lùkla
Publiée le
Azure
Firewall
LAN

6 mois
50k-55k €
Lyon, Auvergne-Rhône-Alpes

Les missions permanentes sont : - Accompagner les Centres de Solutions Applicatifs dans le cadrage des besoins, la traduction en solution techniques et dans le RUN applicatif infogéré - Élaborer des recommandations pour pouvoir intégrer en toute sécurité de nouvelles solutions SI au sein de l’entreprise et en assurer la garantie de service (disponibilité, intégrité, continuité et preuve) selon les SLAs définis avec l’infogérant - Piloter l’intégration technique des nouvelles applications et services déployés par d’autres équipes (Build2Run) - Etre le point d’escalade des Centres de Solutions Applicatifs dans le traitement des demandes auprès de l’infogérant - Coordonner les différents interlocuteurs (Centre de Solutions Applicatifs, Infogérant) dans la gestion des incidents critiques (incluant la gestion de crise) et animer la gestion des problèmes concernant un périmètre applicatif donné - Participer à la gestion des changements (CAB) et recueillir les retours des Responsables Applicatifs - S’assurer de la complétude et de la mise à jour de la documentation et de la CMDB concernant un périmètre d’applications donné - Etre garant du bon déroulement du RUN (patch management, déroulement des backup, supervision, ordonnancement, etc…) pour un périmètre d’applications donné - Gérer le budget RUN Infrastructure nécessaire à l’hébergement des applications d’un périmètre donné et identifier les pistes de réduction des coûts du RUN - Animer les sessions de Reporting du RUN et être garant de la qualité de la production des services IT pour un périmètre d’applications donné - Assister les Responsables Informatiques Site dans la gestion des incidents critiques avec les infogérants - Poste soumis à enquête administrative

Freelance
CDI

Offre d'emploi
skiils recherche son/sa futur(e) DevOps réseau et sécurité pour ses équipes au maghreb (remote)

skiils
Publiée le
Administration réseaux
Python

1 an
10k-200k €
Île-de-France, France

Nous sommes à la recherche d'un DevOPS pour rejoindre nos équipes. Si vous êtes passionné par le réseau et le développement Python et que vous souhaitez contribuer à la transformation numérique d'une grande entreprise leader dans dans son domaine ce poste est fait pour vous ! Analyser les flux TCP avec PaloAlto pour identifier les problèmes et identifier les solutions Analyser les flux HTTPS avec HAProxy et Envoy pour identifier les problèmes et identifier les solutions Faire du développement Python pour faciliter la transition HAProxy vers Envoy Intégrer son développement dans de la CICD (Jenkins ou Gitlab CI) Collaborer avec les équipes techniques et communiquer avec les clients 🔎 Rejoignez une équipe innovante et contribuez à l'évolution de notre infrastructure cloud !

711 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous