Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 468 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
QA Auto ISTQB sénior CDi uniquement

Kaïbee
Publiée le
Automatisation
Git
ISTQB

10k-65k €
Paris, France

L'ESN KAÏBEE recherche pour son client un QA automaticien sénior. Kaïbee est un cabinet de conseil IT qui met son expertise au service de projets passionnants dans un esprit pragmatique, craft, agile, et méritocratique. Notre première vocation : accompagner la carrière de nos talents IT à l’instar d’un agent qui s’applique à faire de ses artistes des stars. Notre Client : Entreprise leader dans les services énergétiques , filiale d'un grand groupe du secteur de l'énergie, met son expertise au service de ses clients pour développer, réaliser et gérer des solutions énergétiques écologiques et économiques. Au sein de la Direction des Systèmes d'Informations et du Numérique (DSIN) , vous intégrerez l’équipe Qualité Produit pour accompagner les équipes techniques et métiers sur l’automatisation des tests ainsi que sur l’automatisation des processus par la robotique (RPA). Vous serez responsable des projets d’automatisation sur le web, mobile et API, en ayant une maîtrise complète des outils Robot Framework , Selenium , et Appium . Une solide connaissance du Système d'Information en général et du langage de programmation Python est également requise. Vos missions incluront : La prise en charge des sujets d’automatisation, Le développement et la maintenance des tests et des robots. Ce poste est ouvert en remplacement d’une ressource externe, et la mission est à pourvoir dès que possible .

Freelance
CDI
CDD

Offre d'emploi
Infrastructure Architect (Ref : AG)

FIRST CONSEIL
Publiée le
Azure
Big Data
Google Cloud Platform

3 ans
10k-100k €
Paris, France

Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)

Freelance
CDI

Offre d'emploi
Devops AWS

VISIAN
Publiée le
CI/CD
DevOps
Github

1 an
10k-68k €
La Défense, Île-de-France

Description du Poste : Identity & Access est à la recherche d'un Dev/DevOps AWS Senior pour rejoindre son équipe d'automatistaion. Le candidat idéal aura une solide expérience dans la mise en place d'infrastructures sur AWS, avec une expertise particulière dans l'intégration d'API Gateway au sein d'un VPC AWS. Vous serez responsable du développement, de l'implémentation et de la maintenance des API REST permettant la communication entre différents services du département Identity and Access (Okta, PIAM, Active Directory, PKI, etc.). Vous jouerez un rôle clé dans la conception de solutions automatisées, le développement de passerelles API robustes et la gestion de l’intégration des services d’identité et d'accès. Vous devrez également avoir une maîtrise approfondie des pratiques DevOps et une capacité à documenter les processus techniques et à collaborer avec des équipes en transverse. Certification Obligatoire : AWS Certified Solutions Architect Professional et AWS Certified DevOps Engineer Professional Nb : Les deux certifications seront vérifiées Missions Principales : • Concevoir, développer et intégrer une API Gateway dans un VPC AWS afin de communiquer avec divers services d'Identity and Access (Okta, pIAM, Active Directory, PKI, etc.). • Implémenter et maintenir des API REST pour orchestrer et automatiser les flux entre ces services. • Collaborer avec les équipes de sécurité et d'identité pour garantir l’intégrité, la sécurité et la conformité des solutions mises en œuvre. • Automatiser les processus de déploiement, de scaling et de monitoring à l’aide des outils et services AWS (CloudFormation,Terraform, etc.). • Rédiger des documents techniques détaillés, y compris des guides d’architecture et de processus, pour garantir la traçabilité et la maintenance des solutions. • Utiliser des pipelines CI/CD pour les déploiements automatisés avec GitHub et d'autres outils. • Assurer le support technique et les améliorations continues des services développés. • Participer à l'élaboration et à l'évolution de l'architecture globale du département Identity and Access.

Freelance

Mission freelance
Ingénieur IT / OT (SCADA - Industrie 4.0)

Mon Consultant Indépendant
Publiée le
Data science
SCADA

6 mois
600-700 €
Nogent-sur-Seine, Grand Est

En collaboration avec l’équipe du programme de transformation du métier des malteries, vous serez responsable des pré-requis techniques permettant le déploiement d’une solution d’intelligence artificielle. Le projet Industrie 4.0 vise notamment à optimiser les processus de fabrication industrielle, sur les sites industriels à l’international du client. Vous aurez en charge la standardisation des données industrielles sur la base des supervisions, des PLC et des solutions d'automatisation utilisés en production. Vous serez intégré à l’équipe d’ingénieurs IT / OT, qui vous guidera, dans les premières semaines, pour appréhender le processus industriel de maltage. En interaction quotidienne avec des équipes pluridisciplinaires (Business Product Owner, Product Manager, responsables de production et maintenance des sites, chefs de projet Transformation…), vous reporterez au chef de projet Industrie 4.0, sous la codirection du Directeur Industriel et Directeur Transformation. Vos principales missions : Standardiser les données reçues via les automates des sites industriels (création du core model des données industrielles) Créer les spécifications des modèles de données (à partir du code automate, basés sur les supervisions WinCC, Schneider…) pour chaque étape du processus industriel de maltage, à destination du partenaire externe en charge du traitement de ces données Gérer les éventuelles pannes automates et/ou AVEVA (Historian) avec les sites industriels, de manière adhoc Participer aux réunions de pilotage du projet Industrie 4.0 en tant qu’expert technique PROFIL RECHERCHE L'ingénieur OT retenu devra avoir une expérience pratique des systèmes SCADA et une bonne expérience de l'automatisation des processus, en secteur industriel. COMPETENCES SOUHAITEES +3 ans d’expérience sur la création et la maintenance de codes automates / supervisions Expérience en tant qu’automaticien en industrie (la connaissance du secteur agroalimentaire et/ou agricole sera appréciée) Raisonnement analytique et appétence pour le traitement de données Bonne communication écrite et orale Anglais indispensable (B2 minimum) ENVIRONNEMENT & CONDITIONS MISSION La mission est d’une durée initiale de 3 mois (renouvelable), avec un rythme idéalement de 5 jours par semaine (possible 4j). Démarrage immédiat requis. Après une période d’intégration à l’équipe et de formation (deux semaines environ, à 1h de Paris en train), au siège et auprès du partenaire IA (lieu : La Défense), la mission pourra avoir lieu à 90% en distanciel. Des déplacements ponctuels sur les sites industriels (République Tchèque, Allemagne, Serbie, UK…), à raison de 2-3 jours par mois maximum, sont à prévoir. Budget : 600-650€/jour (+ prise en charge des déplacements et des déjeuners sur site)

Freelance

Mission freelance
Architecte Data

HAYS MEDIAS
Publiée le
CI/CD
Docker
ETL (Extract-transform-load)

6 mois
100-540 €
Lille, Hauts-de-France

Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev

Freelance

Mission freelance
Data scientist - Pyspark et Python

Mon Consultant Indépendant
Publiée le
Big Data
Data science
PySpark

6 mois
300-410 €
Paris, France

A propos du client : Secteur : Banque Ville du client / employeur : Paris et région parisienne Précision lieu : Type : Grand groupe Taille : > 1000 salariés Description de l'offre : Pour un client bancaire nous cherchons un profil data scientist sachant impérativement maîtriser Pyspark et Python (Maîtrise avancée). Le rôle est d'être responsable du pilotage technique et de l'enrichissement des algorithmes des scénarios de lutte contre le blanchiment et le financement du terrorisme. Ces scénarios servent à détecter de smouvements de compte suspects. Pour cela il faut : -développer des algorithmes robustes -identifier et intégrer de nouveaux critères -améliorer avec des critères la prédictibilité des modèles -identifier les résultats incohérents pour fiabiliser les modèles -auditer la qualité des données qui sont prises en compte dans les scénarios -travailler avec l'équipe métier -être force de proposition pour intégrer de nouvelles technologies si pertinentes Critères de candidatures Critère 1 : Python Critère 2 : Pyspark Critère 3 : Big Data

Freelance

Mission freelance
Consultant Expert SAP BW

KEONI CONSULTING
Publiée le
SAP BW
SAP S/4HANA
SQL

12 mois
100-600 €
Paris, France

Contexte : Notre client souhaite être accompagné afin de sécuriser le nouveau dispositif mis en place dans le cadre de leur massification sur un projet interne d’ampleur et s’appuyant sur SAP MISSIONS : Développer des fonctionnalités / modules spécifiques aux besoins du client Assurer le déploiement de la solution SAP Rédiger les supports et documentation techniques Résoudre les problèmes Prendre en charge le pilotage de projets Suivre et traiter les évolutions SAP BO

Freelance
CDI

Offre d'emploi
Développeur web (h/f)

SCALIAN
Publiée le
Android
Angular
CI/CD

2 ans
35k-42k €
Nantes, Pays de la Loire

Le projet consiste à mettre en place un SI permettant de gérer l’offre du client. Le projet consiste à réécrire complètement un SI existant, afin d’instruire l’ensemble du dispositif proposé, de l’inscription des utilisateurs (BtoB et BtoC), au paiement des prestations, ainsi que l'application en elle-même. La prestation consiste à intégrer l’équipe de développement BUILD du projet. De par sa maîtrise des langages, le développeur aura les activités suivantes : · Conseiller la MOA sur des aspects techniques · Réaliser la conception détaillée · Faire évoluer l’application en mode AGILE · Apporter à tous les niveaux de technicité, un support sur les outils et les langages concernés · Réaliser le plan de tests · Gérer les composants en version et en configuration · Réaliser les tests · Préparer la mise en exploitation · Assurer le support aux services d’exploitation Les livrables attendus sont les suivants : · User stories développées selon la Definition Of Done · Tickets d’anomalie traités selon les charges et planning décidés · Documents de mise en production

CDI

Offre d'emploi
Data Engineer Power BI H/F

AMAGO EXPERTISE
Publiée le
Apache Airflow
Azure Data Factory
Databricks

10k-56k €
Saint-Denis, Île-de-France

AMAGO IT recherche dans le cadre d'une mission de longue durée chez un client GC basé en IDF 93 : Data Engineer H/F Missions : · Participation aux ateliers de conception technico-fonctionnels · Prise en charge des activités de développement · Remontée d’informations aux équipes de pilotage · Participation aux daily et autres cérémonies agiles · Chiffrage et réestimation du reste à faire au fil des développements · Développement des fonctionnalités en respectant les bonnes pratiques définies · Développement des tests automatisés · Correction des anomalies fonctionnelles et/ou techniques · Participation aux différentes communautés techniques

Freelance

Mission freelance
Data Scientiste Machine Learning

QUALIS ESN
Publiée le
Big Data
Databricks
Python

12 mois
440-540 €
Levallois-Perret, Île-de-France

Nous recherchons un prestataire Data Scientist expérimenté pour rejoindre notre équipe et capable de transformer nos données en informations précieuses pour orienter nos décisions stratégiques. Le prestataire retenu aura une solide expérience technique dans le développement des solutions Data science pour répondre aux enjeux de performance et d’innovation (modèles prédictifs, algorithmes de recherche opérationnelle, Machine Learning, Deep Learning, Computer Vision, Time Series, etc...). Le prestataire sera responsable du développement et optimisation des modèles de machine learning robustes, l’analyse des données, l’amélioration et l’optimisation de processus décisionnels. Il ou elle jouera un rôle clé en tant qu’expert technique : - Data Processing : collecte, nettoyage, traitement et modélisation des données. - Analyse exploratoire : identification des motifs, tendances et anomalies. - Data Visualisation : visualisation claire et concise des résultats via des outils de visualisation. - Qualité et Responsabilité technique : assurer la qualité et l’intégrité des analyses et informations partagées. - Modélisation et Algorithmes de machine learning : développer et implémenter des modèles statistiques, de machine learning et d’intelligence artificielle (prédiction, classification, clustering, NLP, ect …). - Optimisation et Mise en production : optimiser les modèles développés et déployer les modèles en production. - Interprétation et Communication : identification d’insights pertinents, communication des résultats à travers des visualisations et rapports clairs et concis. - Collaboration : travailler étroitement avec les équipes techniques et non techniques. - Résolution de problèmes spécifiques : compréhension des défis métiers et propositions des solutions performantes adaptées aux besoins et contraintes de l’organisation. - Innovation : tests et propositions de nouvelles approches ou technologies qui améliorent les processus de traitement de données et la qualité des modèles. - Transmission de savoir : participer à la montée en compétences des data scientists internes en partageant son savoir et en expliquant le développement détaillé des méthodologies employées.

Freelance
CDI

Offre d'emploi
Data Manager – Video - Automobile (F/H)

CELAD
Publiée le
Data management

12 mois
60k-65k €
Créteil, Île-de-France

📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Nous recherchons un Data Manager pour renforcer son équipe dédiée à la validation du système de surveillance des conducteurs . Ce système est basé sur des caméras embarquées dans l'habitacle des véhicules, qui enregistrent des données telles que le niveau de fatigue, de vigilance et de stress du conducteur. L'objectif est de gérer l'ensemble du cycle de vie des données générées, depuis leur collecte jusqu'à leur archivage et leur traitement. Vos responsabilités : Assurer la gestion des données de validation (collecte, traitement, stockage, archivage) pour le système DMS. Tâches principales : Prendre les disques durs contenant les données collectées dans les véhicules. Gérer et stocker ces données (incluant des volumes massifs tels que des vidéos en streaming). Archiver les données et estimer les coûts liés à ce processus. Transférer les données vers les différents sites du client. Assurer la conformité aux exigences RGPD. Injecter les données dans des bancs de tests pour la validation. Étudier des solutions de stockage sur le cloud (GCP et AWS par exemple).

CDI

Offre d'emploi
Développeur Java full stack Angular

Crafteam
Publiée le
Angular
AngularJS
Confluence

10k-55k €
Île-de-France, France

Prestation de base : Recueillir, analyser et formaliser les besoins utilisateurs / métiers. Rédiger la documentation. Expertise dans la mise en oeuvre de référentiel d’exigences dans le cadre de projet informatique Gérer le support avec les acteurs impliqués Maîtrise des techniques mises en jeu dans les méthodologies d’élaboration de tests Prestations complémentaires : Compétences d’action et de réalisation : mobilisation, anticipation, autonomie Compétences de résolution de problèmes : perception des enjeux, analyse, synthèse Compétences d’efficacité personnelle : gestion des situations, rigueur Compétences relationnelles : sens du service, conviction Compétences d’assistance et de service : pédagogie Compétences d’efficacité personnelle : opiniâtreté Connaître les standards XML Savoir-faire technique à mettre en œuvre : Capacité à travailler en équipe Compétences relationnelles Qualités rédactionnelles Conduite des réunions de travail Capacité de coordination Aptitude à gérer plusieurs dossiers en parallèle Aisance à communiquer avec des interlocuteurs multiples Esprit de synthèse et de rigueur Anglais écrit et oral.

CDI

Offre d'emploi
Cloud AWS & DevOps Enginner | Data Engineer

Inventiv IT
Publiée le
AWS Cloud
CI/CD
Databricks

40k-55k €
Paris, France

Au sein de l'unité Plateform Data. Projet : Mise en place des infrastructures et livraison des principales briques techniques nécessaires au fonctionnement d’un cas d’usage dans un environnement cloud Build de l’infrastructure sur la plateforme data Provisionnement des ressources des cas d’usage dans databricks et AWS via Terraform Mise en place des pipelines CI/CD pour le déploiement d’infra Attribution et gestion des habilitations via les groupes dans databricks Assurer le maintien en conditions opérationnelles et l'évolution de l’infrastructure Migration des données depuis le OnPrem vers la zone de landing sur S3 Ingestion des données depuis la landing zone vers les différents coffres data (bronze, silver, gold) dans les catalogues databricks Supervision des jobs d’ingestion à travers les dashboards DataDog Résolution des incidents d’infra et pipelines MCO plateforme On Prem Traitement des demandes ponctuelles concernant l’ajout d’users, d’espace hdfs Maitrise Spark / Scala Rythme Hybride

CDI

Offre d'emploi
Expert Ansible Automation Platform (AAP)

Deodis
Publiée le
Ansible
CI/CD
Gitlab

40k-55k €
Bordeaux, Nouvelle-Aquitaine

Le projet consiste à renforcer l’équipe UNX de notre client pour répondre aux besoins croissants de ses clients. Les projets à mener sont de différentes natures : Infrastructures, métiers, gestion d’obsolescences ou encore d’automatisations. Objectifs : Maintien en condition opérationnelle des environnements Linux Gestion de la demande et des incidents de niveaux complexes Support technique aux équipes de RUN Support technique aux équipes cluster métier et des socles Contribution aux projets d’infrastructures : Mise en place de solutions système, Obsolescence, Mise à jour des outils d’administrations, conteneurisation, etc… Industrialisation/automatisation des tâches d’administration avec Ansible, Python, Ansible Automation Platform Contribution à des projets liés à la sécurité des environnements Linux. Mission : L’exploitation de la gestion des environnements Linux. L’industrialisation et l’automatisation des gestes techniques Linux Contribution à des projets d’infrastructures. Participer au travail de projet transverse avec de multiples participants IT et métier Réaliser tout ou partie de projet technique Assure l’installation / upgrade des serveurs Installe et fait évoluer les éléments matériels et logiciels des systèmes Être moteur et force de proposition sur les évolutions La parallélisation du travail sur de multiples projets et actions est à prévoir.

Freelance
CDI

Offre d'emploi
Skiils recherche son Expert data quality

skiils
Publiée le
Data management

12 mois
10k-98k €
Lille, Hauts-de-France

Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.

Freelance
CDI

Offre d'emploi
TECH LEAD DEVOPS MAINFRAME H/F

Proxiad
Publiée le
CI/CD
COBOL
DevOps

3 ans
10k-60k €
Île-de-France, France

Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Management de projet MOE Dans ce cadre la prestation consiste à contribuer à/au(x) : • Pilotage du projet avec le Software Product Owner de l’outil de GCL mainframe • Etude des solutions de GCL du marché, et des nouveaux outils DevOps, CI/CD mainframe (en lien avec les outils du distribué) • Réalisation de POC techniques sur les solutions étudiées • L’architecture technique et des orientations technologiques de la solution cible • La conception et au déploiement de la solution cible Expetise • DevOps, Agile (Kanban) • Techno Mainframe : Endevor (ou autre GCL du même type), JCL, COBOL, REXX, DB2, CICS, IMS, z/OS • Techno Distribué : Git, GitHub, GitHub Actions, Ansible, Python, Groovy

468 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous