Trouvez votre prochaine offre d’emploi ou de mission freelance TCP/IP
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/2OoeEgnC-logo.png)
Mission freelance
Architecte Solution Big Data / RAG (H/F)
Notre client grand compte recherche un architecte Big Data. Notre client développe une plateforme basée sur des agents intelligents tel que les agents de type Retrieval-Augmented Generation (RAG), dans un environnement Google Cloud Platform (GCP). Cette plateforme doit permettre aux utilisateurs métiers de créer et de personnaliser des assistants et des workflows utilisant l'IA générative pour améliorer nos processus et systèmes d'information (SI) existants. Le Solution Architecte va s’intégrer dans une équipe de plusieurs personnes. Le développement est réalisé en Python et Java. Les composants techniques sont réalisés dans une architecture micro-services exposés en partie à l’ensemble de l’entreprise. L’objet de la prestation sera de renforcer l’équipe « plateforme self-service d’agents GenAI » Les activités concernent principalement : • l’évolution et la maintenance de l’architecture des briques de gestion d’assistants, de gestion de la sécurité et de routing vers les services d’IA du marché • l’intégration de nouveaux services d’agent dans l’architecture existante, • l’amélioration et l’optimisation des composants d’ingestion de données non structurées et des agents RAG
Mission freelance
Développeur Backend Golang
Rejoignez une équipe tech d’élite et façonnez l’avenir d’un réseau social en pleine ascension ! 🚀 Qui sont ils ? Je recrute pour une startup en pleine croissance qui révolutionne la manière dont les gens interagissent sur les réseaux sociaux. Leur mission ? Encourager l’authenticité et les connexions sincères. Aujourd’hui, ils comptent plus de 40 millions d’utilisateurs actifs mensuels et une équipe internationale de 30+ passionnés . Ils ont pour ambition de devenir un acteur incontournable du social media, utilisé par des centaines de millions de personnes à travers le monde. 🎯 Votre mission: Ils ont bâti notre produit avec une petite équipe d’ingénieurs ultra-talentueux , et ils comptent bien garder cette approche agile tout en passant à l’échelle. Ici, pas de bureaucratie : vous aurez une grande autonomie pour prendre des décisions et livrer des fonctionnalités innovantes plus vite que n’importe quel autre réseau social . Relevez des défis techniques uniques : des millions d’utilisateurs se connectent en seulement 2 minutes , un vrai challenge d’architecture et de scalabilité. Construisez une infrastructure robuste et performante capable de supporter une croissance massive. Collaborez étroitement avec les équipes produit et tech pour imaginer et développer de nouvelles fonctionnalités . Participez aux décisions techniques clés : trade-offs, architecture, performance, résilience. Apportez votre expertise en revue de code et en conception . 🔥 stack technique: 💾 Backend : Go 🖥️ Infrastructure : GCP, Kubernetes, Pub/Sub, GitHub Actions, ArgoCD 🗄️ Base de données : Spanner, PostgreSQL, Redis 💡 Le profil que nous recherchons : ✅ 5+ ans d’expérience sur des API en architecture distribuée ✅ Maîtrise de Go et expérience confirmée sur des microservices à fort volume ✅ Autonomie, sens de l’initiative et goût pour les défis techniques ✅ Expérience en startup ou environnement tech exigeant ✅ Anglais et français courants (notre équipe est internationale) ✅ Master en informatique ou domaine connexe ⚡ Pourquoi nous rejoindre ? 🔥 Un impact direct : chaque ligne de code que vous écrivez améliore l’expérience de millions d’utilisateurs. 🚀 Un challenge technique unique : travailler sur une plateforme avec des pics de charge impressionnants. 👩💻 Une équipe d’experts : travaillez avec des ingénieurs brillants et passionnés. 🌍 Un projet à dimension internationale : une croissance rapide, des opportunités infinies. 🎯 Un environnement agile et innovant : zéro lourdeur, place à l’efficacité et à la créativité. 📅 Disponibilité : ASAP 🎯 Vous croyez en notre vision et avez envie d’un vrai challenge ? Vous êtes au bon endroit. 📩 Prêt à relever le défi ? Postulez dès maintenant !
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/vdBKfDY8-logo.png)
Mission freelance
Data analyste (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyste (H/F) à Lille, France. Contexte : Après une période de cadrage et de validation, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. Les missions attendues par le Data analyste (H/F) : C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration - Mise en production des livrables validés - Tests intermédiaires des livrables - Analyse du niveau 1 des Bugs remontés Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-383hW35ckssxWuPL.png)
Offre d'emploi
PRE EMBAUCHE Ingénieur SQL Server / BI Microsoft
PRE EMBAUCHE Ingénieur SQL Server / BI Microsoft Bonjour, Nous recherchons un/ une Ingénieur SQL Server / BI Microsoft en PRE EMBAUCHE (CDI) au terme de 6 mois de prestation chez notre client Grand Compte. Vous justifiez de 3 à 5 ans d’expérience sur le maniement du SGBD SQL sachant que SQL Server Analyse de données doit absolument être maitrisé. Rémunération selon profil. Vous aurez la charge de concevoir, déployer et optimiser des pipelines de données tout en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies Microsoft SSIS, SSAS, SSRS avec une ouverture recommandée sur Talend, OpenText et les solutions cloud de Google Cloud Platform (GCP). Description du poste : • Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l’optimisation des performances, l’orchestration des traitements complexes et l’intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. • Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. • Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. • Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. • Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. • Identifier et résoudre les goulots d’étranglement affectant les performances des pipelines de données. • Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. • Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). • Assurer la résilience et le monitoring des traitements de données. • Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. • Rédiger la documentation technique associée aux pipelines et aux traitements. • Participer aux phases de recette et garantir la conformité des livrables. Compétences techniques : • Expertise avérée sur SSIS pour le développement de processus ETL complexes. • Connaissance des technologies Talend, OpenText (souhaité). • Expérience sur Google Cloud Platform, incluant les outils BigQuery, Dataform et Cloud Composer. • Maîtrise avancée en SQL pour la manipulation et l’optimisation des bases de données. • Connaissance des concepts de Data Warehousing et des modèles en étoile et en flocon. Compétence clée et obligatoire : SQL SQL Server Analyse de données
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-xbM7eXGW9aV7nAQ4.png)
Offre d'emploi
Ingénieur MLOPS GCP/Vertex IA
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingenieur MLOPS sur GCP/Vertex IA Tâches: Conception jusqu’à la mise en production en prenant en charge les aspects techniques permettant d’obtenir un processus industriel depuis l’apprentissage d’un modèle IA jusqu’à la mise en production du modèle. Mise en en œuvre des technologies Devops et Mlops pour construire les livrables de façon sécurisée et le plus automatique possible. Réalisation des chaînes CICD et MLOPS. Construction des tableaux de bord avec des KPI adaptés pour permettre le monitoring de la solution IA en production. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-ZSqgyYp4f7G3TbHG.jpg)
Offre d'emploi
Développeur Big Data GCP - ENTRE 3 ET 6 ANS
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/kKsRcFfw-logo.png)
Mission freelance
Data engineer
Le projet consiste à migrer l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports SAP BO (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration pour les BU - Mise en production des livrables validés par les BU - Tests intermédiaires des livrables suite à la livraison OpenAudit (Notre partenaire en charge de la migration automatique) et mise à disposition à la BU - Analyse du niveau 1 des Bugs remontés par les BU puis remonté à Open Audit Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement par le partenaire (Univers Board -> Explores looker) - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/kKsRcFfw-logo.png)
Mission freelance
Data Ops
Nous recherchons un consultant DataOps Engineer pour la mise en place et l'optimisation d'infrastructures fiables et scalables pour répondre aux besoins des produits digitaux Eco-responsables et sociaux du Groupe. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration et les simuler. STACK TECHNIQUE : - Terraform, Docker, Kubernetes, Git, - Connaissance Cloud GCP - Python PS : La présence sur site est obligatoire à hauteur de 3j par semaine.
Mission freelance
Ingénieur Devops Azure / GCP / On-Premise
Automatisation des déploiements : En collaboration avec les différentes équipes techniques, l’ingénieur participera à la conception et la gestion des automatismes du système d'information : intégration, déploiement en continu en utilisant des services des Cloud public tels qu’Azure et GCP ou des solutions logicielles et infrastructures OnPremise. Le déploiement se fera via les outils Gitlab CI, Broadcom Nolio, et s’appuiera sur des technologies tel qu’Ansible, Terraform et Docker. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques dans les pipelines CI/CD. Cela inclus l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, la gestion des artefacts, etc. Garantir l'intégrité permanente des automatismes au regard des évolutions des produits Résolution des problèmes : L’ingénieur devra être en mesure de diagnostiquer et résoudre des problèmes de nature multiples (CI, CD, configuration, infrastructure, etc..). Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Il/elle devra également fournir un support aux équipes d’exploitation dans le cadre du traitement d’alertes ou d’incidents. Gestion des outils ALM : L’ingénieur devra s’assurer de bon fonctionnement et de l’évolution des outils ALM (Gitlab, Sonar, TFS, JIRA, etc…). Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production et les autres membres de l’équipe afin de garantir que les solutions proposées conjuguent les meilleures pratiques Devops, les contraintes techniques et de sécurité ainsi que les besoins des projets. Il/elle participera à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus. Contribuera au déploiement des pratiques DevOps au sein de l’entreprise. Participera au cadrage des projets dans son domaine de compétences : analyse des besoins et contribution aux chiffrages de la partie technique
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-3kPDkLuzt8BABZ1X.png)
Mission freelance
Data Engineer Maitrisant Looker
Les livrables sont Cahiers de test Suivi d'avancement Dashbords / Explore Looker Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif SAP BI 4.2 (Univers et rapport ) - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Français Courant (Impératif) Description détaillée Le projet Board Next : lancement d'un programme de migration de l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration pour les BU - Mise en production des livrables validés par les BU - Tests intermédiaires des livrables suite à la livraison OpenAudit (Notre partenaire en charge de la migration automatique) et mise à disposition à la BU - Analyse du niveau 1 des Bugs remontés par les BU puis remonté à Open Audit Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement par le partenaire (Univers Board -> Explores looker) - Soit une création complète des couches sémantiques
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-yafcrIy7o3qf5GbR.png)
Offre d'emploi
Data Engineer MSBI & GCP (indispensable)
Contexte Intégrez la Direction de la Transformation au sein des Centres de Services Partagés (CSP) d’une grande organisation. Vous évoluerez dans une équipe dédiée au développement et à la maintenance de solutions IT couvrant une large gamme de technologies : développement applicatif, DevSecOps, intelligence artificielle, gestion documentaire, IoT, portails web et bien d'autres. Vous interviendrez au sein des départements Solutions Lab et Solutions Groupe , qui construisent et maintiennent les paliers techniques de composants logiciels. L’objectif est de fournir des solutions fiables, évolutives et répondant aux attentes métier. Missions Dans le cadre d’un projet BI pour la Direction Nucléaire, vos principales missions seront : Ateliers et chiffrage : Participer à la collecte des besoins utilisateurs et aux ateliers de définition des exigences métiers. Documentation : Produire la documentation des réalisations et études dans les outils collaboratifs de la plateforme DevOps (Cloud GCP ). Build et MCO : Contribuer au développement des applications BI et à leur maintenance en conditions opérationnelles. Démarche DevSecOps : Intégrer la qualité et la sécurité dans une démarche DevSecOps pour assurer des produits robustes et performants.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/AyfKgynH-logo.png)
Offre d'emploi
Ingénieur Cloud Terraform
Nous recherchons un(e) Ingénieur(e) Cloud Terraform expérimenté pour le compte de l'un de nos clients dans le domaine des télécommunications. Missions : Conception et déploiement des infrastructures Cloud via Terraform Rédaction et maintien des scripts d’automatisation Collaboration avec équipes DevOps et Développement Gestion du cycle de vie des ressources Cloud et optimisation des coûts Mise en place des pipelines CI/CD pour automatiser les déploiements Diagnostic et résolution des problèmes liées aux infras.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/hPesbXDZ-logo.jpg)
Mission freelance
Data Analytics Engineer
Dans le cadre d'un projet de transformation digitale, nous recherchons un Data Analytics Engineer pour rejoindre notre client à la fin du premier trimestre. Rôle : Ingénieur en analyse de données Durée : 6 mois (extensible) Lieu : Paris Travail hybride : 2 jours à distance par semaine Date de début : Mars/Avril Principales responsabilités : Recueillir les besoins opérationnels et analytiques de l'entreprise Collaborer étroitement avec les gestionnaires de données et les ingénieurs de données pour définir le modèle de données cible Définir les vues pour exposer les données à d'autres outils (viz, outils prod, etc) Développer la nouvelle offre de visualisation des données en développant de nouveaux tableaux de bord Optimiser et fournir un support sur les pipelines de données
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/logo-smQg4TEez30coAOG.jpg)
Mission freelance
Data Engineer
Contexte de la Mission: Nous recherchons un Data Engineer, intégrant une équipe spécialisée pour piloter des initiatives clés liées à la gestion et l'optimisation des données. Présence sur site requise trois jours par semaine pour une collaboration efficace. Profil Recherché: Maîtrise avancée en SQL et ETL avec des capacités éprouvées dans la gestion de flux de données complexes. Expérience dans l'implémentation de pratiques CI/CD et l'utilisation de GitHub, Terraform et Kafka. Connaissance pratique de Power BI et Looker, avec une familiarité dans la création de visualisations de données. Compétences en Google Cloud Platform, notamment GCS et BigQuery, sont hautement souhaitables. Aptitude à communiquer clairement en anglais, tant à l'écrit qu'à l'oral.
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/kKsRcFfw-logo.png)
Mission freelance
Architecte software
CONTEXTE Au sein de l'Office of the CTO, intégré à l'écosystème des plateformes digitales de l'entreprise, vous interviendrez en tant qu'expert architecture sur des missions stratégiques cross-plateformes, avec un focus particulier sur les applications business critical. Notre environnement technique est principalement basé sur des architectures microservices déployées sur GCP et Azure. MISSION PRINCIPALE En tant que Software Architect Senior, vous êtes garant de l'excellence technique et de la cohérence architecturale des solutions cloud native déployées à travers les différentes plateformes digitales, tout en assurant des missions d'audit et de design sur les applications critiques en architecture microservices. RESPONSABILITÉS PRIORITAIRES Audit & Design d'Applications Critiques Conduire des audits approfondis des applications business critical en architecture microservices Évaluer la résilience, la scalabilité et la performance des architectures cloud native Optimiser les architectures microservices existantes (découpage, couplage, résilience) Valider les patterns de communication inter-services (synchrone/asynchrone) Analyser et optimiser les coûts d'infrastructure cloud Knowledge Management & Support Documenter les patterns d'architecture validés pour l'écosystème plateforme Former les équipes aux spécificités de l'architecture plateforme Accompagner les équipes dans l'adoption des standards définis MISSIONS SECONDAIRES Gouvernance Software Architecture Valider et maintenir les guidelines de décision Software Architecture Optimiser les architectures pour le multi-cloud Définir et reporter la dette technique identifiée en audit Innovation & Veille Identifier les innovations technologiques pertinentes pour l'écosystème Évaluer l'impact des nouvelles technologies sur l'architecture des plateformes Expertise Cloud Native & Microservices Contribuer aux standards pour le développement et le déploiement des microservices Contribuer aux stratégies de monitoring et observabilité des services distribués Contribuer aux stratégies de déploiement et de rollback des services
![](https://api.free-work.com/media/cache/resolve/company_logo_medium/kKsRcFfw-logo.png)
Mission freelance
ML engineer
La mission du ML engineer est la suivante : Tu déploies et gères des applications de machine learning en production Tu collectes, nettoies et orchestres les pipelines des données utiles à ces applications Tu crées les outils de CI/CD d’automatisation des tâches de mise en production Tu développes les composantes du monitoring applicatif Tu contribues à l’intégration des applications ML au sein des produits digitaux qu’elles servent Les compétences attendues sont : Solide connaissance des enjeux MLOps et des concepts de machine learning Bonne connaissance des sujets d’IA generative et du LLMOps Maîtrise des technologies du cloud et plus spécifiquement de la Google Cloud Platform Excellente maîtrise du langage Python Maîtrise dans le développement API, idéalement sous FastAPI Maitrise du développement webapp avec Streamlit Experience Docker & containerisation Connaissance des concepts de gestion de solution logicielles (bonnes pratiques de software engineering) Expérience solide en CI/CD. Maitrise de Github & Github actions Connaissance solide des principes de data management (data modèles, data quality management, data gouvernance,...) Maîtrise du SQL et des bases de données relationnelles & non relationnelles Expérience dans l’orchestration de pipelines de données Experience dans l’utilisation de langchain Aisance relationnelle Expérience dans les processus de développement scrum/agile Maîtrise de l’anglais requise
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.