Trouvez votre prochaine offre d’emploi ou de mission freelance RStudio à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
CONSULTANT TALEND
Dans le cadre de notre développement, nous recherchons un Consultant Talend / Salesforce pour intégrer notre équipe et contribuer à des projets de transformation data et CRM pour nos clients. Vous interviendrez sur des missions variées d’intégration de données, d’optimisation de processus et de gestion des flux de données avec Talend et Salesforce. Analyse des besoins et conception de solutions : Comprendre les besoins métiers de nos clients et concevoir des solutions d’intégration de données et d’automatisation adaptées. Intégration et synchronisation des données : Assurer la connexion et la synchronisation des données entre Salesforce et d'autres systèmes d’information grâce à Talend. Développement et optimisation des workflows : Développer et maintenir des flux de données performants et fiables, et optimiser les processus Salesforce pour répondre aux objectifs métiers. Support et formation des utilisateurs : Accompagner les utilisateurs dans la prise en main de Talend et Salesforce et assurer un support technique de qualité. Expérience confirmée en intégration de données et en développement de solutions avec Talend et Salesforce Bonne compréhension des processus CRM et des flux de données Solides compétences techniques en ETL , modélisation et transformation des données Sens de l’écoute, capacité à travailler en équipe, et aptitude à interagir avec les parties prenantes métiers et techniques Autonomie, rigueur et capacité d’adaptation Des projets ambitieux avec des clients prestigieux qui stimulent l’innovation et l’expertise technique Un environnement collaboratif et axé sur le développement des compétences Des possibilités d’évolution professionnelle et un accompagnement pour atteindre vos objectifs de carrière
Mission freelance
Talend Data Integration Architect
Notre client recherche un Talend Data Integration Architect pour travailler sur un contrat glissant de 6 à 12 mois basé sur les détails ci-dessous : À propos du travail En tant qu'architecte senior Talend Data Integration, vous jouerez un rôle stratégique dans la préparation et la mise en œuvre de nos projets de données. Chez nos clients, vous porterez la vision technique des plateformes Middleware & API Management et serez également responsable de la définition et de la conception des architectures techniques de ces plateformes.
Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala
💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)
Offre d'emploi
Data Engineer Talend à Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Mission freelance
Référent technique Socles IT (Datalab, CI/CD, APIs)
Je suis à la recherche pour un de nos clients d'un Référent technique Socles IT (Datalab, CI/CD, APIs). Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (VERTICA/Oracle). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support. Développer les nouveaux composants (Talend / Java / Shell / Oracle / Vertica / Snowflake / Jupyter / Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business. Assurer le RUN (niveau 3) de l'infrastructure en utilisant les composants CA-GIP pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch/Logstash/Kibana/Grafana). Evaluer et valider les estimations de l’infogérant et des sous-traitants. Accompagner et superviser les missions confiées aux sous-traitants. Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse. • Connaissances techniques : - Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL Talend…) - Maitrise des outils de DevOps et des langages de programmation (java, spark, elk, kubernetes, gitlab, jenkins, spring Framework, unix, shell) - Connaissance Hadoop, Bases de données relationnelles et non relationnelles (Oracle, Snowflake, Vertica) - Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter). - Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.
Mission freelance
Ingénieur Full Stack Java spécialisé en ElasticSearch (Migration vers OpenSearch / AWS)
Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Full Stack Java spécialisé en ElasticSearch pour participer à des projets stratégiques de migration et de développement applicatif. Vous interviendrez principalement dans le cadre d’une migration ElasticSearch 1.X vers OpenSearch 2.X, ainsi que sur le développement de fonctionnalités en Java/Spring au sein d’une équipe dynamique et collaborative. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/ELS/4551 en objet de votre message Missions principales Migration ElasticSearch/OpenSearch : Réaliser la migration de l’application existante d’ElasticSearch V1.8 vers OpenSearch sur AWS. Configuration avancée d'ElasticSearch et d'OpenSearch sur AWS, en tenant compte des bonnes pratiques et de la performance. Modélisation et mapping des données pour optimiser la structure des index. Création et gestion des index ElasticSearch. Mise en œuvre de fonctionnalités de recherche avancée, ainsi que la construction de requêtes ElasticSearch complexes. Optimisation des performances de la solution de recherche. Développement et maintenance d’applications Java/Angular : Implémenter, développer et maintenir des fonctionnalités en Java avec Spring et en front-end avec Angular 7+. Assurer le bon déroulement des tests unitaires et des tests de bout en bout avec l’appui du Product Owner. Produire la documentation technique, incluant les spécifications techniques et les processus de migration. Collaboration en équipe : Participer à l’animation de l’équipe Agile Safe, en contribuant aux rituels (daily meetings, PI planning, ateliers de partage de connaissances, démos, etc.). Environnement Technique : Langages et Frameworks : Java (Spring), Angular 7+, ElasticSearch, OpenSearch. Infrastructure Cloud : AWS (expérience de déploiement d’applications sur AWS, architecture serverless avec Lambda, API Gateway, etc.). Outils de DevOps et CI/CD : Docker, Terraform, GitLab CI/CD, avec gestion des environnements sur le cloud. Services AWS : S3, RDS Aurora, VPC, ainsi que des outils de monitoring (Grafana, Prometheus) et sécurité (Linux, Redhat). Autres : Apache Spark, Spring, Eclipse, VSCode, Maven, Git.
Mission freelance
INGENIEUR OPS FLUX
Bonjour, Pour le compte de notre client, nous sommes à la recherche d'un ingénieur devops flux. Rattaché aux équipes de production/exploitation du Centre d’expertise IT et en collaboration avec les membres de l’équipe data, son rôle sera d’accompagner les projets et les CDS dans le delivery des flux de données. Il doit également assurer leur maintien en conditions opérationnelles, leur mise en supervision ainsi que la prise en charge des incidents jusqu’à résolution. Livrable N°1 : Gérer toutes les phases de la mise en production des flux + Récolter le besoin auprès des projets et les conseiller, puis les aider à le formaliser + S’assurer de la conformité technique / sécurité de la demande + Produire le flux dans les standards en place + Etablir les documents techniques (contribution au DAT / DEX) + Appliquer si nécessaire des transformations techniques sur la donnée avant de la distribuer (DQM) + Déployer les flux applicatifs dans les différents environnements Livrable N°2 : assurer le support et l’évolution des flux mis en production + Garantir le bon fonctionnement des flux en production et leurs évolutions + Ecrire et mettre en œuvre les procédures d’exploitation des flux Interne + Superviser les flux avec l’outil de monitoring groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents) ; Livrable N°3 : contributions au socle d’ingestion + Gérer la disponibilité, la sécurité et l’évolution du socle technique d’ingestion + Aider à l’amélioration de l’automatisation / industrialisation des flux et plateformes d’ingestion Compétences avancées sur des outils d’ETL comme talend ou nifi (Nifi est un gros plus) est un prérequis. + Connaissances et usage de la conteneirisation (docker, Kubernetes) est un plus + Bonnes connaissances unix (cli, shell, bash…) souhaitées + Connaissances dans le dommaine du cloud (aws/azure) (iaas, storage, sqs, event hub…) est un gros plus. + Connaissance et Usage des outils Jira (planner et tickets) et Confluence (docu) + Connaissance dans l’un de ces langages suivants : Python / Groovy / JAVA (servlet) est un plus ; + Connaissance des fondamentaux liés aux bases de données relationnelles et NOSQL (est un plus) ; + Connaissances de l’administration des serveurs IaaS : Ubuntu, CentOs est un plus ; + Connaissance du fonctionnement des réseaux (VPN/NAT/Table de Routage) est un plus; + Connaissances autour de diverses technologies de flux (API, FTP, OAuth2, JMS, …) est un plus.
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
LEAD QA F/H
Envie d’évoluer dans un environnement technique riche ? Envie de participer à un projet ambitieux ? Pilotage, coordination et gestion sont tes maîtres mots ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer la Tribu QA de XELIANS Archivage et de travailler en étroite collaboration avec les Products Owners et les équipes projets sur le développement de nos solutions. Ton quotidien sera rythmé par : L’amélioration et le maintien de la stratégie, de la gouvernance, des processus, des outils d’industrialisation de tests et des bonnes pratiques La définition de la stratégie et l’organisation des tests automatisés L’implémentation de tests de performance et de tests automatisés La participation au recrutement des ressources QA La réalisation des tableaux de bords et de suivi des KPIs Le pilotage et le cadrage des campagnes de recette fonctionnelle La coordination de l’équipe QA La gestion et la coordination des anomalies de recette et des incidents de production La validation des PV de recette La réalisation des bilans de recette
Mission freelance
Developpeur Talend technico fonctionnel - Confirmé - 299
Contexte : La prestation se déroule au sein de l’entité client en relation business avec les opérateurs internationaux et les acteurs internet sur marché du Wholesale (vente en gros). Plus précisément, la prestation attendue se situe à la Direction du Système d'Information, au sein du département Routing Rating and Billing Applications. La mission concerne l’application critique de médiation du SI de facturation d’OWI, sur le périmètre des produits dits « à trafic » (voix fixe/mobile, messaging, roaming, produits de connectivité, etc.). Il s’agira de répondre aux demandes des métiers en proposant des solutions à leurs besoins fonctionnels, puis en réalisant les développements/paramétrages ETL induits nécessaires. Il s’agira aussi de contribuer au projet de rénovation technique de l’application, que nous déroulons en tâche de fond. Tâches : Le prestataire aura notamment pour missions de : Assurer la collecte des besoins d’évolutions fonctionnelles Concevoir les tables de mapping entre différents formats de données techniques et fonctionnelles. Implémenter et qualifier ces mappings sur l’ETL. Contribuer à la qualité des données sur l’application. Propositions de contrôles, d’automatisation, ou de processus pour y concourir. Assurer le support au quotidien aux métiers sur son domaine, via l’analyse détaillée des données sur les cas soulevés par les métiers. S’assurer que les évolutions des processus sont formalisées et y contribuer si nécessaire Contribuer aux phases de QPM (Qualification Processus Métier) Rédiger les documentations nécessaires aux métiers Livrables : Développements et paramétrages opérationnels en production sur l’application Documentations de spécifications des solutions Cahiers de tests Documents support de formations et fiches consignes. Compétences requises : Compétences personnelles Forte capacité d’analyse. Savoir aller au fond des sujets fonctionnels. Rigueur, ténacité, curiosité Savoir formaliser des éléments d’analyse et les présenter pour décision Disposer d’une bonne capacité d’écoute et de communication Compétences fonctionnelles Analyse des données : comprendre les données de l’application Maitrise du traitement de données Pratique courante de Linux et SQL Connaissance de l’environnement des télécommunications, notamment sur la partie réseaux de télécommunications Compétences techniques Expertise ETL Talend Langue(s) souhaitée : Français / Anglais lu et parlé Date de début souhaitée : 01/10/2024 Durée estimée : 1 an - reconductible Localisation géographique : Paris 15ème Télétravail : 2 jours / semaine Fréquence de travail : Temps plein
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Arce 7 mois après la création de l'entreprise ?
- Close de non concurrence freelance à portgae salarial
- situation compliquée fin de mission pression client comment gèrer ?
- 🎯 Recherche Expert pour Accompagnement sur SCCM et Intune 🚀
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Calcul frais télétravail en étant propriétaire