《论文阅读》BERT-ERC: Fine-tuning BERT is Enough for Emotion Recognition in Conversation

《论文阅读》BERT-ERC: Fine-tuning BERT is Enough for Emotion Recognition in Conversation 前言 简介 Suggestive Text Fine-grained Cl

《论文阅读》BERT-ERC: Fine-tuning BERT is Enough for Emotion Recognition in Conversation

      • 前言
      • 简介
      • Suggestive Text
      • Fine-grained Classification Module
      • Two-stage Training
        • 流程
      • 实验结果
      • 总结

前言

你是否也对于理解论文存在困惑?

你是否也像我之前搜索论文解读,得到只是中文翻译的解读后感到失望?

小白如何从零读懂论文?和我一起来探索吧!

今天为大家带来的是《BERT-ERC: Fine-tuning BERT is Enough for Emotion Recognition in Conversation》


出版:AAAI

时间: 2023

类型:对话中的情感识别

特点:知识蒸馏+微调BERT

作者:Xiangyu Qin

第一作者机构:School of Intelligence Science and Technology, Peking University

简介

作者认为目前影响ERC的三种关键信息有:

1)Query utterance information

当前utterance

2)Contextual information

上下文语句(包含过去utterance和未来utterance)

3)Dialogue s

发布者:admin,转转请注明出处:http://www.yc00.com/web/1754605187a5181471.html

相关推荐

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信