人工智能
NLP方向
Dr导师介绍
申博 论文辅导
:「Dr教研栏目」为你推荐新导师! 介绍ta的研究领域和研究成果。推荐给需要论文辅导、寻找新课题、做科研或申请博士的同学们,来看看ta与你即将/正在研究的方向是否契合吧!
该导师研究领域涵盖#自然语言处理、大语言模型、共指消解、对话式人工智能、位置编码等。有着丰富的学术研究和论文发表经验,发表多篇期刊/会议论文,同样指导能力杠杠的!🌟
如果你有以下困扰:
想科研但知识深度不足、缺乏实践经验
科研论文写作困难/需要发表期刊论文
想申博但缺有效指导和策略
无论是科研论文撰写,还是博士申请,ta可以为你提供全方位的指导!
/1
导师背景
Mentor background
Mr. Yang
Queen Mary University of London(QMUL) 在读博士 (CSC全额奖学金)
在英国获得了2个计算机方向的硕士学位,均以Distinct毕业。(AI硕士论文83.4分)
本科华中师范大学,拥有数学和物理双学位
# 研究领域
自然语言处理 大语言模型
共指消解(Coreference Resolution)
对话式人工智能(Conversational AI)
位置编码(Positional Encoding)
/2
导师研究成果
与论文展示
Recent research results
研究背景:
自然语言处理(NLP)领域自其诞生起,核心指代解析(Coreference Resolution)一直是关键难题之一。该任务致力于识别文本或对话中指向相同实体的名词短语。国际上,伴随着大型语言模型(Large Language Models, LLMs),如T5或BERT及其变种的出现,这一领域取得了显著进展。这些模型通过大量外部数据预训练,极大地增强了对语言上下文和细节差异的理解能力。与此同时,研究界开始探索更复杂的数据集,如LitBank和Universal Anaphora,它们以更大的规模、更精细的注释,应对更为复杂的指代解析挑战。特别是,近年来的研究,主要聚焦于提升模型检测和链接文中提及的效率和准确率,通过改进模型结构和算法实现了显著的性能提升。
我的研究:
《Optimizing Coreference Resolution:
The Role of Mention Representation in Sequence-to- Sequence Models for Dialogue Context》
#Keywords:
自然语言处理、共指消解
提及表示、对话上下文、模型优化
“
这项研究面临的挑战在于优化原始Seq2Seq 模型在核心指代注释 (Coreference representation) 上的方法,传统模型需要生成包含核心指代簇(Coreference Cluster)的整个文档,这大大增加了搜索空间,带来了额外的计算和存储消耗。
我的论文在针对新数据集调整模型的同时,探索更高效的核心指代注释方法,我的研究旨在提升对话中的核心指代解析性能,填补当前研究中主要关注标准文本而忽略真实世界对话复杂性的空白。
—
我的研究:
《Optimizing Positional Encoding in the SPOTER Model for Enhanced Sign Language Recognition》
#Keywords:
手语识别(SLR)、位置编码(PE)
变压器(Transformer)、模型优化
固定位置编码、帧内信息、深度学习
“
这篇论文探讨了手语识别领域,并专注于基于Transformer架构的计算机视觉分类模型——SPOTER(Sign Pose-based TransformER)。文章重点研究了模型内位置编码(Positional Encoding)层的优化问题,通过对经典Transformer模型中的正弦波位置编码(sinusoidal positional encoding)进行改进,开发了一种新型固定位置编码(Fixed Position Encoding)。
采用这种新的位置编码策略的帧间(intra-frame)模式,实现了在不增加模型参数和训练成本的情况下,模型准确率的提升(3.28%)。
此外,研究结果不仅强调了帧间位置信息在手语识别精度中的作用,而且明确指出了这一信息在提高基于骨骼(Skeleton-based)手语识别模型的识别精度中的作用,同时指明了帧内位置信息会对模型性能产生不利影响。
通过对比分析不同位置编码策略,本研究揭示了在SPOTER模型中,基于vanilla Transformer正弦波位置编码改良的固定位置编码的帧内模式,是优化模型性能的关键。
这项创新不仅显著提高了SPOTER模型的手语识别准确率,而且为手语识别及其他基于Transformer的计算机视觉任务提供了新的优化方向,展现了深入探索模型内部结构的重要价值,助力模型更好地适应实际应用需求。
—
/3
相关研究问题
Research Interests:
如果你也是该研究领域的,正在寻找研究问题
可以参考这些方向!
一、自然语言处理(NLP)应用
研究内容: 研究如何通过自然语言处理技术分析社交媒体、在线评论等文本中的情感倾向,识别用户对产品、服务或品牌的情感态度。 研究意义:帮助企业更好地理解客户需求,改进产品和服务,提升客户满意度,推动精准营销和品牌建设。
研究内容: 探讨当前自然语言处理技术在多语言机器翻译中的不足,研究如何通过深度学习等方法提升翻译质量和流畅度,减少语法和语义错误。 研究意义:提高跨语言交流的准确性和效率,促进全球化交流,推动国际化业务的发展,增强文化和语言的理解。
二、大语言模型应用
研究内容:研究如何提高大语言模型在自动文本生成任务中的准确性和流畅度,减少生成文本中的语法错误、重复内容及逻辑不一致问题。 研究意义:提升自动化内容生成的质量和可靠性,广泛应用于新闻报道、文案创作和客户服务等领域,节省人力资源,提升生产效率。
研究问题2:大语言模型的偏见问题及其消除方法
研究内容: 分析大语言模型在训练过程中可能引入的偏见(如性别、种族偏见),研究如何通过改进训练数据和算法来消除这些偏见,确保模型输出的公平性。 研究意义:减少人工智能系统中的歧视性和不公平性,提升大语言模型在社会中的可接受度和应用效果,增强其在实际场景中的可信度和可靠性。
三、共指消解(Coreference Resolution)
研究问题1:共指消解在多语言文本中的应用
研究内容:研究如何在不同语言间准确识别和消解共指关系,解决跨语言语境下的共指问题。 研究意义:提高多语言处理系统的准确性,促进跨语言信息的整合,支持全球化应用。
研究问题2:深度学习在共指消解中的效果提升
研究内容:探讨深度学习模型如何改进共指消解的准确率,减少传统方法中的错误和歧义。 研究意义:提升自然语言理解的精度,增强对复杂文本的处理能力,推动智能助手和搜索引擎的发展。
四、对话式人工智能
(Conversational AI)
研究内容:探讨如何优化对话式AI处理多轮对话的能力,保持对话的上下文一致性和连贯性。 研究意义:提升AI系统在复杂对话中的表现,增强其在实际应用中的可靠性和效率。
五、位置编码(Positional Encoding)
研究内容:研究如何改进位置编码方法,使其在处理长文本时能更好地捕捉序列中的远程依赖关系。
研究意义:提高模型对长文本的理解能力,提升自然语言处理任务的准确性,如翻译和文本生成。
研究内容:探讨可学习位置编码在不同任务中的表现,比较其与固定位置编码方法的优势和不足。
研究意义:提升模型的灵活性和适应性,优化对各种序列数据的处理效果,推动深度学习模型的进步。
如果你对以上研究方向感兴趣,或想了解类似研究方向
欢迎在文末联系Dr质控老师,一起交流!
需要该方向的论文辅导 或 博士申请指导
找不到相关的老师? 并且需要可靠专业!
欢迎扫码,找我1v1辅导吧👇
vx:hygge002
适合:
需要SCI论文、期刊论文指导;需要申请全奖PhD、研究计划等单项辅导的同学!
///
关于我们:
DrSetion团队均有出自世界名校的博士毕业学者
尤其在以下领域有着较深的学术研究与实践 以及申博经验
#人工智能 #建筑领域
#艺术设计方向领域
///
↓ 更多你想知道的DrSection学术和资讯 欢迎点击 ↓
///
DrSection,持续最新的建筑论文、人工智能研究
与更多的学术知识,
为有需要的小伙伴提供丰富的资源!
了解更多学术资料详情,
持续关注DrSection公众号!👇