明天直播 | ECCV 2024精选论文分享

科技   2024-10-28 17:01   北京  


(本文阅读时间:5分钟)


2024年的ECCV大会于10月4日在意大利米兰圆满结束。作为计算机视觉领域的三大顶级会议之一,ECCV是全球计算机视觉研究者交流最新研究成果的重要平台。


根据此前粉丝朋友们的投票结果,我们请了票选人气最高的三篇ECCV论文的作者,于明天(10月29日)下午14:00,在微软亚洲研究院的直播间分享他们的前沿工作。欢迎大家锁定直播间!


直播信息


直播时间:


2024年10月29日(明天) 14:00-15:00


直播地址:


微信视频号“微软亚洲研究院


B 站账号“微软科技”直播间


论文及讲者介绍



牟芯志

微软亚洲研究院

多媒体计算组研发工程师


牟芯志,微软亚洲研究院多媒体计算组研发工程师。现阶段主要在研究方向为视觉内容生成领域,包括图像和视频内容的生成、重建和压缩等。此前还进行过图像和视频内容检测和识别相关工作。

分享内容:

FontStudio: 用于生成连贯一致字体效果的形状自适应扩散模型

FontStudio: Shape-Adaptive Diffusion Model for Coherent and Consistent Font Effect Generation


论文摘要: 

特效字体生成任务需要在生成用户提示内容的同时,额外保证生成内容的轮廓与用户所提供的字符轮廓相似。我们提出的 FontStudio 框架,包含形状自适应扩散模型和形状自适应风格迁移算法,解决了非规则画布上的生成问题以及字符风格统一问题。


论文链接:

https://www.ecva.net/papers/eccv_2024/papers_ECCV/papers/07569.pdf


项目链接:

https://font-studio.github.io/



祁琳峰

微软亚洲研究院

多媒体计算组实习生


祁琳峰,博士五年级,导师为吕岩老师,目前在多媒体计算组进行实习及联合培养,研究方向为端到端的视频编解码。


分享内容:

神经视频压缩的长期时间上下文收集

Long-term Temporal Context Gathering for Neural Video Compression


论文摘要: 

现有的视频压缩模型主要通过估计光流来利用短时间上下文,本篇论文额外引入长时间间隔的参考特征,并对参考特征进行聚类和类内特征搜索来提取长时间上下文,丰富上下文的多样性并抑制误差传播,从而提升模型的压缩性能。


论文链接:

https://www.ecva.net/papers/eccv_2024/papers_ECCV/papers/08346.pdf



张博文

微软亚洲研究院

视觉计算组实习生 


张博文,博士四年级,师从郭百宁老师。目前在视觉计算组从事高质量生成模型的研究,已在多个计算机视觉顶级会议上发表过多篇论文,研究内容涵盖二维图像生成和三维物体生成等领域。


分享内容:

RodinHD: 使用扩散模型生成高保真3D头像

RodinHD: High-Fidelity 3D Avatar Generation with Diffusion Models


论文摘要:

RodinHD 旨在精确拟合并为用户生成高质量的数字化身。本篇论文首先解决了共享解码器拟合过程中的灾难性遗忘问题,实现了高质量数据拟合;其次增强了输入图像的在生成过程中的指导效果,并针对三维扩散模型修改了加噪过程,实现了高保真度数字化身生成。


论文链接:

https://arxiv.org/abs/2407.06938


项目链接:

https://rodinhd.github.io/


日程安排


14:00-14:20

分享内容:

FontStudio: Shape-Adaptive Diffusion Model for Coherent and Consistent Font Effect Generation

分享者:

牟芯志

14:20-14:40


分享内容:

Long-term Temporal Context Gathering for Neural Video Compression

分享者:

祁琳峰

14:40-15:00


分享内容:

RodinHD: High-Fidelity 3D Avatar Generation with Diffusion Models

分享者:

张博文



锁定直播间,我们不见不散!







你也许还想看:





微软亚洲研究院
微软亚洲研究院,专注科研26年,盛产黑科技
 最新文章