如今网络人气小说动辄都是几百万字的内容,对于不喜欢长时间阅读或者注意力、时间有限的人,确实提不起兴趣。
一般来说,播音员的朗读速读每分钟约250-270字,因为一般情况下,人的耳朵对字的辨析率是每秒钟四五个字,即每分钟240-250字。如果超过这个速度,听的人在理解辨析的时候就会产生一定困难。而阅读的速度一般是朗读的三倍左右,即每分钟700字左右。
如果能把一本长篇小说的内容精炼缩写为1500字左右的文章,便可以在2-3分钟内阅读完,或者通过各种阅读软件的朗读功能,在3-5分钟时间内听完。
所以这次大模型的“歪理学说”我们探索一下借助人工智能模型实现长篇小说的精炼缩写。
需求描述
定制一款专为长篇小说进行缩写的AI工具,工具的角色是通过智能算法识别并保留故事的核心元素,包括关键转折、人物发展和结局。处理用户需求的整个过程是全自动的,无需人工干预。具体的能力可能有:
情节选择:着重保留推动故事发展的关键情节,忽略次要或重复的情节线索。
角色精简:保留对故事进展起决定性作用的主要人物,合并或省略次要人物的描写,确保人物关系清晰。
语言风格:保持原作风格的基础上,简化叙述和对话,去除冗长的景物描写和内心独白,使内容更加紧凑。
重要细节:确保所有关键转折点、伏笔与解谜、情感高潮等重要细节得到体现。
逻辑连贯:缩写过程中注意保持故事情节的连贯性和逻辑性,避免因删减造成理解上的障碍。
结尾处理:完整呈现小说的结局,保留其原有的情感色彩和主题思想。
字数限制:缩写后的文章字数应保持在1500个汉字左右。
需求分析
首先需要解决大模型的文字输入字数限制问题,我们知道所有大模型在输入字数方面都是有限制的,比如GPT-4Turbo-128k公布的数字是约10万汉字处理能力,百川智能发布的Baichuan2-192K能够处理约35万个汉字,月之暗面(MoonshotAI)推出的KimiChat能处理20万个汉字,以及Kimi智能助手前段时间启动了200万字无损上下文内测(可惜一直在排队中),但这些对于我们开篇提到的四百多万字长篇小说还是有差距的。不过通义千问三月份升级后,号称其长文档处理功能达到令人瞩目的1000万字,成为全球文档处理容量最大的AI应用,这个可以作为我们后续的测试选择。
除了上面的方式外,我们还可以借助大模型平台的智能助手/智能体提供的知识库进行长文本接入,或者通过外部向量数据库进行片段化索引和记忆检索,但这些方式对于我们的敏捷需求不太友好,我也在字节Coze、智谱清言智能体,以及Kimi+等多个平台上进行了简单测试,发现对小说的内容概括上还是存在缺失,效果都不太理想。
综上,我们计划使用通义千问的长文档解析能力,简单粗暴的探索这个需求满足效果。
实现效果
我们用四大名著中的《红楼梦》简单测试一下,这是一部接近一百万字的章回体长篇小说。
小说文档的获取方式这次我们就不讨论了,以免造成不必要的麻烦。为了更好地进行输入,一般是采用这些文档格式:txt、docx、pdf(非扫描版)、epub、mobi等。
从截图可以看到,通义千问确实能完成文档的完整输入(部分大模型超出字数限制后会报错或者只截取部分内容),但对于输出内容的有效性,很大一部分就取决于我们设置的提示词了。另外多次测试发现大模型在输出文字字数方面也是比较吝啬的,即便我们在提示词里明确提出了字数要求,大部分时候还是无法满足的(各大模型的输出字数限制暂未查询)。不过输出方式是可以通过引入智能助手/智能体的工作流进行优化的。
后续我们将进一步优化提示词和解析方式,并把过程中缩写的部分网络热门小说通过公众号【三五分钟小说】系列进行分享,也便于各位小伙伴快速了解这些作品。
今天先分享这些,【恶人笔记】只分享好人的东西,有什么需求可以后台留言,不定时更新~~