本期作者 / OneRiver to AIGC 群友本推送收录一川AIGC社群过去几周就AIGC领域相关热点和话题的讨论结果,经充分脱敏并征得群友同意后予以公布。如有兴趣加入社群参与讨论,可在阅读文末的社群规则后扫描二维码以填写申请问卷,我们将在10个工作日内完成入群审核,并向满足入群门槛的申请者发放入群邀请。话题1:“AI审判助手”引发的诉讼挑战与哲学之疑
话题2:人工智能专利申请的“自然规律”所指为何
话题3:AI搜索服务:免注册与实名认证的合规平衡
话题4:AI玩具的行业前景与社会需求
话题5:各大AI模型的法律翻译经验谈
十几万字的卷宗,AI几秒钟处理完毕,法官团队用半小时复核?半小时复核十几万字,这种复核有用吗?万一AI漏了重要事实,当事人真是要哭了。希望二审法院使用另外一套AI系统,这样至少可以和一审互相验证一下,要不然一审二审看到的都是一个版本的AI总结资料,那二审也没什么打的意义了在引发讨论的《央视关注:深圳应用“AI助手”提升法官工作效率》一文中,报道称“AI审判助手”系统自2024年6月底上线后,深圳中级人民法院民商事案件平均结案时间缩短近39天,单个法官工作效率提升2.5倍。讨论认为,一方面,AI技术的引入显著提升了法官的工作效率,使得庞大的卷宗处理变得更为迅速,为法官团队节省了大量时间和精力。另一方面,法律审判重公正,岂能因速失其衡?当事人选择通过法院解决纠纷,正是因为信任法院的公正与严谨,若法院过度依赖AI技术以追求速度,并不能当然保证审判质量,反而更易引发疏漏和误判。因此,在AI技术介入司法审判难以避免的背景下,亟需解决的问题就从“如何提升审判效率”转化为“如何保证司法公正”。根据文中的技术负责人所述,深圳中院“AI审判助手”的诉讼材料提取准确率能达到99%以上。但若我们过分纠结于剩下不到1%的案件事实,是否又有吹毛求疵之嫌?即使由法官亲自审理材料,面对多达十多万字的卷宗,又如何保证能观察得事无巨细?也许,值得我们思考的不仅仅是法官在面对AI技术处理结果时该如何复核,还有法官个人要在多大程度上对AI负责。有一道经典的法学院辩题:“是否应该禁止使用人工智能审判”,其中正方的主要观点往往集中在人工智能的“算法黑箱”问题。具体来说,由于使用者只能看到AI输出端的结果,并不能看到它的推理过程,因此AI在被训练时所吸收的歧视、偏见等问题(人类在迄今为止数不胜数的判决书中所展现的那样)很难被使用者及时发现和纠偏。这也正是群友强烈要求法院一审和二审应当采用不同AI系统的根本原因。据公开资料显示,2024年11月15日,由清华大学与面壁智能科研成果转化的“法信法律基座大模型”在最高人民法院正式发布。清华大学副教授刘知远在被问及相关问题时表示,“(应)使大模型‘先通后专,通专结合’,最终实现对法律业务的可靠支撑。模型从‘通才’到‘专才’的转变,类比于人类的知识学习过程,即先接受广泛的基础教育,再接受法律专业培训,最后获取特定任务的实践经验。”我们认为,这一观点可资赞同。然而,我们仍不能掉以轻心,哪怕现阶段只是辅助查明事实。正如德国法学家卡尔·拉伦茨早在1991年就在《法学方法论》中指出的那样:“法律家的工作通常不是始于既存的案件事实作法律上的判断,毋宁在形成——必须由他作出法律判断的——案件事实时,就已经开始了。”
国家知识产权局就《人工智能相关发明专利申请指引(征求意见稿)》公开征求意见。https://www.cnipa.gov.cn/art/2024/12/6/art_75_196483.html“人工智能相关专利申请的客体问题主要集中在,如何判断项解决方案是否属于智力活动的规则和方法,是否构成专利法意义上的技术方案,特别是如何判断方案采用的手段是否是遵循自然规律的技术手段,什么样的问题属于技术问题,怎样才是符合自然规律的技术效果。例如,对于改进点在于人工智能算法或模型的专利申请,如何体现算法或模型的执行是利用自然规律解决了某一技术问题。又如,当利用人工智能算法或模型对各个领域的大数据进行分析和预测时,如何判断挖掘出的数据之间的内在关联关系是否符合自然规律。”如何理解第4页的“2.2 如何把握客体标准需要指导”下的这段话,尤其是人工智能领域的“自然规律”?我问了一下AI:在人工智能领域,“自然规律”不直接指物理或化学规律,而是指算法、模型等技术方案如何通过遵循自然规律进行数据处理、决策或优化:(1)技术领域中的自然规律:如果人工智能算法处理的数据具有明确的技术含义,例如图像处理(遵循光学特性)、语音识别(遵循声学规律)、医学影像分析(遵循生物组织的物理特性)。在这些情况下,算法的执行体现了利用自然规律解决技术问题的过程。(2)算法与硬件结合的自然规律:当人工智能算法与计算机硬件结构结合产生特定技术效果(例如提高计算速度或降低功耗),可以视为利用了自然规律。例如,针对某种硬件架构优化神经网络模型,使其能更高效地运行,符合自然规律。(3)数据分析与自然规律:如果人工智能通过挖掘数据间的内在关联关系,并且这些关系符合自然规律,则可以被认定为技术方案。示例:预测食品安全风险时,人工智能通过分析食品数据随时间变化的规律(例如化学变化)来预测未来风险,这是基于自然规律。利用自然规律存在一定程度的抽象性,其实也可以说整个专利法的诸多法律概念都有一定的抽象、模糊性。举个例子,一种课堂点名方式(按字母序、按笔画序点名)这种就没有利用自然规律。基本的判断方式是,目前的技术存在何种技术问题,发明人利用何种自然规律,想到了何种技术手段,达到了技术效果,克服了所称的技术问题。群友交流时提到的Transformer模型被称为AI大语言模型的基石,ChatGPT也在底层使用了这一模型。2017年,谷歌公司首次在论文中介绍了Transformer模型,并将其应用于机器翻译任务,随后在全球范围内申请了数十件相关专利。然而,2024年1月,谷歌的Transformer模型中国同族专利申请却被驳回。国家知识产权局认为,该申请不属于专利法意义上的技术方案。有观点指出,Transformer模型的实质是底层的技术方案和基本数学模型,它是一种具有“普适性”作用的抽象的技术方案。而专利授权要求“符合自然规律”的具体技术方案,而Transformer论文给出的抽象算法本质上属于“自然规律”,还未触及具体应用目的的“技术领域”,远远没有达到授权的标准,只有将其落地,应用到具体技术领域,解决了该技术领域的具体技术问题才能认为符合专利法意义下的授权标准。参考阅读:《萝卜别跑!——AI大语言模型应用中的专利布局思路》。因此,人工智能领域的“自然规律”似乎与其他领域的自然规律并无不同,只是在专利申请上要落地到人工智能的技术领域。一项人工智能的专利申请其本质究竟是仍浮在“自然规律”的层面,还是已经落实到“技术领域”,在我国目前并无具体、明确的标准。值得肯定的是,这一问题已经得到了国家知识产权局重视,并即将转化为《人工智能相关发明专利申请指引》这一部门规章。我们期盼,未来更多的个案与评析能为我们指引明晰的方向。
正在开发一款AI研报生成器,希望能够提供免注册登录的使用方式,方便用户快速体验产品。但有人提醒,根据《生成式人工智能服务管理暂行办法》,AI服务提供商需要用户注册登录才能提供服务,请问是否必须如此?具体问题如下:1. 免注册使用是否违规:办法中是否有明确规定,AI应用必须通过用户注册登录才可以提供服务?如果允许免注册使用,是否需要满足其他额外的条件(如限制功能、数据匿名化处理等)?2. 其他平台是否存在合规风险:目前观察到一些平台(如豆包)提供了免注册就能使用生成式AI的功能,他们的做法是否符合现行法律法规?3. 合规设计建议:如果免注册使用确实存在合规风险,应该如何调整产品设计,才能既方便用户体验,又不触碰法律红线?之前有过一些讨论,可参考阅读以下两篇文章:《AI法律评论丨AI搜索要实名认证吗》、《煮酒言规 | 第128期 | AI搜索可以不实名吗》。
从《生成式人工智能服务管理暂行办法》第九条的演变可以看出,应区分对待。如果网站涉及到网络安全法的规定,按照网络安全法规定要求用户提供实名信息。第二款规定的签订服务协议前提条件也是要用户注册才行。我的理解是可以免注册使用部分功能(豆包目前是允许使用对话,文生图),但是涉及到网络安全法或者其他规定的需要注册。之前参与过的一个生成式人工智能服务备案,当时登录界面是设计的“手机号或邮箱择一填写”,后来被要求整改为“手机号是必填,邮箱是选填”,因为手机号验证码登录是符合“实名制+授权同意”的最常规操作。豆包的免注册使用部分,也许是出于个人信息收集处理的最小必要原则的考量。要是不开放免注册模式,又要被投诉公司拒绝向非注册用户提供相关核心功能或者服务。谢谢大家,我根据大家提供的文章以及建议,让GPT整理了一份备忘录。这个备忘录不是简单的文字整理,它提出:用“游客模式+功能分级设计”可以结构化地符合法规要求,并且留有动态调整的余地。我理解,这几乎是一个创新性的回答。因为我们的法律思维,常在做定性分析,能够检视问题本身的,基本是业内专家级别的。这个备忘录,我感觉它的实质是通过业务层和技术层的设计,对问题进行了切分。从我偏外行的角度来看,我觉得写的不错了。在涉及AI合规的分析中,基本都会默认大模型服务商客观上有能力对内容生成做技术限制,如果我们实际用一些敏感词去做实证检验,应该也能得出相同的判断。所以大模型厂商(特别是国内)应该都具备这一技术能力,只是可能各家的限制范围存在差异。就上述备忘录和各位的观点,我咨询了相关业务人员,他表示认可,认为非常有帮助!在探讨AI搜索服务的合规性时,我们首先需要区分服务的具体性质及其功能。对于那些仅提供信息查询、未涉及内容生成或信息传播的基础搜索服务,通常无需进行实名注册。这类服务本质上不属于《网络安全法》所规定的“信息发布”或“即时通讯”服务,因此不要求强制实名认证。在这种情况下,免注册功能不仅有助于提升用户体验,还能有效保障用户隐私,特别是在处理低风险信息(生成通用内容而非用户特定内容)时,避免不必要的合规负担。然而,随着AI技术的应用,搜索服务逐渐从单纯的信息查询转向个性化的内容生成,这为合规性带来了新的挑战。当AI搜索涉及生成个性化内容或推荐时,其生成的结果可能具有一定的舆论属性或社会动员能力。在这种情况下,平台便需要遵循更加严格的合规要求,特别是根据《生成式人工智能服务管理暂行办法》和《网络安全法》等相关规定,进行实名制认证、算法备案及安全评估等必要程序。如果AI搜索服务生成的内容具有影响公众意见或社会行为的潜力,平台就必须履行相应的法律义务,以确保生成的内容不对公众产生负面或不当影响。平台应根据实际情况,选择合适的认证方式,例如手机号+验证码认证,或通过第三方应用接口认证,确保符合规定,避免因未履行实名制而面临法律风险。在此过程中,平台还应特别关注数据保护与隐私合规的问题。即使提供免注册使用的功能,平台依然需要确保用户数据的匿名化处理,并遵守《个人信息保护法》中的最小必要原则,确保不收集超出功能需求的个人信息。平台应明确告知用户其数据使用情况,保证个人信息不被非法存储或滥用,以符合法律对隐私保护的严格要求。
#【传媒】AI玩具横空出世、正当其时:字节AI玩偶“显眼包”引领新一轮AI玩具出圈;AI玩具付费周期长、市场增速高,可以持续向用户收取大模型的调用费,而且陪伴场景对大模型幻觉的容忍度较高,因此AI玩具是当前大模型最佳落地场景之一。预计AI玩具有望承接部分传统儿童玩具、谷子产品、智能音箱以及AI虚拟陪伴应用的用户需求。和乙游联名、养娃群体妥妥的。刷到好多自制评论区都是想买的。根据公开资料显示,近两年来不少互联网大厂和传统企业纷纷入局AI玩具领域。在国内,如AI初创公司跃然创新Haivivi(其创始人李勇原是天猫精灵合伙人)针对儿童情感需求,在2024年7月推出了一款针对毛绒玩具的外置AI挂件——BubblePal,其官方售价449元,开售首月GMV就突破400万,截至10月已销售数万台。另如字节跳动凭借火山引擎打造的品牌周边——AI陪伴玩偶“显眼包”,本来是非对外售卖的礼品,却在二手平台上炒到500元。在国外,日本电子产品公司卡西欧与初创公司Vanguard Industries联合推出的AI玩具产品Moflin,则注重为成年人及适老人群提供情感支持。据前瞻产业研究院预计,2023-2029年,中国二次元产业规模将从2219亿元增长至5900亿元,复合增速18%。随着行业规模高速增长,二次元消费群体对谷子类玩具的科技含量和娱乐性要求也越来越高。我们认为,AI玩具将成为AI科技实现创收的高效着力点。
想请教下各位老师,用AI当翻译器的话,翻译法律文件哪家比较强?我试过用KIMI和ChatGPT同时改印尼语的法规,ChatGPT明显更准确。这种小语种(的翻译)我觉得只能信赖国外的头部大模型。用我的波斯语法律文件测试各大国内AI中……元宝模型处理结果不太理想,文心一言似乎无法翻译波斯语法律文件,豆包的AI阅读功能处理结果还可以。日语翻译测试下来,KIMI的翻译相对准确。感觉KIMI适合拿来学日语。我还拿我的波斯语法律文件试了一下ChatGPT和DeepL。结论是在处理波斯语翻译为中文的问题上,中外大模型全灭,勉强能看的只有豆包。我觉得DeepL不错,另外有个叫“沉浸式翻译”的插件,可以选择接入ChatGPT、DeepL、Google
Translate等多个主流翻译工具进行对比。讨论认为,在国内部分AI平台的翻译功能尚处在审核期的背景下,在处理如波斯语等小语种的法律文件翻译时,目前国内外各大AI模型中相对好用的是豆包,虽然结果也并非完美。在日语翻译上,KIMI的翻译结果相对称心如意。而在浏览器插件方面,“沉浸式翻译”得到了多数实务工作者的青睐。