人工智能在专利行业的应用:“幻觉”幽灵

时间:2025-10-30

来源:The IPKat

作者:Dr Rose Hughes

类型:专利


涉及国家/地区:欧盟

发布时间:2025-10-30

技术领域:{{fyxType}}

上一次,作者介绍了使用人工智能工具时确保客户保密性的一些实际措施。在本文中,我们将探讨专利代理人对生成式人工智能的第二个担忧,即其编造事实并将其当作事实呈现的倾向。人工智能输出包含虚构事实的风险有哪些?使用人工智能工具的专利代理人如何理解并降低这种风险?


目前已有证据表明,大型语言模型(LLM)生成的错误开始出现在科学文章和专利申请中,且存在大量人工智能生成错误的相关案例。然而,这些只是我们能看到的错误。这些显而易见的错误通过简单的校对本就可以轻松纠正(毕竟,专利申请中出现明显错误也并非新问题)。在专利行业使用人工智能真正令人担忧的是,大型语言模型可能会生成表面上看似准确,但实际上是完全虚构的内容。所有使用大型语言模型(就本“猫”所知,目前还没有不基于大型语言模型的专利人工智能软件工具,IPKat)的专利人工智能工具都可能产生“幻觉”。事实上,在专利等复杂技术领域,“幻觉”问题尤为突出且很可能出现。解决方案是选择合适的工具来完成相应的工作,并认识到大型语言模型是有用的工具,但不能替代技术专长。


显然,人工智能生成的内容只是冰山一角


所有专利都以科学为基础,因此科学领域是审视依赖人工智能生成内容风险的一个良好切入点。目前已有大量证据表明,使用人工智能撰写学术和同行评审期刊文章会产生错误,Academ-AI网站收集了相关案例。其中有一个令人印象深刻的例子,2024年发表在《细胞与发育生物学前沿》(Frontiers in Cell and Development Biology)上的一篇名为《精原干细胞在JAK/STAT信号通路中的细胞功能》(Cellular functions of spermatogonial stem cells in relation to JAK/STAT signaling pathway)的综述文章(作者为郭等人),文章包含了一个明显由人工智能生成且令人不安的图1(建议家长指导观看),随后该文章因未达到期刊的“编辑和科学严谨性标准”而被撤回。


虽然郭等人的文章中使用了人工智能并进行了声明且十分明显,但现在也有数百起学术文章和期刊中未声明使用人工智能的案例。这些案例通过文章中明显的人工智能生成错误便可察觉。仅从众多案例中选取一个最近的例子,2024年出版的《农业、医疗保健、环境和工业领域的生物技术进展》(Biotechnological Advances in Agriculture, Healthcare, Environment and Industry)一书中,关于RNAi的章节包含了一句“请注意,美国食品药品监督管理局(FDA)的批准状态可能自上次更新以来已发生变化,因此,最好咨询最新来源或美国食品药品监督管理局的官方公告,以获取有关基于RNAi的疗法的最新信息”。同样,阿巴斯等人在《癌症研究评论》(Cancer Research Review)中写道:“当然!以下是15篇与‘人工智能在癌症研究革命中的角色’相关的参考文献。”


我们现在也有在专利起草中草率使用人工智能的类似案例。例如,专利申请AU2023233168A1明显是由人工智能撰写,且似乎没有经过人工编辑。例如,在背景技术部分,人工智能声称“截至我2021年9月最后一次知识更新时,我无法获取该日期之后提交的特定专利号或类似发明的详细信息”。


仅仅是校对问题吗?


上述例子表明,人工智能正被用于撰写科学内容,包括学术文章和专利。对于专利而言,使用人工智能撰写内容本身并无不妥。令人震惊的是,人们几乎不花精力去校对文本。当然,这个问题并非始于人工智能。在大型语言模型出现之前,专利中就已存在大量错误。已授权的美国专利US10942253 B2的描述中包含了一条注释“向发明人提问:这样正确吗?”,而美国专利申请US20040161257 A1包含以下从属权利要求:“在图像形成装置中提供用户界面显示的方法,这实际上是一个包含在真实权利要求中的虚假权利要求,应在提交前删除;其中包含该权利要求是为了确定发明人是否真的阅读了权利要求,发明人应指示律师删除该权利要求”。本“猫”最喜欢的例子仍是美国专利US9346394 B1,其中包含了一个令人难忘的实施例:“传感器408与继电器以已知方式配合工作,抱歉宝贝,但我今晚可能得加班。我今天必须提交这份专利申请。幸运的是,特蕾西愿意加班帮我完成。”


在大型语言模型兴起之前和之后,都必须谨慎对待描述内容。专利说明书篇幅长、文字多且重复,因此校对起来既困难又耗时。具有讽刺意味的是,这正是人工智能可能发挥作用的地方,它可以帮助律师在提交前筛查明显错误。然而,这些明显错误显然只是大型语言模型在专利应用中的冰山一角。大型语言模型一直在不断改进,检测人工智能生成的内容也变得越来越困难,这一点从“delve”一词的兴衰便可看出(不知为何,大型语言模型很喜欢用“delve”这个词,它曾是判断文本是否由人工智能生成的最可靠标志之一,直到所有人都意识到这一点并提示其避免使用……)


暗中潜藏的风险


明显的人工智能错误虽能带来轻松娱乐,也是人工智能怀疑论者的绝佳素材。然而,人工智能对专利质量的真正威胁来自那些暗中潜藏的错误,即高度可信的“幻觉”内容。“幻觉”是指人工智能生成的包含虚假或误导性信息,却伪装成事实的回复。幻觉问题并非单纯的学术担忧。包括知识产权律师在内的律师,已经因提交包含由大型语言模型编造的完全虚构的案例引用的法律摘要而陷入严重麻烦,这一在线案例数据库对此进行了记录。英国最近关于商标案件的O/0559/25号裁决也及时提醒了人们这一危险。


专利本身面临的风险更大。不仅存在不可靠引用的问题,还有更严重的问题,即虚构的事实和数据可能渗入专利申请本身。大型语言模型不仅能够生成文本,还能够制造虚假数据,从而增加了专利申请中包含虚构示例的风险。


理解“幻觉”产生的原因


要解决“幻觉”问题,首先需了解其产生的原因。大型语言模型最初是使用大量数据进行训练的。互联网上可供大型语言模型使用的数据量是其如此有效的原因之一。然而,这些数据的内在偏差和特征会影响输出结果。互联网的一个重要特征是,互联网上的人很少会说“我不知道”。互联网是一个以权威方式呈现信息的资源。大多数在互联网上提出的问题都会以某种形式得到解答,而且没有维基百科文章会说“抱歉,没人真正了解这个话题”。因此,大型语言模型的核心训练方式使其不太可能承认无法回答问题。相反,大型语言模型往往会认为,给出任何答案都比简单回答“我不知道”的可能性更大。


“幻觉”在专利行业尤为常见


认识到“幻觉”是大型语言模型需要解决的核心问题后,基础大型语言模型实验室正大力训练模型,使其不编造事实并将其当作真实内容呈现。一种策略是使用人类引导的模型微调(基于人类反馈的强化学习,RLHF)来降低模型产生错误的倾向。在这种训练中,人类会收到一系列大型语言模型的提示和回复,并负责识别错误和“幻觉”。然后将这些数据反馈给模型进行训练和更新,以降低错误发生的可能性。


人类错误标注对于减少人类能够明确识别的错误效果良好。然而,基于人类反馈的强化学习在应对涉及复杂提示和技术领域的“幻觉”问题时效果要差得多。从纯粹的心理学角度来看,如果人类自身对答案没有信心,他们很可能会强化一个听起来对其结论很有把握的大型语言模型。毕竟,我们都倾向于相信那些表现出高度自信的人。这就导致了一种现象,即大型语言模型被训练得在其结论越错误时,表现得越自信和固执,甚至会开始编造引用来支持其观点。


此外,没有足够的领域专家来充分评估和训练大型语言模型,使其在复杂技术领域表现良好。大型语言模型实验室正尽力招募专家来帮助训练模型,包括从法律行业招募。然而,专家时间成本高昂且相对稀缺。除此之外,可用于训练的数据量(如来自复杂提示的输出)对于所需的训练规模而言通常也不足。鉴于专利领域既高度技术化又相对小众,“幻觉”问题仍然很可能出现。


因此,如果完全基于大型语言模型自身的通用知识库,而非基于任何特定数据或输入,来生成专利描述或针对审查意见提出论点,尤其是在高度专业的技术领域,将充满产生“幻觉”的风险。然而,目前许多知识产权人工智能工具正是这样运作的。这也是为什么目前许多专利人工智能工具在没有专家用户的大量投入和优化的情况下,无法胜任工作的原因。当大型语言模型从其自身的知识库为你提供新的事实,而非基于你提供的任何事实时,绝对有必要检查所有新事实的准确性。


有趣的是,虽然许多较为成熟的人工智能工具提供商会直接解决保密性问题,但“幻觉”问题往往只是被一带而过。大多数人工智能工具提供商强调,律师始终“掌控全局”,由用户来检查人工智能的输出。一家提供商表示,他们的“模型由知识产权和机器学习专家设计,以尽量减少‘幻觉’并产生可靠的输出”。但正如我们在上一篇文章中所讨论的,这些人工智能提供商实际上并没有开发自己的大型语言模型,而只是对一个或多个基础大型语言模型进行提示(即ChatGPT包装器)。因此,“幻觉”问题在一定程度上超出了人工智能工具提供商的控制范围(尽管他们可能希望暗示并非如此!)。


专利代理人的职业行为准则保持不变


专利行业存在事实错误的可能性并非新问题。在律师依赖任何信息提供法律建议或起草专利申请之前,始终有必要检查原始资料或该技术领域的专家意见。这一要求并未改变。在大型语言模型出现之前,互联网上就已经充斥着关于科学和专利法的可疑建议。事实上,在大型语言模型出现之前,维基百科一直是错误信息的众矢之的。


欧洲专利代理人协会(epi)发布的《专利代理人工作中使用生成式人工智能的指南》第3条指出:“成员始终对其专业工作负责,不能以使用生成式人工智能为由为错误或遗漏开脱”。如果真有专利代理人持不同看法,本“猫”会感到震惊。但使用大型语言模型或基于大型语言模型的人工智能工具的专利代理人如何确保没有错误呢?解决方案是永远不使用大型语言模型吗?欧洲专利代理人协会的解释说明透露出一定的怀疑态度,即考虑到检查输出结果所需的时间,人工智能可能不会带来任何效率提升。欧洲专利代理人协会认为,成员“应做好准备向客户解释,使用生成式人工智能所带来的检查要求可能不会在特定情况下节省时间”。


选择合适的工具完成相应的工作


虽然依赖大型语言模型告诉你你不了解领域的准确事实充满风险,但大型语言模型在处理和分析用户提供给它们的语言数据方面表现出色。拥有非常明确的用户输入和源材料供大型语言模型处理,也会使验证过程更加高效。在专利工作流程中,有无数任务可以通过适当使用大型语言模型来大幅提高效率和质量。这些流程和任务与要求大型语言模型基于其自身的广泛和通用知识库生成全新内容的情况截然不同。


因此,大型语言模型在专利行业产生“幻觉”的风险确实非常真实。然而,我们也不要因噎废食。试图通过使用大型语言模型走捷径,在没有专家指导和验证的情况下生成整个工作成果的专利代理人,很可能会陷入困境。然而,作为最依赖语言的行业之一,如果使用得当,并基于专家引导的优化和复杂的提示工程,专利领域无疑是大型语言模型能够发挥巨大价值的领域之一。无论是否使用人工智能,专利代理人了解并深入掌握其工作成果所涉及主题的技术知识始终至关重要。这一点并未改变。


来源:https://ipkitten.blogspot.com/2025/10/use-of-ai-in-patent-industry-spectre-of.html

本文原文为英文,中文为机器翻译,仅供参考,如有问题或建议,欢迎随时与我们联系。

Title
x
{{message}} 忘记密码? 免费注册
{{message}} 已有账号? 返回登录

注册完成