约翰·罗伯茨错了——在人工智能研究苏醒之前,我们不能相信它

最高法院首席大法官约翰·罗伯茨最近提醒 关于负责任地使用人工智能进行研究,但他的广泛警告并没有解决以这种方式使用人工智能的技术问题。他说,如果没有人工智能,法律研究可能很快就会“难以想象”,但在我们能够消除技术中的一个基本缺陷之前,它作为一种法律工具应该是无法想象的。

它真正被称为人工智能幻觉

人工智能 幻觉。这是它的实际技术术语。它的原因与人类可能产生幻觉的原因不同,但我们应该像对待系统中含有大量迷幻药的人类助手一样对待人工智能研究工具。

问巴德,第一步:从狭义上讲,这在技术上是正确的。(来源:谷歌)

当大型语言模型(LLM)ChatGPT,吟游诗人,或任何其他AI聊天机器人 它可以相对轻松地与你“交谈”,产生错误的信息,并告诉你它是准确的。对于法律研究来说,它可能化妆箱 这会让你受到制裁。对于名人和有影响力的人来说,这可能会让你大吃一惊你自己离婚的消息。不那么有趣的是,作为医学参考,人们可能会死亡。

通过正确的用户行为可以减少幻觉的影响,但这意味着将人工智能工具视为荣耀的搜索引擎,而不是数字研究人员。这些工具需要局限于特定的任务和数据,即使这样,你也需要密切关注它。

问巴德,第二步:巴德承认了这个问题,并对此非常谨慎。(来源:谷歌)

根据国际商用机器公司,观察到的人工智能幻觉受到了用于训练人工智能的数据不准确、语言模型的复杂性以及一个名为“过拟合,”不相关的信息与训练数据匹配得太紧密,使识别和处理新数据变得非常困难。

基本上,人工智能在处理信息时存在问题,无论信息是完全错误的还是重复的准确信息,而且随着数据集或模型变得更加复杂,情况会变得更糟。一个包含错误信息的庞大数据集可能会导致任何事情,从Reddit的搞笑恶作剧到Glorbo,魔兽世界中的一个假功能,到Metas Galactica LLM持续三天之前重复彻头彻尾的种族主义非信息。即使这个集合是完全准确的,它仍然会引起幻觉,就像我们在中看到的那样法律引文.

如何阻止人工智能幻觉

IBM指出,“这些问题中的许多已经得到了解决”,但这些都是针对特定的、观察到的幻觉及其原因的拼凑解决方案。IBM还提供了减少幻觉可能性的建议,但这些建议只能帮助很大程度上取决于你希望你的人工智能模型做什么。建议如下:

  • 使用高质量的训练数据

  • 定义您的人工智能模型将服务的目的

  • 使用数据模板

  • 限制响应

  • 不断测试和完善系统

  • 依靠人工监督

让我们看看这些对法律研究来说有多现实。高质量的培训数据几乎是肯定的,假设你在一个完全准确的法律数据库中工作。这是一个良好的开端。与定义目的相同:在你处理的案件中找到相关的判例法和先例。数据模板似乎也很可能,再次假设法律数据库的格式是一致的,这样人工智能就可以一致地读取它。

限制反应是人工智能工具可能变得有用或多余的地方。总结一项裁决如何与你之前的案件相关是一种方便的提炼,这意味着你不必像其他情况下那样仔细研究案件本身。这也是幻觉可能开始的地方,因为LLM正是在这里处理和过滤它认为来自裁决的有用信息,并重新构建它以便于消费。你可以将回答限制在一两句话,甚至只是一个案例列表。然而,在这一点上,LLM所做的远不止是简单地使用数据库自己的搜索工具吗?

当AI新闻机器人攻击时。(来源:推特/X)

测试和完善系统是一项显而易见的措施,应该使用所有信息工具,而不仅仅是人工智能。

然后是依靠人的监督。这是人工智能研究可能有用的地方,但远不如技术爱好者所说的那么多。让一名办事员审查LLM产生的每一个判例法和裁决,并确认它说了AI说的话。因此,深入数据库本身(或打开书籍),仔细研究人工智能说你应该引用的每一段文本。再次,我们将人工智能视为一个更强大的搜索引擎,而不是其他什么。

要防止LLM产生幻觉,并捕捉到任何可能突然出现的幻觉,需要对LLM进行严格控制,并追踪其步骤,以确保它没有编造什么。随着技术的进步,幻觉可以减少。但与此同时,这些改进使LLM变得更加复杂,能够提供更详细的自然语言反应,这就是可能出现全新的、创造性的错误幻觉的地方。

人工智能需要被当作一个助手来对待,他过去曾参与过迷幻药的研究,随时可能会绊倒。你可以解雇(停止使用)他们,也可以监视他们所做的一切,但你不能相信他们能可靠地执行每一项任务。你可能也不应该 be using them to give you accurate information from law or medical texts.

上一篇
下一篇