多模型共识+去中心化验证:Mira Network 如何构建AI信任层对抗幻觉与偏见?
看到Mira网络的公共测试网于昨天推出。它试图要构建AI的信任层。那么,为什么AI需要被信任?Mira又是如何来解决这个问题的?
人们在讨论AI时,关注AI能力的强大方面更多些。不过,有意思的是,AI存在“幻觉”或偏见。人们对这个事情关注并不多。什么是AI的“幻觉”,简单来说,就是AI有时候会“瞎编”,一本正经地胡说八道。比如,你问AI月亮为什么是粉色的?它可能会一本正经给你很多看似合理的解释。
AI存在“幻觉”或偏见跟目前一些AI技术路径有一定关系,比如生成式AI会通过预测“最可能”来进行内容输出,以实现连贯以及合理,但有时候无法验证真伪;此外,训练数据本身也包含错误、偏见甚至虚构内容,这也会影响到AI的输出。也就是说AI本身学习的人类语言模式而不是事实本身
总言之,目前的概率生成机制+数据驱动的模式几乎不可避免带来AI 幻觉的可能性。
这种带有偏见或幻觉输出的内容如果只是普通知识或娱乐内容,暂时还不会有直接后果,而如果发生在医疗、法律、航空、金融等高度严谨的领域,会直接产生重大后果。因此关于如何解决AI幻觉和偏见,是AI演化过程中核心问题之一。有的采用检索增强生成技术(跟实时数据库结合,优先输出已验证事实)、有的引入人类反馈,通过人工标注人类监督来纠正模型的错误等。
Mira项目也在试图解决AI偏见和幻觉的问题,也就是,Mira试图要构建AI的信任层,减少AI偏见和幻觉,提升AI的可靠性。那么,从整体框架来说,Mira是如何来减少AI的偏见和幻觉,并最终实现可信任的AI?
Mira实现这一点的核心是通过多个AI模型共识来验证AI输出。也就是,Mira本身是一个验证网络,它验证AI输出的可靠性,而它借力的是多个AI模型的共识。此外,还有一点很重要,就是去中心化共识来进行验证。
由此Mira网络的关键是去中心化的共识验证。去中心化的共识验证是加密领域擅长的,同时它也利用了多模型的协同这一点,通过集体验证模式来减少偏见和幻觉。
验证架构方面,它需要有一种可独立验证声明,Mira协议支持将复杂内容转换为独立验证声明。这些声明需要节点运营商参与验证,为了确保节点运营商的诚实,这里会利用到加密经济激励/惩罚来实现,不同AI模型+分散的节点运营商参与,以保证验证结果的可靠性。
Mira的网络架构包括了内容转换、分布式验证、以及共识机制,以此实现验证的可靠性。在这个架构中,内容转换是重要一环。Mira网络首先会将候选内容(一般由客户提交)分解成为不同的可验证声明(以确保模型可以按相同背景下来理解),这些声明由系统分发给节点进行验证,以确定声明的有效性,并汇总结果达成共识。这些结果和共识会返回给客户。此外,为了保护客户隐私,候选内容转换分解为声明对,它们会以随机分片的方式给到不同节点,防止验证过程中产生信息泄漏。
本文地址: - 蜂鸟财经
免责声明:本文仅代表作者本人观点,与蜂鸟财经立场无关。本站所有内容不构成投资建议,币市有风险、投资请慎重。