从“圣杯”到基石:FHE 如何重塑 Web3 隐私计算生态?
我之前在多篇文章中说过AI Agent会是诸多Crypto行业老叙事的“救赎”。在上一波围绕AI 自主化的叙事演进中,TEE一度被捧上风口浪尖,然而还有一个比TEE、甚至ZKP更“冷门”的技术概念 FHE——全同态加密,也会因AI赛道的带动获得“重生”。以下,透过案例给大家梳理下逻辑:
FHE是一种允许在加密数据上直接进行计算的密码学技术,被视为“Holy Grail”,相较ZKP、TEE等热门技术叙事处于相对冷门的位置,核心主要受困于开销和应用场景等。
而Mind Network正是专注于FHE的基础设施,并推出了专注于AI Agent的FHE Chain——MindChain,尽管其融资了超千万美元,也经历了数年的技术耕耘,但受限于FHE本身,市场关注仍被低估。
不过,最近Mind Network却围绕AI 应用场景推出了不少利好消息,比如,其开发的FHE Rust SDK被开源大模型DeepSeek集成,成为AI 训练场景中的关键一环,为可信AI的实现提供了安全基础。为何FHE可以在AI 隐私计算中有所表现,能否借助AI Agent的叙事实现一次弯道超车 or 救赎吗?
简单而言:FHE全同态加密是一种可以直接作用在当前公链架构之上的密码学技术,允许在加密数据上直接进行加法、乘法等任意计算,而无需对数据进行先行解密。
换句话说,FHE技术的应用可以使得数据从输入到输出实现全程加密,即使维持公链共识做验证的节点也无法访问明文信息,这样的话,就使得FHE可以在医疗、金融等垂直细分场景,为一些AI LLM的训练提供技术底层保障。
让FHE可以成为传统AI 大模型训练丰富扩展垂直场景以及结合区块链分布式架构的一种“优选”解决方案。无论是医疗数据的跨机构协作,还是金融交易场景的隐私推理,FHE都能凭借其独特之处成为一种补充选择。
这其实并不抽象,用一个简单的示例就明白了:比如, AI Agent作为面向C端的应用,其后台通常会接入包括DeepSeek、Claude、OpenAI等不同供应商提供的AI 大模型,但如何确保在一些高敏感金融应用场景中,AI Agent的执行过程不会被突然篡改规则的大模型后台影响呢?这势必需要对输入的Prompt进行加密,当LLMs服务商直接对密文进行计算处理时,就不会存在强行的干涉改动而影响公正性。
那么另外的“可信AI”概念又是怎么回事呢?可信AI是Mind Network试图构建的一个FHE去中心化AI愿景,包括允许多方通过分布式算力GPU实现高效的模型训练和推理,而不必依赖中央服务器,为AI Agent提供基于FHE的共识验证等。这种设计消除了原本中心化AI的局限性,为web3 AI Agent在分布式架构下的运转提供了隐私+自主性双重保障。
这更加契合Mind Network本身分布式公链架构的叙事方向。比如,在特殊的链上交易过程中,FHE可以保护各方Oracle数据的隐私推理和执行过程,能让 AI Agent 在无需暴露仓位或策略的情况下实现交易的自主决策等等。
本文地址: - 蜂鸟财经
免责声明:本文仅代表作者本人观点,与蜂鸟财经立场无关。本站所有内容不构成投资建议,币市有风险、投资请慎重。