原文作者:Poopman
编译:Joyce,BlockBeats编者按:
「FHE」是近期加密社区的炙手可热的技术话题。
两周前,以太坊 Layer 2 Fhenix 宣布完成 Hack VC 领投的 1500 万美元 A 轮融资,而早在去年,Fhenix 已经获得了 Multicoin 领投的种子轮融资。Fhenix 是一个由 FHE Rollups 与 FHE Coprocessors 提供支持的以太坊 L2,可以运行基于 FHE 的具有链上保密计算的智能合约。昨日,正在进行重大更新的 Arweave 创始人 Sam Williams 也在社交媒体上发文,表示即将推出使用 FHE 在 AO 流程内进行隐私计算的功能。
FHE 生态项目众多,社区 KOL Poopman 的这篇长文对 FHE 的概念以及生态项目做了基本梳理,并提出了 FHE 面临的技术挑战和可能的解决方案,BlockBeats 编译如下:
FHE 开启了无需解密即可计算加密数据的可能性。当与区块链、MPC、ZKP(可扩展性)结合时,FHE 提供必要的机密性并支持各种链上用例。
在本文中,我将介绍四个问题,分别是 FHE 的背景、FHE 如何运作、FHE 生态系统的 5 种景观以及当前 FHE 的挑战与解决方案。
FHE 的背景
FHE 于 1978 年首次提出,但由于其计算复杂性,在相当长的一段时间内它并不实用,而且相当理论化。直到 2009 年,Craig 为 FHE 开发了一个可行的模型,从此引发了人们对 FHE 的研究兴趣。
2020 年,Zama 推出 TFHE 和 fhEVM,使 FHE 成为加密货币领域的焦点。从那时起,我们就看到了通用 EVM 兼容的 FHE L1/L2(例如 Fhenix、 Inco 和 FHE 编译器(例如 Sunscreen 等)的出现。
FHE 如何运作?
你可以想象有一个盲盒,里面有拼图。然而,盲盒无法了解您给它的谜题的任何信息,但它仍然可以用数学计算结果。
如果太抽象的话,可以从我对 FHE 的简单化解释中了解更多信息。FHE 是一种隐私技术,无需先解密即可对加密数据进行计算。换句话说,任何第三方或云都可以处理敏感信息,而无需访问内部任何数据。
那么什么是 FHE 的用例?通过 ZKP 和 MPC 增强机器学习、云计算、链上赌博的隐私性。私有链上交易/私有智能合约/注重隐私的虚拟机,例如 FHEVM 等。
一些 FHE 用例包括:私有链上计算、链上数据加密、公共网络上的私人智能合约、机密 ERC20、私人投票、NFT 盲目拍卖、更安全的 MPC、抢先交易保护、无需信任的桥梁。
FHE 生态系统
总的来说,链上 FHE 的前景可以概括为 5 个领域。分别是通用 FHE、针对特定用例(应用程序)的 FHE/HE、FHE 加速硬件、FHE Wif AI、「替代解决方案」。
通用 FHE 区块链和工具
它们是实现区块链保密性的支柱。这包括 SDK、协处理器、编译器、新的执行环境、区块链、FHE 模块…… 最具挑战性的一项是将 FHE 引入 EVM,即 fhEVM。
fhEVM:
Zama (@zama_fhe ),作为 fhEVM 的代表 – 首个提供 TFHE(全同态加密)+ fhEVM(全同态虚拟机)解决方案的提供商。
Fhenix(@FhenixIO ),在 ETH 上实现 FHE L2(第二层)+FHE 协处理器。
Inco network (@inconetwork ),专注于游戏/RWA(现实世界资产)/DID(去中心化身份)/社交等领域的 EVM 兼容 FHE L1。
FairMath (@FairMath ),一个与 openFHE 合作的全同态虚拟机 (FHE-(E)VM) 研究组织,致力于促进 FHE 的实施和采用。
FHE 基础设施工具:
Octra network (@octra ),支持 HFHE(高阶全同态加密)隔离执行环境的区块链。
Sunscreen (@SunscreenTech ),基于 Rust 的全同态编译器,依赖于微软的 SEAL 库。
Fairblock (@0xfairblock ),提供可编程加密和条件解密服务的供应商,也支持 tFHE(阈值全同态加密)。
Dero (@DeroProject ),支持 HE(同态加密)的 L1,用于私人交易(不是 FHE)。
Arcium (@ArciumHQ ),由@elusivprivacy 团队开发的结合 HE(同态加密)+MPC(多方计算)+ZK(零知识证明)隐私的 L1。
Shibraum FHE chain,使用 zama TFHE 解决方案制作的 FHE L1。
FHE/HE 适用于特定用途的应用
Penumbrazone(@penumbrazone):一个跨链 Cosmos dex(appchain),使用 tFHE 作为其屏蔽交换/池。
zkHold-em(@zkHoldem):是 Manta 上的扑克游戏,使用 HE 和 ZKP 来证明游戏的公平性。
硬件加速 FHE
每次将 FHE 用于 FHE-ML 等密集计算时,引导以减少噪声增长至关重要。硬件加速等解决方案在促进引导方面发挥着重要作用,其中 ASIC 的性能最佳。
Optalysys(@Optalysys),一家硬件公司,专注于通过光学计算加速所有与 TEE 相关的软件,包括 FHE。
Chain Reaction(@chainreactioni0),一家硬件公司,生产有助于提高挖矿效率的芯片。他们计划在 2024 年底推出一款 FHE 芯片。
Ingonyama(@Ingo_zk),是一家专注于 ZKP/FHE 硬件加速的半导体公司。现有产品包括 ZPU。
Cysic(@cysic_xyz)是一家硬件加速公司,现有产品包括自主研发的 FPGA 硬件,以及即将推出的 ZK DePiN 芯片、ZK Air 和 ZK Pro 等。
每个公司都专门生产芯片、ASIC 和半导体等硬件,这些硬件可以加速 FHE 的引导/计算。
AI X FHE
最近,人们对将 FHE 集成到 AI/ML 中的兴趣日益浓厚。其中,FHE 可以防止机器在处理任何敏感信息时学习任何敏感信息,并在整个过程中为数据、模型和输出提供机密性。
Ai x FHE 成员包括:
Mind network(@mindnetwork_xyz ),一个 FHE 重新质押层,用于通过高价值数据加密和私有投票来保护权益证明(PoS)和 AI 网络,减少节点合谋和操纵的机会。
SightAl(@theSightAI),一个可验证的 FHE AI 推理区块链,具有可验证的 FHE-ML。区块链由三个主要部分组成:视觉链(Sight Chain)、数据聚合层(DA 层)和一个视觉推理网络(Sight Inference Network),其中执行 FHE-ML 任务。
Based AI(@getbasedai ),Based AI 是一个 L1 区块链,它使用一种名为\”Cerberus Squeezing\”(地狱犬压缩)的机制将 FHE 与大型语言模型(LLM)集成,这种机制可以将任何 LLM 转换为加密的零知识大型语言模型(ZL-LLM)。
Privasea Al(@Privasea_ai ),Privasea AI 是一个 AI 网络,允许用户使用 HESea 库中的 FHE 方案加密他们的数据或模型,然后上传到 Privasea-AI 网络,在该网络中区块链以加密状态处理数据。
HESea 库是全面的,包含 TFHE、CKKS 和 BGV/BFV 的不同库,并且与一系列方案兼容。
「替代解决方案」MPC/ZKFHE
有的不使用 FHE,而是使用 MPC 来保护高价值数据并进行「盲计算」,而另一些则使用 ZKSNARK 来保证 FHE 对加密数据计算的正确性。他们是:
Nillion Network (@nillionnetwork ),一个使用 MPC 去中心化和存储高价值数据的计算网络,同时允许用户编写程序并进行盲计算。Nillion 由两个主要组成部分构成:协调层和 Petnet。协调层充当支付渠道,而 Petnet 则进行盲计算和高价值数据的存储。
Padolabs (@padolabs),Pado 是一个使用 FHE 处理敏感数据的计算网络,同时利用 MPC-TLS 和 ZKP 保证计算的正确性。
FHE 的挑战及解决方案
与 ZK 和 MPC 不同,FHE 仍处于早期阶段。现在 FHE 的瓶颈是什么?为了增强计算的安全性,加密时在密文中加入一些「噪音」。当密文中积累了太多「噪声」时,它就会变得太「嘈杂」,最终影响输出的准确性。不同的解决方案正在探索如何有效消除噪声而不对设计施加太多限制,包括 TFHE、CKKS、BGV 等。
FHE 的主要挑战包括:
性能缓慢:目前,使用 fh-EVM 的私有智能合约只有 5 TPS。与纯数据相比,TFHE 现在的性能大约慢 1000 倍。
尚不适合开发人员:目前仍缺乏标准化算法和整体支持的 FHE 工具。
高计算开销(成本):由于噪声管理和复杂计算的引导,这可能会导致节点中心化。
无担保链上 FHE 的风险:为了保证任何阈值解密系统的安全,解密密钥在节点之间分配。然而,由于 FHE 的开销较高,这可能会导致验证器数量较少,因此共谋的可能性较高。
解决方案包括:
可编程升压:它允许在引导期间应用计算,从而在特定于应用程序的同时提高效率。
硬件加速:开发 ASIC、GPU 和 FPGA 以及 OpenFHE 库,以加速 FHE 性能。
更好的阈值解密系统。简而言之,为了让链上 FHE 更加安全,我们需要一个系统(可以是 MPC)来确保:低延迟;降低节点进入门槛,实现去中心化;容错能力。
「原文链接」