[牛牛说币]长推:从行业视角,探讨为什么L2的技术去中心化这么难?

注:原文来自@tmel0211发布长推。

Blast的多签安全风险还在被诟病,连5个多签都属于铁顺的段子都传疯了,然而并没有影响 @Blast_L2 TVL的持续上涨。理性的认知驱使大家批判Blast,但趋利的本能又不能拒绝拥抱Blast。

接下来,撇开Blast具体的多签安全问题,从layer2行业的视角,探讨下为啥layer2的技术去中心化那么难?

首先厘清所谓layer2的技术组件去中心化,包括:Sequencer、Prover、Validator、主网Rollup Contract等分布于主网和layer2的多个关键组件,其中ZK-Rollup比OP-Rollup多了Prover系统,基本大家都围绕Sequencer的运营为核心。此外有的区别就是 Data Avaliablity的实现依赖以太坊主网的程度,以及EVM主网的等效程度了。

目前各layer2核心技术组件去中心化现状:

-Arbitrum称和Espresso Systerm合作探寻去中心化Sequencer的可能性,还只是在探索阶段;

-Starknet的Prover系统实现了无许可去中心化,Sequencer还没明确的去中心化消息;

-Optimism更是把Sequencer中心化合理化了,推出OP Stack战略,试图用全新的共享Sequencer安全治理委员会来分散中心化权限,用曲线的社会化共识来弥补技术共识缺陷;

-zkSync许久没有核心组件的开源及去中心化迹象,推出了ZK Stack多应用链战略,按官方说法,zkSync退居成Stack大战略下的一个模范应用链也是在逃避去中心化技术上的无力感。

不难看出,四大天王layer2在核心技术组件的去中心化问题上,各有考量,有的还在讲技术去中心化的故事,有的已经试图将用Stack战略弥补纯技术去中心化存在的缺憾,总之,layer2的纯技术去中心化很难。Why?

1)layer2的Sequencer一般采用了中心化的EOA地址,这样可节省主网交互成本,像Optimism和zkSync等均采用了EOA地址,直接简单地由私钥控制,比较灵活操作,且相比智能合约复杂的逻辑和功能,EOA结构攻击面更小。

最关键是,这些EOA地址在与主网合约交互时可以降低成本。然而,管理私钥最有效的方式就是强中心化管理。若要对私钥进行去中心化管理,反倒会增加系统可攻击面。

2)Sequencer负责给layer2营收抽水,通常Sequencer收取的手续费扣除向主网batch交易所需的成本等等费用就是layer2的毛收入。

这使得Sequencer的控制方轻易不愿意将权利分散化,一旦过于去中心化,在核心激励机制收费问题上势必也会产生新问题,比如利益分配。

3)Prover系统生成Proof并验证的过程技术门槛较高,现在ZK-Rollup生态项目创新少,一大部分原因都是在数据结构适配上和ZK circuit有较大程度门槛,对于分散的Validator更是如此,一旦Validators节点过于分散,在处理并验证Proof的过程中也会存在稳定性难题;

4)OP-Rollup鲜有实际的battle-tested挑战发生,正是因为中心化Sequencer会让layer2天然趋向于乐观零挑战,某种程度上过于中心化的Sequencer看似是一种软肋,实际却成了另一种安全机制。

5)若layer2发生安全故障,Sequencer可以强行冻结并控制资产流出,大不了在二层进行一次低成本的硬分叉,但倘若是Sequencer受到攻击呢?大批的资金回撤到主网,主网Rollup合约实施可升级的多签治理就是另一层双保险。因为layer2不可能指望主网级的硬分叉发生。

说直白点,主网做多签治理只是为了给layer2 Sequencer受攻击上保险,讨论多签名单上是谁,是否有威望根本就没意义。

以上。

之所以目前很少听到layer2因过于中心化rug的消息,主要是由于layer2的整体技术门槛高,创始团队的过往声誉,投资机构的背书,以及内置的特殊安全机制(挑战机制,DA)等,都使得运营layer2是个长线可持续的Business,尤其是坐看生态一个个崛起然后持续抽水营收才是layer2的End Game。

如果一个layer2项目不提生态,不谈技术,却以“大家都一样”的名义,只谈空投预期,Rug风险之外,首先应该发问其到底是不是layer2?

layer2的技术去中心化现状发展并不理想,拜原教旨主义的去中心化在layer2领域或许根本就不存在?这样来看,Stack战略虚无缥缈的多链共享组件策略,更长远看会是剔除layer2中心化权利过大的唯一解了。

根本上,无论技术共识还是社会共识,终究都是一种约束作恶的力量。

相关推荐