Multicoin Capital:论技术可扩展性如何创造社会可扩展性

快链头条
2021-05-27 19:53
新闻
19041

原文标题:《 Technical Scalability Creates Social Scalability 》,作者:Kyle Samani ,Multicoin Capital 联合创始人,编译:0x33,律动BlockBeats

 

编者注:本文假设您熟悉 Nick Szabo 的文章《社会可扩展性》、Vitalik Buterin 的论文《 弱主观性》以及 Haseeb Qureshi 的论文《为什么权力下放并不像您想象的那么重要》。

本文并非对 Szabo 论文的反驳。

Szabo 在他的论文末尾结束时,将社会可扩展性定义为「牺牲计算效率和可扩展性–消耗更便宜的计算资源–以便减少并更好地利用维持关系之间的关系所需的大量人力资源支出陌生人涉及现代机构,例如市场,大公司和政府。」

比特币战胜 BCH 和 BSV 无疑支持了这一理论。

然而,自从 Szabo 在 2017 年 2 月发表他的开创性论文以来,加密生态系统已经走了很长一段路。尽管 Szabo 大约在 20 年前就想到了智能合约的概念,但直到最近 24 个月,全世界才开始欣赏智能合约最有用的应用:DeFi。

DeFi 改变了一切。

本文假设区块链最重要的功能本身并不是非主权货币,反而是 DeFi。

将系统的主要功能从严格的抗审查性,非主权金钱改变为金融应用程序的功能强大且可编程的开发环境,应该对网络层的技术堆栈的每一层都产生影响(例如 gossip 与 Turbine))通过执行环境(例如 EVM 与 SeaLevel))。(有关 Solana 与以太坊的区别的简要概述,请参见本文的附录)

因此,应该首先将区块链作为 DeFi 开发平台进行设计和管理。

 

可预测性就是力量

 

「我经常听到这样一个问题:'未来十年将会发生什么变化?' 这是一个非常有趣的问题;也是非常常见的问题。然而我却几乎从来没有被问过这样的问题:「未来 10 年不会发生什么变化?」 在这里我要说,第二个问题实际上是这两个问题中更重要的那个,因为您可以围绕时间稳定的事物制定业务战略。...
 [在我们的零售业务中,我们知道客户想要低价,而且我知道从现在起 10 年后都将如此。他们想要快速交货;他们想要大量的选择。不可能想象从现在起的 10 年后会有一个客户走出来说:「杰夫我爱亚马逊;我只希望商品价格更高一些,」或者「我爱亚马逊;我只希望您这边发货慢一点。' 不可能的。因此,我们投入精力到这些事情上,将这些事情分解起来,我们知道我们今天投入其中的精力仍然会在十年后为我们的客户带来回报。当您知道某些事情是正确的时,即使是长期来看,您也可以负担很多能量。」
—亚马逊创始人兼首席执行官杰夫·贝佐斯(Jeff Bezos) 

Coinbase 有大概 5000 万的注册用户,Robinhood 也是如此。大多数美国主要银行也是如此。

我们假设 Coinbase 的战略要务是尽快将其 100%的用户迁移到 DeFi,并且监管环境对此予以支持。Coinbase 今天如何在以太坊上做到这一点?

目前,这是一个无法回答的问题。这并不是说在技术上是不可能的,这是有可能。但是,当今世界上没有一个人或组织可以回答这个问题。为什么?

因为没有人真正知道以太坊将如何扩展。举一个简单的例子,Vitalik 表示,他相信在近期到中期,optimistic rollups 可能是最佳的扩展解决方案,而从长远来看,zk 汇总将成为主导。这种转变何时以及如何发生?需要(重建)什么基础设施?这些不同的 rollups 之间的资金流动将如何,对智能合约开发者,钱包,用户,流动性提供者,加密货币等有何影响?

而且,似乎无论扩展解决方案最终会变得多么重要,该扩展解决方案都不可能有单个整体实例化(例如,意味着单个 Optimism rollup 汇总)。以太坊扩展的未来将是异构的。

从长远来看,这对以太坊来说可能是一件好事。各种扩展解决方案中的每一个都有一些权衡,并且尚不清楚哪种权衡设置是最佳的,还是组合这些扩展解决方案的最佳方法。因此,从长远来看,以太坊生态系统的最佳选择是尝试多种扩展解决方案,找出哪种解决方案最适合哪种应用程序,然后找出网桥和其他互操作性解决方案以及延迟问题。

此外,所有构建扩展解决方案的团队都有充足的资金,已经开始上线和面向用户。因此,所有团队都不会很快放弃。

那么,Coinbase 如何将超过 5000 万的用户加入 DeFi?

在这样的规模上,要优化的最重要的事情就是确定性。任何规模的公司都将在目前和未来都要求确定性。

大规模组织根本无法将赌注押在错误的技术堆栈上。错误的机会成本以及后来迁移/桥接的显式成本是巨大的。

我认为,唯一可以回答这个问题或将在未来 24 个月内回答这个问题的区块链协议是 Solana。

所有基于 rollup 的扩展解决方案都受到我上面概述的问题的困扰。分片也是如此。尽管来自一系列有能力的团队(Cosmos,Polkadot,Avalanche 等)进行了数十亿资金的研究和开发,但所有分片系统实际上都没有达到有意义的规模(大多数甚至在日常产出中无法运作)。即使它们以 PoC(proof-of-concept )共识工作,也将有许多新出现的问题必须加以管理(例如,交叉分片事务处理失败,交易平台集成等等)。

这里需要明确的是,我并不是说通过分片和 rollup 进行扩展无法正常工作。实际上,我对这两种解决方案最终都抱有乐观的态度。但是,这两种扩展策略今天都无法真正起作用,并且会产生许多必须解决的二级和三级问题。这让我们很难看到一个急需可扩展性、确定性的公正组织,可以在未来 24 个月内获得其所需的要素,因为有太多相互交织的组件来扩展以太坊。

 

碎片化的社会可扩展性成本

 

除了上面概述的不确定性之外,将应用程序分散在各个分片和 rollups 上会产生明显的新的社会协调成本,而这在单分片系统中是不存在的。一些例子:

块时间和计算吞吐量在 Layer 1 和各个 Layer 1 之间有所不同。这直接关系到在所有管理风险的 DeFi 协议(其中包括除 Uniswap / Sushiswap 之外的几乎所有主要原语)中应如何管理风险。DeFi 团队已经承诺在多个 Layer 1 和 Layer 2 部署合约。但是,每个执行环境将需要唯一的风险参数。这将增加每个协议社区所需的社会协调数量,并减慢发展速度。

从 optimistic rollups (ORU)退出需要很长时间。市场普遍预期做市商将在 rollup 和 Layer 1 间架起流动性桥梁。但是,此操作的实现细节比较棘手。协议前端应该本地提供吗?如果是这样,他们是否应与特定的做市商「签约」(例如,Citadel Securities 如何与 Robinhood 签订 PFOF 合同)?还是应该让前端让用户自己弄清楚?如果用户想从一个 ORU 转移到另一个 ORU,该怎么办……用户如何告知应用程序,以便用户可以使用 Connext 或 Thorchain 而不是退出到 Layer 1?

对于 Metamask 用户 (他们大部分是高级用户),,用户自己管理这种复杂性可能是合理的。但是对于试图抽象出这些复杂性的精选钱包(如 Exodus 或 Argent),钱包团队将花费多少额外的开发时间来解决这些问题?将会放弃多少实际的新功能开发?如果做市商出于某种原因停止在该特定桥梁/细分市场提供流动性怎么办?有哪些备份选项?必须更新开发人员工具以处理新的数据结构(ORU 的未处理事务,ZKR 的 zk 输出)。索引和查询层将需要进行重大升级,应用程序开发人员可能需要重新编写其子图以处理新的数据结构(例如,不可能将 EVM 子图映射到 Starkware 的 Cairo)。

开发人员将被迫跨各种异构扩展解决方案重写大量的应用程序。

随着分片和 rollup 的激增,DevEx 将变得更具挑战性。这些问题中没有一个是棘手的,但是它们会减慢开发速度,并使许多不想解决所有这些问题的开发人员感到沮丧。

 

可预测的,无聊的扩展

 

Solana 当前可支持 50,000 笔交易/每秒的速度。 全球网络节点马上也要超过 600 个。但最重要的是,Solana 提供了无限扩展的可预测路径。由于它可以在 GPU 上并行执行事务,因此可以利用 GPU 提供的并行性的巨大收益。

摩尔定律可能是过去 50 年中最重要的经济力量。但是到今天看更像是一种假象。

大约 10 到 15 年前,摩尔定律停止了单线程计算的工作。因为热量产生随时钟速度超线性增加。这就是为什么扇形设备(台式机和笔记本电脑)停滞在大约 3.5-4 GHz,而无风扇设备(电话和平板电脑)停滞在 1.5-2.0GHz 的原因。尽管过去十年来各种优化使单线程性能有所提高,但单线程性能并不是每 18-24 个月增加一倍。

过去十年中,几乎所有的计算收益都来自芯片专业化(FPGA 和 ASIC)和平行结构。现代台式机图形卡具有 4000 多个内核。在过去的十年中,每张卡的内核数量一直在以符合摩尔定律的方式增长,并且这种趋势将持续下去,因为增加的内核数量所产生的热量所产生的影响几乎不会与提高时钟速度产生的影响相同。

Solana 是唯一通过其原生支持分片内并行性的区块链 SeaLevel 运行。SeaLevel 在 GPU 上本地执行事务。当英伟达在 12-24 个月内发布具有 8,000 个内核的新 GPU 时,Solana 网络的计算带宽将大约增加一倍。开发人员不会知道,不在乎,也不必更改一行代码。

这就是可预测性的定义:现在编写代码,知道它可以永久保存,并且知道代码明天执行的成本将比今天少。

缩放计算的主要物理限制是散热。Solana 从字面上看是在物理极限下扩展的。

 

量化分权和弱化主观性

 

从表面上看,许多人认为 Solana 协议不够去中心化。他们并没有真正量化这种说法,但是无论如何他们都会重复它。让我们量化可以量化的事物。

 

一,硬件成本:

 

比特币在 25 美元的 Raspberry Pi 上运行时,需要一个微弱的互联网连接。

以太坊在 500 美元的笔记本电脑上运行(尽管鉴于当前的 Gas 限制,这一说法值得怀疑),并且需要宽带连接。

Solana 在 3500 美元左右的服务器上运行,假设用千兆连接。

最后一个主要考虑因素是状态大小。在 50,000 TPS 和数十亿用户的情况下,Solana 的规模将激增。

这样很好,为什么?因为

1)假定 Solana 在具有可升级存储的服务器上运行(不是不可升级的笔记本电脑),

2)NVMe SSD 通过 RAID 0 线性扩展读写性能,以及

3)多 TB NVMe SSD 不到 300 美元。扩展状态存储的成本和后勤成本微不足道。

如果您对本文的了解如此之深,并且了解我到目前为止所写的所有内容,那么您使用大于 2,000 +美元的 Macbook Pro 的可能性就大于 50%,这也是世界上 5000 万到 1 亿左右的开发人员偏爱的高端计算机。我怀疑针对 500-1,000 美元的硬件进行优化是最优的。500- 1,000 美元价位有何特别之处?

考虑硬件要求的上限应该是公平的。25,000 美元肯定太高了,因为开发人员不拥有这种硬件。代替规定任意的硬件成本,考虑这个问题的更好方法是考虑有多少个节点足以实现足够的防审查能力。显然,「足够」一词本质上是主观的,但是如果您假设 1M 是正确的数字,那么自然的问题是:「世界上是否有足够的 3500 美元的服务器与千兆连接,因此有一条通往 1M 节点的合理路径。?」

考虑到世界上拥有高端硬件的游戏玩家,开发人员和企业的数量,很难看出该问题的答案是否定的。

硬件成本问题不能孤立地考虑。必须在系统的设计目标范围内考虑它。

早些时候,我认为应该针对 DeFi 优化区块链,而不是针对最大的审查阻力(这意味着针对 100M 或 1B 节点而不是 1M 进行优化)。根本没有必要针对 25 美元甚至 500 美元的硬件进行优化,因为绝大多数人永远都不会运行一个节点。那么,为什么还要费心去优化硬件成本和针对它们的协议呢?

 

一切都是主观的

 

这将导致 主观性较弱 并且认识到权力下放并不像您想象的那么重要。

世界是主观的。这意味着什么?考虑以下示例。

当您上次走进高层建筑时,是否首先检查了建筑并采访了主要承包商,以确保该建筑不会倒塌并杀死您?

或着把同样的顾虑放在一架飞机,汽车或者是你的房子上。

世界上的所有事物都基于某种程度的信任。如果每个人都必须独立验证与之互动的所有事物的结构完整性,那么世界将无法运转。

相反,这可以表述为:世界之所以运作,是因为每个人都知道,有足够多的其他人已经验证了系统的假设,从而以极高的概率保证了系统的安全。

这是主观性较弱的基本假设。应用于节点计数时,关键问题是,即使您没有运行自己的节点,您是否也可以合理地假设有足够的其他人员和机构在运行节点,从而可以信任系统?

如今,Solana 拥有约 600 个节点,而一年前还仅约为 100 个。就像几乎所有的区块链一样,这个数字随着时间的推移而增长。只要生态系统继续增长,就没有理由相信节点数会减少。像所有其他主要区块链一样,Solana 网络随着时间的流逝自然去中心化,因为越来越多的人使用它,并且更多的价值流过它。

这也是为什么 Qureshi 是 正确的,而且权力下放并不像您想象的那么重要。权力下放对于实现审查制度抵抗至关重要。目前尚不清楚该阈值在哪里(没有足够的反事实,我们可以根据该事实进行推理),但是实际阈值本身并不重要。重要的是:

1)曲线的形状实际上是反向的 S 曲线,以及

2)知道区块链随着时间的推移而更加去中心化,因此增加了审查审查的抵抗力。只要链条以足够的速度进行权力下放(并且您相信它可以维持权力下放的速度),那么用户很有可能会维持他们所需的审查制度抵抗力。

 

图片来源:Haseeb Qureshi,为什么权力下放并不像您想象的那么重要

 

结论

 

眼前的基本问题是:什么是狗,什么是尾巴?

自 2009 年比特币问世以来的第一个十年,很明显,耐审查性,非主权货币是狗,其他应用程序是尾巴。

但这正在改变。现在对于每个使用加密货币的人来说,DeFi 都将完全重塑金融。我认为角色已经颠倒了:DeFi 是狗,而非主权货币是尾巴。

两者都需要一定程度的防审查性,但是在工程上受到限制的情况下,在最大化 DeFi 的效用与最大化系统的防审查性之间存在一个基本的权衡。

当系统的基本设计目标发生变化时,技术堆栈也应随之变化。为了将 DeFi 扩展到数十亿人,必须从首要原则重新考虑堆栈的每一层。

感谢 Hasu 审阅这篇文章的初稿

温馨提示:
快链头条登载此文本着传递更多信息的缘由,并不代表赞同其观点或证实其描述。
文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
提示:投资有风险,入市须谨慎。本资讯不作为投资理财建议。