jnzx 江南资讯

架构BOB全站师深度拆解:Web3 需要什么样的存储系统?

2022-12-18 01:17:48
作者:小编
返回列表

  文字产生以前,结绳记事是人类用来存储知识和信息的主要方式。此后,从竹简、纸张的发明,到工业时代的磁盘存储,再到信息时代的数据库,存储方式不断革新,“存力”不断提高。

  这一款面向区块链可信数据存储的技术产品,不仅用来解决当前蚂蚁链及区块链产业的规模化发展问题,也面向Web3时代提供“可信存力”支撑。

  我们认为,随着大量的数据和数字资产在数字化世界里流转,可信数据的“存力”将如同电力网络的承载力一样重要。

  本文希望通过对LETUS的深入技术解读,回答读者们普遍关心的关键问题:LETUS是什么?主要解决哪些问题?为什么坚持用“可验证结构”?为什么要自研?以及未来要走向何处?

  从2009年序号为0的创世块诞生至今已过去十多年,“中本聪”依然神秘,但区块链技术的发展却因为公链、token、开源的推动,没有丝毫神秘感。

  经过几代技术演进,在比特币的UTXO模型基础上诞生了应用更为广泛、支持可编程智能合约的区块链技术:通过密码学、共识算法、虚拟机、可信存储等技术,多个参与方执行相同的“指令”,来完成同一个业务逻辑,如账户转账,或者合约调用,维护不可篡改和不可伪造的业务数据。

  简单讲,可将这类账本数据库,看作一个去中心化防作恶、防篡改的复制状态机,所执行的是智能合约描述的业务逻辑,而状态机通过日志 (区块数据)产生新的状态(状态数据):

  区块数据:包括交易、回执、世界状态Root Hash等信息BOB全站,和数据库系统中的日志类似,但是块之间由Hash锚定防篡改,并且不会删除。(区块数据记录的是区块链上发生的每一笔交易,如:Alice向Bob转账xx)

  状态数据:记录账户、资产、业务合约数据等状态信息,和数据库系统中表数据类似,需要实现可验证可追溯。(状态数据记录的是区块链上每个账户或智能合约的当前状态,如:Bob账户剩余xx)

  区块链应用通过可验证数据结构(Authenticated Data Structure,如Merkle tree)实现可验证和可追溯。我们认为,Web3“存力”一个非常重要的要素是可验证,而今天我们看到的区块链存储瓶颈大多来源于可验证结构ADS(如Merkle tree)的低效存取和查询,这正是蚂蚁链LETUS重点攻克的难题。

  随着时间推移和链上交易的增加,对存储容量的要求也不断增长,随之而来的是区块数据存储成本的大幅提升;与此同时,链上状态数据规模也持续增加,可验证数据结构持续膨胀,导致交易性能随账户规模提升和历史状态数据增加而持续下降。

  2019年,蚂蚁链上线了一个供应链金融业务,大家特别兴奋。但是,这种兴奋并没有维持多久,随着程序跑的时间越来越长,问题慢慢暴露出来。

  供应链金融是面向ToB的,不像ToC端随时都有数据,可能会在某个时刻(比如每天晚上)有一笔状态数据非常大的交易进来,跑了一个星期后发现性能越来越慢。

  链平台TPS的衰减和存储直接相关,而与共识、虚拟机都无关,随着业务合约持续写入数据,存储性能大幅衰减。

  如果要在技术上长时间支持亿级账户规模、每天能稳定支撑亿级交易量,存储的规模和性能问题必须要攻克。

  期间,团队也曾试过各种技术方法对他进行优化,得到一些缓解。但多次尝试之后发现,随着数量增加而出现的性能衰减,是一个绕不开的瓶颈,需要从本质上解决。

  区块链应用通过可验证数据结构实现可验证和可追溯,但是可验证数据结构会带来读写放大(问题1)和数据局部性(问题2)。

  而存储系统为了实现数据管理,需要对数据分页/分层、排序,如KV数据库基于LSM-tree将数据分层有序存储,而MySQL之类的数据库将数据分页,也会基于B-tree数据结构来排序索引。

  业界现有的实现方式,大多采用基于LSM架构的通用 Key-Value 数据库,在数据库之上运行一个独立Merkle树来实现可验证bob中心,如:

  Merkle树每次状态数据修改,即使只改一个KV,也需要从叶子节点到根节点,每一层节点都重新编码后,写到KV数据库,例如上图中Alice给Bob转账,需要写入Merkle树的2个叶子节点和3个中间节点,最坏情况需要写入数十个中间节点;

  Merkle树的节点的key完全随机(如对内容算hash,再以hash为key),数据局部性(data locality)非常不友好,如RocksDB里为了让Level内sst文件有序,即使没有垃圾依然需要层层进行数据压实(compaction),从而消耗了大部分的磁盘读写带宽;

  数据规模越大,Merkle树本身的层数越多,需要额外写入的key-value越多,DB里的数据量越多,后台数据管理的代价越大(如compaction流量),消耗大量的磁盘和CPU资源。

  除此之外,吞吐、延时等存储性能(问题3)、持续增长下的存储成本(问题4)、单机存储下的规模瓶颈(问题5)也都是需要解决的问题。

  在过去几年的快速发展中,区块链的业务场景对交易吞吐量和响应时间要求越来越高,很多技术也被推动迭代发展,如PBFT、HoneyBadger、MyTumbler等高性能共识算法,BTN等网络基础设施,JIT加持的WASM虚拟机、以及高效的并行执行技术。

  但比较而言,存储的性能对区块链平台整体性能影响非常大。对面向2C场景的数字藏品类业务(如鲸探,需支持秒杀),交易TPS与延时要求极为苛刻;而对需要在链上保存大量数据的存证类业务,大容量存储带来的成本又十分可观。

  规模:业务账户规模可达数10亿,状态数据和历史版本规模分别需要支撑到十亿、千亿级;

  性能:转账交易需求可达十万级TPS、百毫秒级延时,要求性能不能受制于单机瓶颈,数据规模持续增长下性能不衰减;

  成本:随着交易增长,存储容量持续增加,存储空间占用、节点间带宽占用居高不下。业务持续增长要求低成本存储。

  路线A:弱化可验证可追溯,如HyperLedger Fabric 1.0开始不支持可验证和多版本,保存读写集、只持久化最新版本状态数据;

  路线B:优化KV数据库存储,如实现键值分离、hash索引的KV数据库等(BadgerDB、ParityDB),接入通用分布式数据库(MySQL)等;

  路线C:优化Merkle树,交易ID作为版本、树结构稀疏化,如Diem JMT。

  根据公开信息,目前区块链产品中主流的MPT + LevelDB、JMT + RocksDB、MySQL等存储架构,没有能全部解决上述5个问题的方案,难以在支持多版本BOB全站和可验证的同时,满足10亿级账户规模下的高性能、易扩展、低成本的业务要求。

  我们自研了一套区块链存储引擎LETUS(Log-structured Efficient Trusted Universal Storage),保证完整的可验证、多版本能力,既满足区块数据不可篡改、可追溯、可验证等要求,也提供对合约数据友好访问、存储规模可分片扩展,高性能低成本等特性。同时也满足通用性,统一管理区块数据、状态数据。

  大规模:通过存储集群扩展支持十亿账户规模,TPS超过12万,交易平均时延低于150ms;

  高性能:存储层IO吞吐相比以太坊MPT + LevelDB等架构提升10~20倍,IO延迟降低90%以上。链平台在7x24高压力压测中,端到端TPS不随数据量增加而衰减;

  低成本:相比MPT + LevelDB架构,磁盘带宽减少95%、空间占用减少60%;相比于Diem JMT + RocksDB架构,磁盘带宽减少约60%、空间占用降低约40%;

  (a)针对区块数据容量与成本持续增长,提供智能控温分层存储能力,并应用于存证等业务降低约70%存储成本,同时也降低运维成本。

  (b)针对状态数据的历史版本容量与成本持续增长,提供范围扫描的批量裁剪能力,实现历史版本状态数据的裁剪和后台空间回收,在十亿账户规模时,使用链原生存储可以减少近90%状态存储空间。

  但这背后是一个技术架构的跨越,从下图左边的可验证数据结构+KV数据库架构,升级为现在的LETUS存储引擎,架构更简洁,系统更高效。

  如Alice给Bob转账,只需要写增量数据,不需要写入7个Merkle树节点BOB全站,数据局部性更友好,如Alice和Bob的账户数据,按区块号有序,不再hash随机。

  第一年里,为了满足业务急迫诉求,我们需要在有限时间内,实现亿级账户规模和交易TPS。先从已有系统入手,深度优化了状态树,基于开源MPT到自研FDMT,同时调优RocksDB数据库、增加并发、提升介质性能。

  一系列优化措施缓解了问题,但依然无法根本解决,例如数据规模增加后,写放大依然有几十倍,数据在底层存储里依然随机分布。

  针对读写放大(问题1)、数据局部性(问题2)和性能(问题3),我们结合区块链特征,如可验证数据结构的读写行为、链上数据的多版本诉求、只追加和不可篡改等,重新设计存储引擎的架构分层、关键组件、索引数据结构:

  根据区块链特征,我们根据可验证数据结构的读写行为、链上数据的多版本诉求,重新设计存储引擎的架构分层、关键组件、索引数据结构:

  将可验证特性下推到存储引擎内部,由内置的Version-based(区块号)多版本Merkle树提供可验证可追溯,并且直接操作文件,从而缩短IO路径;

  多版本Merkle树的Node聚合为page,提升磁盘友好性,page存储采用Delta-encoding思想避免in-place更新(结合Bw-tree思路),状态数据修改时主要保存增量,定期保存基线,从而减少写放大,也减少了空间占用;

  为page存储实现Version-based的存储与检索,索引page都按区块号有序写入、在索引文件里有序总局,核心数据结构为B树变种,从而实现有序数据locality;

  利用区块链场景数据的追加写、Immutable特点,架构上采用Log-Structured思想,通过日志文件来组织数据;

  数据与索引分离,数据按区块号有序写入数据文件,通过异步IO、协程并发等提升系统并发度,索引多模,区块&状态通用,除Merkle树支持状态数据,实现有序B树支持区块数据;

  当前最新版本Merkle树优先在内存里缓存或者全部缓存,链上合约执行时,如果存在则直接读取,不需要访问page来重放,从而加速合约执行。

  基于这些核心设计,实现了成本降低的同时性能提升,链平台交易TPS、延时等性能指标不会随着数据规模的提升而衰减。

  虽然存储资源占用大幅降低后,但是链上数据依然面临持续增长带来的高成本问题(问题4)。

  基于LETUS架构的后台数据治理框架,我们能很方便的扩展实现数据迁移/压缩/垃圾回收等治理策略,基于这些策略,为用户提供进一步降成本能力,并针对自己的业务特点来选择使用:

  (1)智能控温分层存储:存储介质按照性能、成本分层,通过智能控温调度数据在不同介质的分布量,将冷数据后台自动迁移到廉价介质(如NAS),降低存储整体成本,并实现容量扩展,不受单盘空间限制。

  (2)范围扫描的批量裁剪:对于历史版本Merkle树和状态对象,基于版本有序性与内置Merkle树,让用户可以指定目标区块号范围裁剪,通过Page边界扫描,批量索引与数据裁剪、垃圾回收实现存储空间释放,进一步降低状态数据成本。

  针对问题5,LETUS采用分布式存储架构,实现单个共识参与方计算和存储分离,计算层和存储层可分别部署独立集群,通过高性能网络通讯框架进行数据读写访问。

  为了对海量状态数据进行灵活的数据分片,并且保证各个区块链的参与方hash计算的一致性,将数据切片为256个最小存储单元(msu),并将一个或者多个msu构成一个状态数据分片(partition),将所有数据分片调度到多个物理机器。从而实现规模弹性扩展,解决了单机存储的容量瓶颈和带宽瓶颈。

  为了全面落地铺开的同时让业务平稳运行,能够开着飞机换引擎,在这几年的研发过程里,我们充分准备、循序渐进的分阶段落地:

  2021年5月,基于LETUS存储引擎的区块数据冷热分层,在版权存证业务灰度上线%,解决容量瓶颈并降低运维成本。

搜索