以太坊2.0升级终于要“动真格” 首个分片执行模拟演示来了
研究以太坊2.0第1阶段和第2阶段的研究人员表示,他们将在即将到来的 Devcon 以太坊开发者大会上演示如何实施以太坊 2.0的分片执行环节。ConsenSys Quilt团队程序员 Will Villanueva 正在研究以太坊 2.0的后期阶段,他表示:“我们可以将以太坊 2.0 第 2 阶段 Wasm 执行引擎插入到我们在灯塔(Lighthouse)中构建的分片链/客户端中,现在我们有了一个简单的模拟以太坊 2.0阶段 1/2,而且还有一个在早期阶段运行的执行环境。我们会在 Devcon 开发者大会上展示这个执行环节,现在仍有许多清理工作要做,但很快就会有不错的进展!”
据悉,会有部分参与以太坊2.0第2阶段的工作人员参加本次 Devcon 大会,其中包括 ConsenSys 的 Quilt 团队和以太坊基金会 Ewasm 团队。ConsenSys 表示,本次大会将是一个很好的机会,可以让彼此的工作能够有效同步(此处没有双关语)。

0阶段到2阶段,大部分升级工作可以并行完成
Ewasm 将会对以太坊虚拟机(EVM)进行重大升级,以太坊虚拟机在终端用户执行智能合约等诸多方面发挥了重要作用。一旦 Ewasm 推出,那么长达两年的升级工作将会在“分片”全部内容升级完成之后结束。
而在此之前,以太坊 2.0 仍然需要分成几个阶段来实施。全新的权益证明(PoS)信标链(也许只是被简单成为基础层或基础),现在可能会在数周时间内推出支持多个客户端的测试网。然后,第 1 阶段将会进行简单分配,并会与 2020 年末的 eth1 工作量证明(PoW)链相关联。
第二阶段的 Ewasm 将会是最终的结局,届时所有完成的升级工作都会上线,以供所有人查看和使用,其中不仅有全部强大的功能,网络容量也会变得更大。不过就目前而言,人们的注意力基本上集中在了第 0 阶段(信标链)上,但其实信标链的工作已经完成了,只是需要经过进一步细化和大量测试之后才能启动。
就在第一阶段首个独立客户端测试网推出之后,从五月份开始,一些人就已经开始专注于其他阶段工作了。Will Villanueva 当时表示:
“与业内的普遍看法相反,以太坊 2.0 升级的第 0 阶段到第 2 阶段其实并不需要按顺序进行,每个阶段中的大部分工作都可以并行处理完成。”
这大概就是 Will Villanueva 最近几个月一直在做的事情,而他们在第 1 阶段和第 2 阶段的工作也会在最近几天内展示出来——但这仍然是非常早期的阶段,据了解,目前完成的工作是一个独立分片,该分片是完整的,并且会在灯塔(Lighthouse)上运行,灯塔是一个以太坊 2.0 客户端,类似于 eth1 的 Geth 客户端。这个分片最终会被克隆到 1024 个分片中,然后通过信标和跨分片交易协调和连接这些分片。
这个系统在一定程度上是有些复杂的,但是如果你对这些分片感兴趣,我们预计他们直接互连和对话的方式是通过运行分片 A 和 B(或者是 C 和 D,都无所谓了)的“节点”来实现的。
这其实是 ConsenSys 在今年五月份提出的一种互操作解决方案:首先,运行此选择性节点;然后,创建一个可以在 Raspberry Pi 上运行的去信任、去中心化、安全、免受信的系统。
“V 神”:真正棘手的问题是如何实施
然而,关于分片的确切设计还有待观察,因为后续依然可能出现很多变化。所以,如果现在站在较高层次上对分片概念进行概念化似乎还为时尚早,但是根据以太坊联合创始人“V神” Vitalik Buterin 表示,现阶段其实已经没有基本的研究性问题需要解决了,真正棘手的问题是如何实施。
预计全面实施分片执行的时间是 2021 年初,但在此之前,也可能会在 2020 年 1 月信标链上线时就执行。如果按照这个节奏,预计明年夏季存储分片就会消失,然后在明年秋季从工作量证明过渡到权益证明。
因此,现在以太坊开发人员在技术层面上有很多工作要做,而在社会层面的工作似乎更多,比如在存款合约推出时,300 万 ETH 必须要在 Devcon 大会开始时被转移到信标链上。之后,人们才能逐渐从工作量证明链转向权益证明链,包括智能合约和 dApp 项目。
对于以太坊来说,他们并没有时间压力,这意味着开发人员不必迅速采取行动,工作量证明链会继续运行一段时间。不过也许在存储分片推出之后,开发人员也许会有一些社会动力快速推进工作,之后全分片就能启动了。
不管是从项目角度来看,还是从技术角度来看,甚至从更长远的角度来讲,以太坊领域里的从业者们都认为在权益证明链上运行会更酷。
当然,到目前为止我们假设的一切都很美好,而且社区普遍也认为以太坊升级会很顺利。但问题是,如果一些问题连最牛的以太坊开发团队都无法解决,我们真的很难知道还有谁能做到。现在,以太坊升级工作已经耗费了大量资源,现在也终于要到“动真格”的时候了。
如果大家对于区块链数字货币交易平台比价感兴趣,希望找到靠谱正规的区块链数字货币交易平台的话,那么可以更深入的咨询我们的官方客服,同时可以免费申请加入我们的官方社群,群里都币圈区块链经验丰富的职业玩家以及行业大咖,可以帮助大家解疑答惑,共同进步,币圈掘金。
如何让预言机报价更加精准,为做市商和用户最小化风险?
预言机一般被认为是去中心化协议和区块链外部数据之间的桥梁,而预言机在Defi领域主要承担的是报价功能。那么,目前的Defi预言机真的能实现精准报价嘛?此次,分布式课堂第二期请来了NEST社区COFI研究员James,给网友们讲述可计算金融技术:到底什么样的公式能让预言机报价更加精准,为做市商和用户最小化风险?
James, 坚定的区块链信仰者,专注去中心化原生资产及计算金融的研究,以区块链世界观看待外部世界,坚信未来人类社会财富将逐渐转移到去中心化资产上来。

中心化资产跟我们现实世界的资产有什么区别呢?区别是形成的去中心化资产是现实世界的大类资产复制不了的。你不可能用已有的大类资产复制出去中心化资产的风险收益结构。
那么从金融学的角度来讲,金融学要干的是什么?总的来说,就是应对人类的各种不确定性。每一个不确定性对应的一种风险收益结构。每当你发现了一种新的风险收益结构,并且把所对应的资产或者是产品做出来,一定会消除全人类在资产配置上面的风险。
最简单易懂的就是在波动率风险。比如马科维茨资产组合理论,如果把两种相互不关联的资产放在一起,在不改变收益结构情况下,就可以降低他们的波动率,达到改善投资风险的目的。去中心化资产的目标就是消除全人类的不确定性。
可信性和可用性
这里面有两个变量,一个叫可信性,一个叫可用性。可用性是消除普通人的不确定性。可信性是消除人类的不确定性。BTC没有在可用性上花钱,而是每年花两百亿的电费在解决可信性问题。那么,可用性谁来解决呢?可能是比特币持有者来解决的,他们向普通人宣传比特币是怎么回事,让这些不懂比特币的人懂比特币。中本聪创造出比特币的目的就是提出全新的风险收益结构,来消除整个人类的不确定性。
在整个去中心化的市场里,只要引入了一个中心化机构,你的风险收益结构某种程度上是跟股权差不多了。这相当于复制一个“比特币+股权”,并没有创造出全新的东西来。这就是我为什么要将项目做到如此去中心化的原因。这里我们也要提到最近特别火的Defi。
Defi目前的问题:第一,项目的风险是不可量化和不可计算的;第二,Defi很难在链上沉淀出去中心化资产。如果不能在链上沉淀出去中心化资产,这个Defi项目最终可能就是一张计算合约。计算合约指的是,你不管怎么计算,信息量也不会增加。计算的意义只是让杂乱的信息编码成为通俗易懂的东西。这过程中,它并没有消除人类的不确定性,当然它可能消除了某些特定人群的不确定性。
如果说Defi项目无法沉淀出去中心化资产,指的是网友们竞争到极致的时候,都收不到费。比特币实现了一种transfer函数的可信,实现了转账的功能。以太坊把这个transfer函数进行拓展,变成了逻辑函数。目前这个逻辑函数一个特点是,所有的计算是在多项式时间和资源之内完成。因为它要消耗资源,所以必须要在给定时间内终止。
资产定价
类似于我们现实世界里面的很多问题,资产定价也是很难的问题。比如说:红绿灯怎么设计?最优交通网络问题?最优社交网络的问题?最优商业网络问题?这些涉及到网络的问题都是复杂问题。
资产定价就是一个最优价格的计算问题。这个问题不是P计算能解决的。以太坊不能够用智能合约就给资产定价。因此没有预言机,以太坊只能做这三件事:交易(Uniswap)、稳定币(USDT)以及ETH-wETH互相转换。这是p 函数的局限决定的。
考虑到资产定价这么复杂的计算很难在链上完成,那么就要形成一种新的机制,让它逼近这个结果。于是我们就构建了这样一种方案:假设没有外部市场的情况下,如何逼近这个价格;或者有外部市场的情况下,如何把这个链下价格传递上去。
如果链上有个NP问题的计算结果,对于整个生态系统而言,它增加了信息量,提供了全新的信息。重要之处在于它不断地拓展区块链的边界,只有边界得到拓展,才能真正成为实质性的进步。如果整个网络只是往横向进步,例如编程速度更快点,区块再大点,这都称不上是实质性进步。其实我们对区块链很多认知是需要调整的。
如果从消除人类的不确定来说,没有必要人人都要验证账本。我们只要开放,让人人都可以具备验证账本的权力就行了。类比到Layer1和Layer2,Layer 2是消除普通人的不确定性,而Layer1是创造出新的价值,开发者可以讨论如何提升区块大小、改善打包时间等。
那么,在这个背景之下,NEST要做什么?第一个是NEST要形成更多更新的去中心化风险收益结构。第二个是它要拓展区块链功能,使得原来区块链上不能完成的事情现在可以完成了,当然这一切必须保持去中心化。
在引用NEST的预言机时,就产生了一系列的副产品。第一个非常重要的副产品就是在引用价格时,让风险变得可计算。在信用风险被剥离后,整个计算结果是相对较为准确的。这里的信用风险主要指的是,在排除项目风险以后的主体风险。主体风险一般是很难通过计算得出。比如说,这个项目最终能够产生多少现金流,失败的概率是多少这些都可以计算分析,但问题是主体卷款潜逃了怎么办?其实这体现了系统的不完备性。
区块链将信用风险剥离掉以后(通过去中心化的方式),只剩下流动性风险和波动性风险。由于流动性是区块链所具备的天然有优势,所以这里暂且不去说它。波动率风险是可以计算的,它有很强的理论依据。实际上在70年代,萨缪尔森、布莱克、默顿、法玛等人就将相关的金融思想提出来:历史上的模型对这个风险研究得那么透彻,而这些风险都可以定价。难道不能自动化地管理这些风险嘛?
然后这些思想都被对冲基金学去了,并形成了很多全新的投资模型和风险管理模型。最典型的就是当时的长期资本管理公司。虽然他们建立了很精妙的模型,但最终输在了主体风险不可计算上面:俄罗斯违约了。
现在我们都谈论Alpha Go战胜围棋等等人工智能的话题。其实这个梦想在图灵时代就有了。尽管人工智能的发展断断续续,然而梦想却依然存在。尽管可计算的模型会受制于主体风险,但在去中心化的区块链领域却不用担心这种风险(至少逻辑上如此)。在没有信用主体风险且不考虑市场无效的情况下,让风险管理算法化真正变得可能,显然比长期资比本管理公司所面临的那个时代要好很多。
风险管理可计算是不是能在链上去完成?
其实,Defi简单的说就是交易、利率、正证券/负证券,就这三个结构非常粗糙地对金融做的一个划分。
一个学科最重要的东西有两个:一是基本概念。每一个基本概念的讨论可能就要花上百年。且每一个概念的形成都要经过千锤百炼。第二个是这个概念必须推动形成这个领域的理论制高点。如果这个理论等于常识,这个学科就没有意义了。
中本聪在设计区块链架构的时候,计算/存储/通信这些功能及相关技术都有。当时,数字货币要解决双花问题,即“钱用了一次,不能用第二次”。其实,零知识证明/同态加密这些方案都讨论过,却解决不了双花问题。去中心化不光是分布式,不是说我把活分配给你们,而是让你们自觉地上传些东西并自动组合起来。
现在来看,比特币这个结构有点低效:无论在计算、信息存储还是通信方面都做得非常冗余。冗余指的是多台计算机重复执行相同的计算,并重复存储相同的数据。冗余的架构会导致很难完成撮合交易(即资产定价非常困难),因为它很难靠函数或者投票来解决。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://www.longfuchaju.com//zmt/1292.html