新的网络数据显示,以太坊网络数据块可能正在给以太坊链带来压力,使其难以处理最近 福坂 升级后激增的 Layer 2 活动。
概括
Fusaka升级对以太坊数据吞吐量的影响
这Fusaka12 月份激活的硬分叉被认为是朝着更便宜、更具可扩展性的 Layer 2 活动迈出的重要一步。以太坊它通过允许汇总提交更多临时数据(称为临时数据)来扩展网络的数据容量。斑点他们使用这种方式将批量交易信息发布到主链。
然而,来自新分析MigaLabs这表明,即使提高了带宽限制,以太坊网络在数据密集型情况下仍然举步维艰。这些发现引发了人们的疑问:以太坊是否能够承受来自 Rollup 的显著更高的吞吐量,尤其是在 2025 年及以后需求加速增长的情况下。
数据量大的块显示出较高的丢失率。
这项题为“区块数量较高的以太坊区块面临更高的未命中率”的研究,利用自以太坊发布以来收集的数据,检验了验证器的性能。2025年10月它比较了Fusaka事件前后以及随后两次事件的网络行为。仅包含参数的 Blob (BPO)更新进一步提高了 blob 限制。
MigaLabs 之前曾与……合作丽都岛以及剑桥另类金融中心结论认为,以太坊尚未有效利用其扩展后的容量。尽管目标 blob 数量有所增加,最近一次提升至14自第一次 BPO 更新以来,每个槽位的 blob 数量中位数实际上有所下降。
此外,极高的斑点计数仍然不常见。携带16 个或更多斑点在超过750,000观察到的时隙。也就是说,当出现高数据负载时,往往伴随着整个网络中丢包率的急剧上升。
超过 15 个斑点后,未命中率急剧上升
MigaLabs 的研究发现,槽位数量不超过 的基准未命中率15 个斑点大约0.5%然而,一旦数据块包含 16 个或更多数据点,丢失率就会上升到一个介于0.77%最高可达1.79%远高于正常网络状况。
在观测到的最高水平21个斑点据报道,在单个时隙中,丢包率是网络平均丢包率的三倍以上。数据密集块主要由大型二层网络生成,例如:仲裁和根据这些都依赖于以太坊的数据可用性。安全保障.
此外,分析指出,如果第二层需求如果这种高位网络拥塞现象持续存在并成为常态,那么更高的网络故障率可能会进一步加剧。这种动态变化可能会威胁到整个网络的稳定性,尤其是在市场承压或交易量激增时期。
MigaLabs呼吁对进一步增加blob容量保持谨慎。
根据该报告,即使极端值的样本量仍然有限,但随着 blob 数量的增加,槽位丢失率上升的模式在所有观测数据点中都保持一致。因此,MigaLabs 认为,当前的斑点丢失率应该将其视为警告信号,而不是异常情况。
该公司最后建议暂停任何进一步行动。液滴容量增加直到高流量情况下的验证失败率回落到基线水平。此外,报告还指出,在开发者考虑再次提高验证器基础设施之前,实际需求应该先接近现有限制,以避免不必要的压力。
该报告还重点介绍了如何以太坊块作为 Rollup 的核心资源,稳定的数据可用性对于更广泛的扩展路线图至关重要。如果高吞吐量的 Rollup 持续推动数据量向 blob 范围的高端发展,而可靠性却没有相应提升,那么以太坊作为安全数据层的角色可能会受到质疑。
更广泛的路线图和安全优先事项
随着以太坊社区推进其更广泛的扩容路线图,围绕 Blob 的性能问题也随之而来。最近一篇题为“明日:Fusaka”的文章将此次升级描述为以太坊网络今年的第二次重大变革,并重点介绍了其一项功能。PeerDAS这项技术有望解锁高达8倍汇总数据吞吐量。
对于 Rollup 团队而言,这意味着更低的 Blob 费用和更大的链上活动增长空间。然而,MigaLabs 的研究结果表明,如果验证器性能在高负载下下降,那么仅仅提高原始容量是不够的。
与此同时,以太坊基金会正在加紧开展长期安全方面的工作。据报道,该公司已将后量子韧性作为一项核心战略重点,并成立了一个专门的部门。后量子团队和承诺200万美元为这项工作做出贡献。这项倡议由研究人员宣布。贾斯汀·德雷克,将由……领导托马斯·科拉特格旁边埃米尔,一位贡献者精益虚拟机.
总而言之,最新的富坂升级的影响再加上对……日益增长的关注加密货币图形鲁棒性表明以太坊正在努力寻求微妙的平衡。它必须扩展 Rollup 的数据吞吐量,同时确保可靠性、验证器性能和长期安全性始终是重中之重。
总而言之,MigaLabs 的分析强调,以太坊要实现更高的吞吐量,不仅在于提高限制,还在于在压力下保持稳定的运行,因为现实世界的使用正逐渐将该协议推向其当前的 blob 上限。
835
收藏


















