DeFi “当红炸子鸡”,热度何时散? | 一周问答热议

2023-10-11 04:30

本文主要是介绍DeFi “当红炸子鸡”,热度何时散? | 一周问答热议,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

出品/陀螺财经

近期 DeFi 市场的持续火爆及用户对高收益产品的狂热追逐,引发了众多加密从业者的思考与讨论,激增的用户、资本及热度,究竟是 DeFi 市场的真实需求还是又一次投机套利的虚假繁荣?现在还没有一个定论。可以预见的是,DeFi的这轮热度,还没有彻底消散,至于还会有什么创新的玩法,让我们拭目以待。

以上就是上周陀螺问答的热点内容,更多详细内容请看下文。

EOS做着以太坊“杀手”梦出道的,但在2018年6月主网上线短暂的高光时刻之后,EOS价格一路下行。这次DeFi会是EOS的救命稻草吗?(陀螺用户@docn)

大咖答主:彩云比特

以太坊一直被模仿但从未被超越。

以太坊持续拥堵,FOMO过后DeFi将会如何发展?现在的DeFi还值得我们继续关注么?是否有点太让用户失望了。(陀螺用户@初见端倪)

大咖答主:桂缘堂

以太坊的开发团队应该加紧部署ETH 2.0的建设和应用场景的拓展,如果持续炒作必然会给DeFi造成不良影响。

目前情况下,借贷即挖矿的模式已经运行的很有成效,在后续的DeFi生态系统中,还是会继续更新维护,希望大家一定要思路清晰,正确看待问题,不要光看表面现象

DeFi生态系统中的确存在一些或多或少的ICO类似情况,但是DeFi的借贷挖矿模式的确具有新颖性,跟传统的ICO还是有本质的区别!

DeFi给以太坊带来了巨大压力,对以太坊来说,DeFi究竟是好是坏?(陀螺用户@迎风落泪)

大咖答主:阿布察察

我想应该不是什么坏事,有竞争才有突破,二者应该会彼此成就。

四大行正在深圳等地大规模测试数字钱包应用,内测大规模进行,央行数字货币将何时落地?(陀螺用户@吴创几十年)

大咖答主:zhuyp

不会很快,至少需要一年时间。

DeFi给以太坊带来了巨大压力,对以太坊来说,DeFi究竟是好是坏?(陀螺用户@迎风落泪)

大咖答主:阿布察察

我想应该不是什么坏事,有竞争才有突破,二者应该会彼此成就。

当下的代码技术是否能完美契合DeFi平台的运营诉求?依靠智能合约的去中心化方式是否意味着模式的成熟?(陀螺用户@叽叽喳喳)

大咖答主:北京链安

这显然要看DeFi模式本身的愿景和期待,你要说当下的DeFi规模,那现在技术也能给予支持,因为目前DeFi依然处于商业模式的探索而非技术效率的提升阶段,金融模式和安全是第一要位的探索方向。

但是,如果我们对DeFi的期许是成为一种与现代金融并肩的模式,比如来两家去中心化交易所与币安、火币等处于同一个档次,现在的技术显然还无法达到那样的诉求。以运行效率来看,基于以太坊的智能合约来构建的DeFi效率还无法满足真正实时性较高,并发数较大的大规模交易。

至于模式的成熟度,其实和技术选型关系不大,和商业模式和金融规则相关,这方面DeFi还处于百花齐放的探索期,但是模式还未到成熟阶段。比如最近频发的规则问题、安全漏洞常常是一些并不复杂的攻击手段。事实上在数字资产领域,倒是中心化交易模式愈加成熟,尽管也时有安全事件发生,但是攻击大型中心化交易所的门槛已经很高。

所以,DeFi模式真正成熟的标志还是它要么创造了全新的金融业务模式,而且积累了大量用户和庞大的交易额,或者它切入传统金融的模式中,并且能切下至少10%的份额。显然,今天的DeFi还远未达到这样的地位,相关金融模式和技术方案也还没有经历更复杂的市场环境考验,我们还需耐心等待,也期待DeFi的行业人士继续创新。

一分钟暴跌98的%YAM,是否给DeFi 造成负面影响(陀螺用户@_c95dpn)

大咖答主:桂缘堂

YAM对投资者已经发出了提醒,8月23日0:20之前所有的用户全部迁移至YAM v2,这对所有投资者来说是一项利好消息,所以对DeFi的影响没有太大。

感觉DeFi泡沫挺大的,假如这个泡沫一爆,真正能留下来的项目,在整个的DeFi的市场上可能也只有10%左右?(陀螺用户@的剧场版)

大咖答主:彩云比特

雪崩的时候没有一片雪花是清白的。


推荐阅读:

  • 陀螺精译 | 什么是弹性供应代币?

  • 陀螺产业区块链第三季 | 北京互联网法院“天平链”

  • 以太坊五岁了,它现在还好吗?

  • 以太坊网络正在被更多主流金融资产交易所采用

  • YAM光速爆雷,DeFi的车还能上吗?| 一周问答热议

这篇关于DeFi “当红炸子鸡”,热度何时散? | 一周问答热议的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/185516

相关文章

国内环境搭建私有知识问答库踩坑记录(ollama+deepseek+ragflow)

《国内环境搭建私有知识问答库踩坑记录(ollama+deepseek+ragflow)》本文给大家利用deepseek模型搭建私有知识问答库的详细步骤和遇到的问题及解决办法,感兴趣的朋友一起看看吧... 目录1. 第1步大家在安装完ollama后,需要到系统环境变量中添加两个变量2. 第3步 “在cmd中

5分钟获取deepseek api并搭建简易问答应用

《5分钟获取deepseekapi并搭建简易问答应用》本文主要介绍了5分钟获取deepseekapi并搭建简易问答应用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需... 目录1、获取api2、获取base_url和chat_model3、配置模型参数方法一:终端中临时将加

jmeter压力测试,通过LLM利用RAG实现知识库问答,NEO4J部署,GraphRAG以知识图谱在查询时增强提示实现更准确的知识库问答(9/7)

前言         这周也是杂七杂八的一天(高情商:我是一块砖,哪里需要往哪里搬),首先是接触了jemter这个压力测试工具,然后帮公司的AIGC项目编写使用手册和问答手册的第一版,并通过这个平台的智能体实现知识库问答的功能展示,以及部分个人扩展和思考(NEO4J创建知识图谱的GraphRAG)。 Jmeter         Jmeter是一个压力测试工具,一开始导师叫我熟悉的时候我还说

Makefile问答之02 预处理器与宏

GCC Makefile中,怎样设定预处理器名称 在 GCC 的 Makefile 中,预处理器(preprocessor)的名称通常是 cpp(C PreProcessor),但在实际的 Makefile 中,我们一般是通过 gcc 命令来调用预处理器,而不是直接调用 cpp。不过,你可以通过设置 CPP 变量来显式指定预处理器名称和选项。以下是如何在 Makefile 中进行设置和使用的

一键部署Phi 3.5 mini+vision!多模态阅读基准数据集MRR-Benchmark上线,含550个问答对

小模型又又又卷起来了!微软开源三连发!一口气发布了 Phi 3.5 针对不同任务的 3 个模型,并在多个基准上超越了其他同类模型。 其中 Phi-3.5-mini-instruct 专为内存或算力受限的设备推出,小参数也能展现出强大的推理能力,代码生成、多语言理解等任务信手拈来。而 Phi-3.5-vision-instruct 则是多模态领域的翘楚,能同时处理文本和视觉信息,图像理解、视频摘要

【#第三期实战营闯关作业 ## 茴香豆:企业级知识库问答工具】

今天学习了《 茴香豆:企业级知识库问答工具》这一课,对大模型的应用有了更深得认识。以下是记录本课实操过程及截图: 搭建茴香豆虚拟环境: 输入以下命令 ``studio-conda -o internlm-base -t huixiangdou 成功安装虚拟环境截图 安装茴香豆 cd /root 克隆代码仓库 git clone https://github.com/internlm/h

体验通义灵码 @workspace:轻松分析项目结构,结合代码仓库理解工程、查询问答等

国际市场研究机构 Gartner 发布业界首个 AI 代码助手魔力象限,阿里云进入挑战者象限。通义灵码在产品功能和市场应用等方面表现位列国际前列,在国内同类产品中排名第一。在关键能力评分中,通义灵码在代码生成、代码解释、代码调试等多项能力领先,其中代码解释能力位列全球第二。 这也是国产 AI 编码工具目前取得的最高成绩! 近期,通义灵码上线新能力:@workspace,基于本地代码库的 RAG

引爆关注!LLM大模型开源项目突破34.4千星,热度飙升!

其实这个Repo在外网知名度很高,但咱这似乎没看到咋推 随着近两年大型语言模型的发展,LLM在生活中发挥着愈发重要的作用,通过改变我们与技术互动的方式,为医疗、金融和教育等各领域带来变革性的变化,之前AI周刊中也说了现在国内有关该岗位的需求暴增 像Google、Deeplearning.AI等均出了有关该方向的教程,而GitHub上由Maxime Labonne主导的LLMs教程目前已经收

AI问答-协议-上传协议:FTP、FTPS、SFTP

一、FTP协议(File Transfer Protocol) 定义:FTP是最古老和最常见的文件传输协议之一,支持用户通过命令和响应方式进行文件传输。支持文件从一台计算机传输到另一台计算机,包括文件的上传和下载。 特点:FTP协议使用TCP协议进行传输,提供了一系列命令,如PUT、GET、DELETE等,其中PUT命令用于向服务器上传文件。默认使用TCP的20端口用于数据连接,21端口用于控

GMeLLo:结合知识图谱的 LLM 多跳问答技术,效果显著提升

1. GMeLLo 提出的背景 1.1 多跳问答 多跳问答的难度往往比较大,因为不仅要追溯事实,还要聚合与串联事实。 事实的来源可以是知识图谱、表格、自由格式文本,或者是这些来源的异构组合。 随着大型语言模型的发展,基于提示的方法搭配可选的检索模块已成为处理多跳问答的常用手段,但以往多数工作侧重于静态信息库。 1.2 知识编辑 知识编辑目前有两种主流方案:修改模型参数和保留模型参数。