全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
香港论坛
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
TAO 屡破新高即将上线币安暴涨40% 会是下一个百倍币吗 是否值得上车
go
lg
...
r的独特之处在于其创新性的共识机制,将
深度
学习
与区块链共识算法相结合。 该项目的核心是去中心化,类似于全球范围内没有中央权威的智力激荡会议。通过在区块链网络上建立基础设施,Bittensor能够实现机器学习模型在远程和不同社区之间的共享和训练,从而促进思想交流并加速创新的产生。 Bittensor (TAO)未来如何? 2023年11月14日,Casper Labs,企业区块链软件领导者,发布了最新报告《区块链遇见人工智能: 探索整合的挑战与机遇》。该报告基于对美国、欧洲和中国608名IT决策者的调查,深入研究了企业当前如何运用人工智能和区块链技术,以及他们在采用过程中面临的主要挑战,同时也探讨了区块链如何成为成功应用人工智能的关键护栏。 报告强调了区块链与人工智能之间的共生关系,显示71%的企业认为这两种技术是完全互补的。这种程度的认可和兴奋预示着人工智能和区块链持续融合的光明未来,而像Bittensor这样的项目正处于这一交叉点的最前沿。 在OpenAI人工智能开发者日之后,加密货币市场最近出现了一波反弹,为Bittensor的故事增添了更多有趣的内容。OpenAI推出的新人工智能功能,包括升级的GPT-4和GPT-3.5自然语言模型,给人们暗示了对人工智能代币的潜在影响。这可以解释人们对基于人工智能的加密货币越来越感兴趣的原因。 加密货币爱好者对TAO的潜力表示乐观。据Eric Cryptoman称,TAO 跻身十大加密货币之列似乎是可能的。 来源:金色财经
lg
...
金色财经
2024-04-12
Smart Chain 引领我们通往未来数字世界
go
lg
...
理、机器学习、数据分析和挖掘以及最新的
深度
学习
技术,其中
深度
学习
模块从数据、算法和模型方面提供多种性能优化方案,提供精细粒度的调度与部署,精确支持到单台节点的特定TPU、GPU、CPU、内存等AI计算资源的独享与共享,让开发者专注自身的专业领域高效开发。 未来 随着科技的不断进步,计算能力的不断提升,Smart Chain分布式超算公链打造成一个人人可以参与共建、利益共享的开放体系,共同打造人工智能+Web3+5G时代的基础设施,从而推动人类科技的发展。欢迎大家与Smart Chain一同启程,去探索数据算力新世界! 来源:金色财经
lg
...
金色财经
2024-04-12
新币Bittensor(TAO)上线币安 暴涨40% 值得上车吗?
go
lg
...
的神奇之处在于其巧妙的共识机制,它是
深度
学习
和区块链共识演算法的结合。 Bittensor 的基石是其去中心化的核心价值。这就像一场没有中央权威的全球脑力激荡会议。透过在区块链网络上建立基础设施,Bittensor能够实现远距离和不同社区的机器学习模型共享和训练,从而促进思想交流并快速促进创新。 Bittensor (TAO)未来如何? 2023年11月14日,企业区块链软件领导者Casper Labs发布了一份新报告,《区块链遇见人工智能:探索整合的挑战和机会》。该报告基于对美国、欧洲和中国608 名IT决策者的调查,探讨了企业目前如何使用人工智能和区块链、他们继续面临的主要采用障碍以及区块链如何成为成功人工智能的关键护栏实施。 该报告强调了区块链和人工智能之间的共生关系,显示71%的企业认为这些技术是完全互补的。这种程度的舒适和兴奋预示着人工智能和区块链继续融合的充满希望的未来,像Bittensor 这样的项目处于这个交叉点的最前沿。 继11 月6 日OpenAI人工智能开发者日之后,加密货币市场最近出现反弹,为Bittensor的故事增添了一层有趣的内容。OpenAI 推出的新人工智能功能,包括升级的GPT-4和GPT-3.5自然语言模型,暗示了对人工智能代币的潜在影响。这可以解释人们对基于人工智能的加密货币越来越感兴趣的原因。 加密货币爱好者对TAO的潜力表示乐观。根据Eric Cryptoman的说法,TAO 跻身十大加密货币之列似乎是可能的。 最后的最后,还有很多其实都没写进来,比如具体的机会,具体的决策,这些东西往往不是一篇文章能概括的。 如果您想了解更多币圈的相关知识和一手的前沿资讯,欢迎咨询我,我们有最专业的币圈社区,每日发布行情分析,优质潜力币种推荐。 来源:金色财经
lg
...
金色财经
2024-04-12
Smart Chain 引领我们通往未来数字世界
go
lg
...
理、机器学习、数据分析和挖掘以及最新的
深度
学习
技术,其中
深度
学习
模块从数据、算法和模型方面提供多种性能优化方案,提供精细粒度的调度与部署,精确支持到单台节点的特定TPU、GPU、CPU、内存等AI计算资源的独享与共享,让开发者专注自身的专业领域高效开发。 未来 随着科技的不断进步,计算能力的不断提升,Smart Chain分布式超算公链打造成一个人人可以参与共建、利益共享的开放体系,共同打造人工智能+Web3+5G时代的基础设施,从而推动人类科技的发展。欢迎大家与Smart Chain一同启程,去探索数据算力新世界! 来源:金色财经
lg
...
金色财经
2024-04-11
Web3与人工智能的探索:Laika AI进展与愿景概览
go
lg
...
,AI工程师,拥有机器学习、神经网络和
深度
学习
等AI资格认证,多项技术在Linkedin上受到同行认可。 CMO Tarun Chandra 市场管理人员、营销KOL、私募轮投资者,商业发展、分析等技能受到认可,对技术充满热情。 技术主管 Satyajeet Singh Chandrakar 五年多信息技术、人工智能从业经验,主要工作经历是机器学习工程师。 ❚合作 根据官网信息,Laika AI的数据模型得到了Google和Covalent的支持。项目获得了对AWS后端服务、API和数据中心功能的独家访问权。 此外,Laika AI官网上的合作机构还包括Avalanche和Polygon。 ➤总结 Laika AI产品定位创新一般,但是团队具有年轻化、偏技术化的特点,并且技术人员集中在AI开发,专业性较强、但影响力一般。相比同类的AI分析产品,Laika AI在AI算法和数据分析方面可能具有一定优势。 来源:金色财经
lg
...
金色财经
2024-04-10
智能算力需求驱动,电信“产业焕新”可期
go
lg
...
大致可以分为三个阶段:2012年以前,
深度
学习
尚未得到广泛应用,算力需求的增长遵循摩尔定律,大致每24个月翻一倍;2012年开始,
深度
学习
模型开始成为主流算法,随着神经网络的层数和参数量的提升,算力需求迅速增长,大致每3.4个月翻一倍;而目前人工智能进入大模型时代,巨量参数模型进一步刺激了算力需求的增长,算力消耗翻倍时间缩短至2个月。 为响应智能算力需求的迸发,算力网络建设重要性日益凸显。海外算力网络的发展,以公有云公司为主导,AWS、微软、谷歌等云计算产业巨头长期稳居全球云计算市场第一梯队。基于信息安全与自主可控的需要,国内云计算行业无法完全复制海外公有云的发展模式。算力网络的建立需要“算网”与“云网”融合发展,为云计算发展打开新模式。 图:国内算力网络发展策略 数据来源:东兴证券 国内通信运营商采取以网强云的策略,增强在云计算市场竞争力。国内通信运营商加力推进网络、IDC等基础设施建设,为云业务突破形成有力支撑。随着政企云、国资云的提出,运营商在云市场份额快速提升。目前国内电信运营商兼备网与云基础设施。因此,通信运营商的优势在于算力资源与网络资源属于同一个体系,其编排算网有助于取得算网联合最优解,云网融合效率更高。 图:中国IDC业务市场规模增速维持高位 数据来源:Wind,易方达 作为央企中的科技标杆,三大运营商在智算中心建设方面积极行动并提出远期目标,算力层面投资将逐步加码,有望驱动电信行业的第二成长曲线。如中国移动正规划建设亚洲最大的智算中心,计划2024年投产,截至1H23移动智算规模5.8EFLOPS,力争2025年算力规模超20EFLOPS。根据IDC测算,22年我国智能算力规模达260EFLOPS,IDC预计27年我国智算有望突破1117EFLOPS,年复合增长率达33.9%。 表:三大运营商算力网络建设概况 数据来源:北京通信信息协会官网,天风证券,截至2022年 智算基础底座搭建指引着运营商的发展方向,这从电信运营商的资本开支中也可见一斑。三大电信运营商对产业互联网和算力网络的相关投资正逐步加大。2023年中国移动预计资本开支将实现1832亿元,其中算力网络资本开支452亿元,同比增长近35%,新增投产云服务器超过24万台、新增投产对外可用IDC机架超4万架。 图:2022-2023年三大运营商算力等相关业务资本开支 数据来源:中国移动/中国联通/中国电信公司年报,东兴证券 着眼于AI赋能下我国电信产业的巨大增长潜力,电信ETF(ETF代码:563010,联接基金A/C:019141/019142),是投资者可以着重考虑的投资工具。电信ETF是跟踪中证电信主题指数的稀缺标的。指数成分股中三大运营商占比超过50%,对于电信行业表征性更好,辅之以光模块、交换机等智能算力基础设施建设细分领域龙头企业,有望在AI新技术迅猛发展带动下充分受益。 表:中证电信主题指数前十大权重股 数据来源:Wind,截至2024/2/23 电信ETF(ETF代码:563010,联接基金A/C:019141/019142),一键打包三大运营商及算力基础底座建设龙头企业,在AI赋能下成长弹性值得期待! 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
2024-04-10
Biton AI系统助力智能化交易 引领加密资产交易行业革新
go
lg
...
币交易市场带来了一场革命性的变革。通过
深度
学习
和大数据分析,加密货币交易成功率大大提高,这使得AI智能交易成为了全球投资者追求的更高效、更精准交易方式交易工具。 AI在加密货币交易中的革命性应用 交易市场风云变化,政策面、消息面和链上数据等各种信息让加密货币交易变得错综复杂,传统的交易方式往往需要投资者手动收集和分析市场数据,不仅耗时耗力,而且容易受到人为因素的干扰。而AI技术依靠强大的数据处理能力,可以非常直观和高效地为加密货币交易提供精准的市场分析。AI系统会实时收集、处理和分析全球范围内的加密货币交易数据,包括价格、成交量、市场情绪等多元信息。通过
深度
学习
和模式识别技术,AI系统能够精准捕捉市场动向,识别出潜在的交易机会和风险点,为投资者提供及时、准确的交易信号。同时,AI技术还能够实现交易的自动化执行。传统的交易方式往往需要投资者手动下单、平仓等操作,不仅效率低下,而且容易受到情绪化决策的影响。而AI系统则能够根据预设的交易策略和条件,自动判断和执行交易操作,无需人工干预。这不仅大大提高了交易的及时性和准确性,还减少了人为因素的干扰,降低了交易风险。此外,AI技术还能够帮助投资者进行风险管理。加密货币市场的波动性较大,投资者往往面临着较高的风险。而AI系统内置了先进的风险管理机制,能够实时监控市场动态,及时发现潜在的风险点,并采取相应的措施进行应对。同时,AI系统还能够根据投资者的风险偏好和止损止盈设置,自动调整交易策略,帮助投资者有效控制风险,确保资金安全。 Biton 智能交易引擎的核心优势 Biton交易所正是看中了AI技术的巨大潜力,将其深度融入交易引擎中,为用户带来了前所未有的交易体验。Biton的智能交易引擎通过其强大的数据分析能力、个性化的交易策略、全面的风险管理机制和高效的自动化执行等优势,为投资者提供了一个全面、智能、高效的交易解决方案。无论是新手还是资深投资者,都可以借助Biton的智能交易引擎轻松应对市场的变化和挑战,实现更加稳健和可持续的交易收益。 为了更好的应对不同用户的交易需求,Biton的智能交易引擎提供高度个性化的交易策略。为每个交易目标和风险承受能力不同的用户提供针对性更强的实时策略。无论是追求高收益的激进型投资者,还是注重稳健的保守型投资者,都能找到适合自己的交易方案。 由于AI交易引擎自动化的特点,AI交易系统的安全性要求更高,Biton的智能交易引擎具备全面的风险管理机制。引擎内置了先进的风险管理机制,能够实时监控市场动态,及时发现潜在的风险点,并采取相应的措施进行应对。同时,引擎还提供了多种止损和止盈设置,帮助用户有效控制风险,确保资金安全。 智能化交易的无限可能 随着技术的不断进步和市场的日益成熟,智能化交易将成为未来加密货币交易的主流趋势。Biton交易所将继续加大在AI技术领域的投入,不断优化和完善其智能交易引擎,为用户提供更加智能化、高效化的交易服务。同时Biton积极探索与其他金融机构和技术公司的合作,共同推动加密货币市场的健康发展。 来源:金色财经
lg
...
金色财经
2024-04-09
AI爆发,芯片强受益获持续关注
go
lg
...
,算法模型的复杂度呈指数级增长,特别是
深度
学习
成为主流,需要更快的计算速度。虽然CPU可以执行AI算法,但由于内部逻辑多,对于AI算法来说效率不高。因此,出现了专门的AI芯片,它们设计用于高效并行计算,加速AI计算过程,并提高性价比。 广义而言,AI 芯片指的是专门用于处理人工智能应用中大量计算任务的模块,除了以 GPU、FPGA、ASIC 为代表的 AI 加速芯片,还有比较前沿性的研究,例如:类脑芯片、可重构通用 AI 芯片等。狭义的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片。 图:AI芯片技术架构 这里面,GPU是AI芯片主力军,因为它拥有卓越的高性能计算能力和通用性,适用于处理复杂算法和通用型人工智能平台。而随着人工智能技术、平台和终端的不断成熟,随着视觉、语音、
深度
学习
的算法在FPGA以及ASIC芯片上的不断优化,此两者也有望逐步占有更多的市场份额。 图:主要AI芯片的功能特性比较(资料来源:IDC) 图:中国AI芯片市场规模占比(数据来源IDC) 根据VMR数据,全球和中国的GPU市场规模预计将继续快速增长。2021年全球GPU市场规模达到334.7亿美元,预计到2030年将增至4773.7亿美元,年复合增长率达34.4%。2020年中国GPU市场规模为47.39亿美元,预计到2027年将增至345.57亿美元,年复合增长率为32.8%。这表明GPU在人工智能领域的需求将继续扩大,并将成为市场的重要推动力量。 寻找中国版英伟达,期待国产替代空间 对于AI在下一轮科技革命中的地位,各国已经形成共识,都在纷纷抢滩。从中美对比来说,竞争优势的争夺就主要涉及前面提到的算法、大数据资源和算力三方面。在算法设计方面,双方没有明显差距,主要依赖设计团队的智慧和灵感;在大数据资源方面,中国占据着绝对优势,双方在大数据分析技术上相近。然而,决定人工智能产品的关键要素还包括“算力",计算能力是计算机的核心能力,这也是中美两国长期竞争超级计算机领域的原因之一。国内大模型与国外的主要差距也体现在算力层面,没有算力基础,后面算法等发展都无法进行。 在AI芯片领域,国外的芯片巨头占据了大部分市场份额,有着明显的先发优势,比如英伟达、AMD、英特尔的营收几乎代表整个GPU行业收入。而国内的AI芯片产业起步较晚,与世界先进水平存在较大差距,国内AI芯片市场也较为分散,集中度较低,发展空间巨大。 图:AI芯片产业图谱 图:AI的核心驱动与英伟达的三重壁垒 资料来源:长江证券 不过,国内一批新兴力量正在崛起,竞争梯队越发丰富。从国内AI芯片厂商格局来看,以大算力或者高性能计算芯片为代表,一梯队,有成熟产品、批量出货的企业,主要包括寒武纪、华为海思、百度昆仑芯、燧原科技,这四家有2-3代更多的产品,技术能力、软件能力都有一定积累;二梯队,主要包括以AI芯片起家的壁仞科技、天数智心、摩尔线程、沐曦等。壁仞科技去年发布的产品规格很高,但主要还停留在纸面数据,实测数据、实际性能方面业界和第三方评测机构评价没有那么高,软件层面从使用角度来讲也还有很大的成长空间。其他几家也陆续有产品推出,但技术能力还停留在推理层面,不像一梯队企业有更成熟的产品经验;三梯队,如海光、景嘉微等。技术能力还有待市场的认可和验证。 图:国内AI厂商成立时间表(来源甲子光年) 从产品来说,目前国内已经批量生产的产品大多都是A100的上一代,如昆仑芯三代、思远590、燧思3.0等,不过,各公司正在研发更新一代产品,缩小国内外差距。天弘基金指出,向后看,基于国家政策的大力支持,以及自主可控的迫切需求,中国厂商有望迎来更大的国产升级机遇。而如果国内产品能够替代英伟达的算力产品,将会是非常大的机会。数据中心建设方面也需要服务器,会带动国内提供大型服务器的厂商,比如浪潮信息、中科曙光等,以及光模块、调节芯片和散热技术,需求都会受益于大模型浪潮。相信随着国内企业的持续投入和创新,以及政府的支持,中国在人工智能领域的发展势头仍然很强,有望逐步缩小与国外竞争对手的差距。 AI的一切才刚刚开始,其带来的潜在生产力提升和劳动力供应的增加等结果不可低估。而从当下的投资时点来看,2024年半导体芯片板块投资或许可以关注三条主逻辑:一是周期底部,景气复苏;二是人工智能推动超级创新周期,AI芯片迎来发展机遇;三是国产升级研发成果正在逐步落地,突破性产品发布。关注相关投资机会的投资者,可以通过芯片产业ETF(159310)进行布局,覆盖芯片领域高研发投入、高技术壁垒的50家优质成长型企业,把握芯片板块的持续增长机遇。4月8日开始,芯片ETF(159310)正在火热发售中,中信、中信建投、华泰、光大等渠道均可购买。 风险提示:观点仅供参考,不构成投资建议。文中所提及企业客观列示,不作为推介。市场有风险,投资需谨慎。指数基金存在跟踪误差。基金过往业绩不代表未来表现,购买前请仔细阅读《基金合同》和《招募说明书》。我国基金运作时间较短,不能反映证券市场发展的所有阶段。 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
2024-04-09
AI爆发,芯片崛起!
go
lg
...
,算法模型的复杂度呈指数级增长,特别是
深度
学习
成为主流,需要更快的计算速度。虽然CPU可以执行AI算法,但由于内部逻辑多,对于AI算法来说效率不高。因此,出现了专门的AI芯片,它们设计用于高效并行计算,加速AI计算过程,并提高性价比。 广义而言,AI 芯片指的是专门用于处理人工智能应用中大量计算任务的模块,除了以 GPU、FPGA、ASIC 为代表的 AI 加速芯片,还有比较前沿性的研究,例如:类脑芯片、可重构通用 AI 芯片等。狭义的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片。 图:AI芯片技术架构 这里面,GPU是AI芯片主力军,因为它拥有卓越的高性能计算能力和通用性,适用于处理复杂算法和通用型人工智能平台。而随着人工智能技术、平台和终端的不断成熟,随着视觉、语音、
深度
学习
的算法在FPGA以及ASIC芯片上的不断优化,此两者也有望逐步占有更多的市场份额。 图:主要AI芯片的功能特性比较(资料来源:IDC) 图:中国AI芯片市场规模占比(数据来源IDC) 根据VMR数据,全球和中国的GPU市场规模预计将继续快速增长。2021年全球GPU市场规模达到334.7亿美元,预计到2030年将增至4773.7亿美元,年复合增长率达34.4%。2020年中国GPU市场规模为47.39亿美元,预计到2027年将增至345.57亿美元,年复合增长率为32.8%。这表明GPU在人工智能领域的需求将继续扩大,并将成为市场的重要推动力量。 寻找中国版英伟达,期待国产替代空间 对于AI在下一轮科技革命中的地位,各国已经形成共识,都在纷纷抢滩。从中美对比来说,竞争优势的争夺就主要涉及前面提到的算法、大数据资源和算力三方面。在算法设计方面,双方没有明显差距,主要依赖设计团队的智慧和灵感;在大数据资源方面,中国占据着绝对优势,双方在大数据分析技术上相近。然而,决定人工智能产品的关键要素还包括“算力",计算能力是计算机的核心能力,这也是中美两国长期竞争超级计算机领域的原因之一。国内大模型与国外的主要差距也体现在算力层面,没有算力基础,后面算法等发展都无法进行。 在AI芯片领域,国外的芯片巨头占据了大部分市场份额,有着明显的先发优势,比如英伟达、AMD、英特尔的营收几乎代表整个GPU行业收入。而国内的AI芯片产业起步较晚,与世界先进水平存在较大差距,国内AI芯片市场也较为分散,集中度较低,发展空间巨大。 图:AI芯片产业图谱 图:AI的核心驱动与英伟达的三重壁垒 资料来源:长江证券 不过,国内一批新兴力量正在崛起,竞争梯队越发丰富。从国内AI芯片厂商格局来看,以大算力或者高性能计算芯片为代表,一梯队,有成熟产品、批量出货的企业,主要包括寒武纪、华为海思、百度昆仑芯、燧原科技,这四家有2-3代更多的产品,技术能力、软件能力都有一定积累;二梯队,主要包括以AI芯片起家的壁仞科技、天数智心、摩尔线程、沐曦等。壁仞科技去年发布的产品规格很高,但主要还停留在纸面数据,实测数据、实际性能方面业界和第三方评测机构评价没有那么高,软件层面从使用角度来讲也还有很大的成长空间。其他几家也陆续有产品推出,但技术能力还停留在推理层面,不像一梯队企业有更成熟的产品经验;三梯队,如海光、景嘉微等。技术能力还有待市场的认可和验证。 图:国内AI厂商成立时间表(来源甲子光年) 从产品来说,目前国内已经批量生产的产品大多都是A100的上一代,如昆仑芯三代、思远590、燧思3.0等,不过,各公司正在研发更新一代产品,缩小国内外差距。向后看,基于国家政策的大力支持,以及自主可控的迫切需求,中国厂商有望迎来更大的国产替代机遇。而如果国内产品能够替代英伟达的算力产品,将会是非常大的机会。数据中心建设方面也需要服务器,会带动国内提供大型服务器的厂商,比如浪潮信息、中科曙光等,以及光模块、调节芯片和散热技术,需求都会受益于大模型浪潮。相信随着国内企业的持续投入和创新,以及政府的支持,中国在人工智能领域的发展势头仍然很强,有望逐步缩小与国外竞争对手的差距。 AI的一切才刚刚开始,其带来的潜在生产力提升和劳动力供应的增加等结果不可低估。而从当下的投资时点来看,2024年半导体芯片板块投资或许可以关注三条主逻辑:一是周期底部,景气复苏;二是人工智能推动超级创新周期,AI芯片迎来发展机遇;三是国产替代研发成果正在逐步落地,突破性产品发布。关注相关投资机会的投资者,可以通过芯片产业ETF(159310)进行布局,覆盖芯片领域高研发投入、高技术壁垒的50家优质成长型企业,把握芯片板块的持续增长机遇。4月8日开始,芯片ETF(159310)正在火热发售中,中信、中信建投、华泰、光大等渠道均可购买。 风险提示:观点仅供参考,不构成投资建议。文中所提及企业客观列示,不作为推介。市场有风险,投资需谨慎。指数基金存在跟踪误差。基金过往业绩不代表未来表现,购买前请仔细阅读《基金合同》和《招募说明书》。我国基金运作时间较短,不能反映证券市场发展的所有阶段。
lg
...
证券之星
2024-04-09
AI\DePIN\Sol生态三重光环加身:浅析发币在即的IO.NET
go
lg
...
明显: 技术和工程难题 工作验证问题:
深度
学习
模型的计算,由于层级化的结构,每层的输出都作为后一层的输入,因此验证计算的有效性需要执行之前的所有工作,无法简单有效地进行验证。为了解决这个问题,分布式计算平台需要开发新的算法或使用近似验证技术,这些技术可以提供结果正确性的概率保证,而不是绝对的确定性。 并行化难题:分布式算力平台汇聚的是长尾的芯片供给,也就注定了单个设备所能提供的算力比较有限,单个芯片供给方几乎短时间独立完成AI模型的训练或推理任务,所以必须通过并行化的手段来拆解和分配任务,缩短总的完成时间。而并行化又必然面临任务如何分解(尤其是复杂的
深度
学习
任务)、数据依赖性、设备之间额外的通信成本等一系列问题。 隐私保护问题:如何保证采购方的数据以及模型不暴露给任务的接收方? 监管合规难题 分布式计算平台由于其供给和采购双边市场的无许可性,一方面可以作为卖点吸引到部分客户。另一方面则可能随着AI监管规范的完善,成为政府整顿的对象。此外,部分GPU的供应商也会担心自己出租的算力资源,是否被提供给了被制裁的商业或个人。 总的来说,分布式计算平台的消费者大多是专业的开发者,或是中小型的机构,与购买加密货币和NFT的加密投资者们不同,这类用户对于协议所能提供的服务的稳定性、持续性有更高的要求,价格未必是他们决策的主要动机。目前来看,分布式计算平台们要获得这类用户的认可,仍然有较长的路要走。 接下来,我们就一个本轮周期的新分布式算力项目IO.NET进行项目信息的梳理和分析,并基于目前市场上同赛道的AI项目和分布式计算项目,测算其上市后可能的估值水平。 2.分布式AI算力平台:IO.NET 2.1 项目定位 IO.NET是一个去中心化计算网络,其构建了一个围绕芯片的双边市场,供给端是分布在全球的芯片(GPU为主,也有CPU以及苹果的iGPU等)算力,需求端是希望完成AI模型训练或推理任务的人工智能工程师。 在IO.NET的官网上,它这样写道: Our Mission Putting together one million GPUs in a DePIN – decentralized physical infrastructure network. 其使命是把百万数量级的GPU整合到它的DePIN网络中。 与现有的云AI算力服务商相比,其对外强调的主要卖点在于: 弹性组合:AI工程师可以自由挑选、组合自己所需要的芯片来组成“集群”,来完成自己的计算任务 部署迅速:无需数周的审批和等待(目前AWS等中心化厂商的情况),在几十秒内就可以完成部署,开始任务 服务低价:服务的成本比主流厂商低90% 此外,IO.NET未来还计划上线AI模型商店等服务。 2.2 产品机制和业务数据 产品机制和部署体验 与亚马逊云、谷歌云、阿里云一样,IO.NET提供的计算服务叫IO Cloud。IO Cloud是一个分布式的、去中心化的芯片网络,能够执行基于Python的机器学习代码,运行AI和机器学习程序。 IO Cloud的基本业务模块叫做集群(Clusters),Clusters是一个可以自我协调完成计算任务的GPU群组,人工智能工程师可以根据自己的需求来自定义想要的集群。 IO.NET的产品界面的用户友好度很高,如果你要部署属于自己的芯片集群,来完成AI计算任务,在进入它的Clusters(集群)产品页面后,就可以开始按需配置你要的芯片集群。 页面信息:https://cloud.io.net/cloud/clusters/create-cluster,下同 首先你需要选择自己的任务场景,目前有三个类型可供选择: General(通用型):提供了一个比较通用的环境,适合早期不确定具体资源需求的项目阶段。 Train(训练型):专为机器学习模型的训练和微调而设计的集群。这个选项可以提供更多的GPU资源、更高的内存容量和/或更快的网络连接,以便于处理这些高强度的计算任务。 Inference(推理型):专为低延迟推理和重负载工作设计的集群。在机器学习的上下文中,推理指的是使用训练好的模型来进行预测或分析新数据,并提供反馈。因此,这个选项会专注于优化延迟和吞吐量,以便于支持实时或近实时的数据处理需求。 然后,你需要选择芯片集群的供应方,目前IO.NET与Render Network以及Filecoin的矿工网络达成了合作,因此用户可以选择IO.NET或另外两个网络的芯片来作为自己计算集群的供应方,相当于IO.NET扮演了一个聚合器的角色(但截至笔者撰文时,Filecon服务暂时下线中)。值得一提的是,根据页面显示,目前IO.NET在线可用GPU数量为20万+,而Render Network的可用GPU数量为3700+。 再接下来就进入了集群的芯片硬件选择环节,目前IO.NET列出可供选择的硬件类型仅有GPU,不包括CPU或是苹果的iGPU(M1、M2等),而GPU也主要以英伟达的产品为主。 在官方列出、且可用的GPU硬件选项中,根据笔者测试的当日数据,IO.NET网络总在线的可用数量的GPU数量为206001张。其中可用量最多的是GeForce RTX 4090(45250张),其次是GeForce RTX 3090 Ti(30779张)。 此外,在处理AI计算任务如机器学习、
深度
学习
、科学计算上更为高效的A100-SXM4-80GB芯片(市场价15000$+),在线数有7965张。 而英伟达从硬件设计开始就专为AI而生的H100 80GB HBM3显卡(市场价40000$+),其训练性能是A100的3.3倍,推理性能是A100的4.5倍,实际在线数量为86张。 在选定集群的硬件类型后,用户还需要选择集群的地区、通信速度、租用的GPU数量和时间等参数。 最后,IO.NET根据综合的选择,会为你提供一个账单,以笔者的集群配置为例: 通用(General)任务场景 16张A100-SXM4-80GB芯片 最高连接速度(Ultra High Speed) 地理位置美国 租用时间为1周 该总账单价格为3311.6$,单张卡的时租单价为1.232$ 而A100-SXM4-80GB在亚马逊云、谷歌云和微软Azure的单卡时租价格分别为5.12$、5.07$和3.67$(数据来源:https://cloud-gpus.com/,实际价格会根据合约细节条款产生变化)。 因此仅就价格来说,IO.NET的芯片算力确实比主流厂商便宜不少,且供给的组合与采购也非常有弹性,操作也很容易上手。 业务情况 供给端情况 截至今年4月4日,根据官方数据,IO.NET在供应端的GPU总供给为371027张,CPU供给为42321张。此外,Render Network作为其合作伙伴,还有9997张GPU和776张CPU接入了网络的供给。 数据来源:https://cloud.io.net/explorer/home,下同 笔者撰文时,IO.NET接入的GPU总量中的214387处于在线状态,在线率达到了57.8%。来自Render Network的GPU的在线率则为45.1%。 以上供应端的数据意味着什么? 为了进行对比,我们再引入另一个上线时间更久的老牌分布式计算项目Akash Network来进行对比。 Akash Network早在2020年就上线了主网,最初主要专注于CPU和存储的分布式服务。2023年6月,其推出了GPU服务的测试网,并于同年9月上线了GPU分布式算力的主网。 数据来源:https://stats.akash.network/provider-graph/graphics-gpu 根据Akash官方数据,其GPU网络推出以来,供应端尽管持续增长,但截至目前为止GPU总接入数量仅为365张。 从GPU的供应量来看,IO.NET要比Akash Network高出了好几个数量级,已经是分布式GPU算力赛道最大的供应网络。 需求端情况 不过从需求端来看,IO.NET依旧处于市场培育的早期阶段,目前实际使用IO.NET来执行计算任务的总量不多。大部分在线的GPU的任务负载量为0%,只有A100 PCIe 80GB K8S、RTX A6000 K8S、RTX A4000 K8S、H100 80GB HBM3四款芯片有在处理任务。且除了A100 PCIe 80GB K8S之外,其他三款芯片的负载量均不到20%。 而官方当日披露的网络压力值为0%,意味着大部分芯片供应都处于在线待机状态。 而在网络费用规模上,IO.NET已经产生了586029$的服务费用,近一日的费用为3200$。 数据来源:https://cloud.io.net/explorer/clusters 以上网络结算费用的规模,无论是总量还是日交易量,均与Akash处在同一个数量级,不过Akash的大部分网络收入来自于CPU的部分,Akash的CPU供应量有2万多张。 数据来源:https://stats.akash.network/ 此外,IO.NET还披露了网络处理的AI推理任务的业务数据,截至目前其已经处理和验证的推理任务数量超过23万个, 不过这部分业务量大部分都产生于IO.NET所赞助的项目BC8.AI。 数据来源:https://cloud.io.net/explorer/inferences 从目前的业务数据来看,IO.NET的供给端扩张顺利,在空投预期和代号“Ignition”的社区活动刺激下,让其迅速地汇聚起了大量的AI芯片算力。而其在需求端的拓展仍处于早期阶段,有机需求目前还不足。至于目前需求端的不足,是由于消费端的拓展还未开始,还是由于目前的服务体验尚不稳定,因此缺少大规模的采用,这点仍需要评估。 不过考虑到AI算力的落差短期内较难填补,有大量的AI工程师和项目在寻求替代方案,可能会对去中心化的服务商产生兴趣,加上IO.NET目前尚未开展对需求端的经济和活动刺激,以及产品体验的逐渐提升,后续供需两端的逐渐匹配仍然是值得期待的。 2.3 团队背景和融资情况 团队情况 IO.NET的核心团队成立之初的业务是量化交易,在2022年6月之前,他们一直专注于为股票和加密资产开发机构级的量化交易系统。出于系统后端对计算能力的需求,团队开始探索去中心化计算的可能性,并且最终把目光落在了降低GPU算力服务的成本这个具体问题上。 创始人&CEO:Ahmad Shadid Ahmad Shadid在IO.NET之前一直从事量化和金融工程相关的工作,同时还是以太坊基金的志愿者。 CMO&首席战略官:Garrison Yang Garrison Yang在今年3月才正式加入IO.NET,他此前是Avalanche的战略和增长VP,毕业于加州大学圣巴巴拉分校。 COO:Tory Green Tory Green 是 io.net 首席运营官,此前是 Hum Capital 首席运营官、Fox Mobile Group 企业发展与战略总监,毕业于斯坦福。 从IO.NET的Linkedin信息来看,团队总部位于美国纽约,在旧金山有分公司,目前团队人员规模在50人以上。 融资情况 IO.NET截至目前仅披露了一轮融资,即今年3月完成的A轮估值10亿美金融资,共募集了3000万美金,由Hack VC领投,其他参投方包括Multicoin Capital、Delphi Digital、Foresight Ventures、Animoca Brands、Continue Capital、Solana Ventures、Aptos、LongHash Ventures、OKX Ventures、Amber Group、SevenX Ventures和ArkStream Capital等。 值得一说的是,或许是因为收到了Aptos基金会的投资,原本在Solana上进行结算记账的BC8.AI项目,已经转换到了同样的高性能L1 Aptos上进行。 2.4 估值推算 根据此前创始人兼CEO Ahmad Shadid的说法,IO.NET将在4月底推出代币。 IO.NET有两个可以作为估值参考的标的项目:Render Network和Akash Network,它们都是代表性的分布式计算项目。 我们可以用两种方式推演IO.NET的市值区间:1.市销比,即:市值/收入比;2.市值/网络芯片数比。 先来看基于市销比的估值推演: 从市销比的角度来看,Akash可以作为IO.NET的估值区间的下限,而Render则作为估值的高位定价参考,其FDV区间为16.7亿~59.3亿美金。 但考虑到IO.NET项目更新,叙事更热,加上早期流通市值较小,以及目前更大的供应端规模,其FDV超过Render的可能性并不小。 再看另一个对比估值的角度,即“市芯比”。 在AI算力求大于供的市场背景下,分布式AI算力网络最重要的要素是GPU供应端的规模,因此我们可以以“市芯比”来横向对比,用“项目总市值与网络内芯片的数量之比”,来推演IO.NET可能的估值区间,供读者作为一个市值参考。 如果以市芯比来推算IO.NET的市值区间,IO.NET以Render Network的市芯比为上限,以Akash Network为下限,其FDV区间为206亿~1975亿美金。 相信再看好IO.NET项目读者,都会认为这是一个极度乐观的市值推算。 而且我们需要考虑到,目前IO.NET如此庞大的芯片在线张数,有受到空投预期以及激励活动的刺激,在项目正式上线后其供应端的实际在线数仍然需要观察。 因此总体来说,从市销比的角度进行的估值测算可能更有参考性。 IO.NET作为叠加了AI+DePIN+Solana生态三重光环的项目,其上线后的市值表现究竟如何,让我们拭目以待。 3.参考信息 Dephi Digital:The Real Merge Galaxy:Understanding the Intersection of Crypto and AI 来源:金色财经
lg
...
金色财经
2024-04-09
上一页
1
•••
30
31
32
33
34
•••
114
下一页
24小时热点
特朗普突然扔下“重磅炸弹”!中概股暴跌 阿里巴巴狂泻10% 究竟发生了什么
lg
...
特朗普突然对中国实施“新制裁”!黄金2951继续升高 比特币崩跌9.2万遇贸易战压境
lg
...
突发语出惊人!普京支持与习近平、特朗普“砍半”军防 美国可共享稀土开采权
lg
...
市场突传重大利空!比特币崩跌、Solana熄火价格腰斩 做市商罕见提前解锁代币
lg
...
全球吓了一跳,特朗普突发对中国大规模攻势!比特币失守9万,英伟达财报逼近
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
60讨论
#VIP会员尊享#
lg
...
1756讨论
#比特币最新消息#
lg
...
908讨论
#CES 2025国际消费电子展#
lg
...
21讨论