全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
区块链动态2023年12月27日早参考
go
lg
...
Information:AI初创公司
Anthropic
预计,到2024年底年化营收将达到8.5亿美元。 8 . 金色财经报道,加密交易所Mt.Gox债权人报告称,在偿还开始后不到一天,他们的PayPal账户就收到了双重付款。MtGoxInsolvency subreddit小组的成员表示,他们的PayPal账户中收到了两笔金额相同的交易。其他人报告称收到了Mt.Gox受托人的通知,要求返还重复付款。 9 . 金色财经报道,据Bitcoin.com数据,比特币挖矿难度今年总计经历了27次调整,其中20次增加,7次降低,全年增幅约74%,其中难度涨幅最大的一次达到10.26%,发生在1月16日;涨幅最小的一次仅为0.12%,发生在8月9日;难度跌幅最大的一次为3.59%,发生在1月3日;跌幅最小一次为0.49%,发生在2月12日;第27次也是年内最后一次调整于12月24日进行。 另据btc.com数据显示,预计2024年第一次比特币挖矿难度调整将发生在1月4日左右,届时难度或将上涨2.25%达到73.62 T。 10. 金色财经报道,跨链DEX项目Kyber Network在11月份遭受4880万美元的攻击后,Kyber Network首席执行官Victor Tran表示,遗憾地裁减了50%的员工,以保持公司业务运营的正常运行。不过,Kyber Network将创建一个“自愿数据库”,帮助离职员工在Web3领域寻找新机会。 Victor Tran表示,为了减缓资本支出速度,Kyber Network已暂时暂停其流动性协议计划和KyberAI项目。不过,Tran强调其核心业务保持不变,包括KyberSwap的聚合器和限价订单功能。此外,Tran称很快将推出Zap API,这是一项创新开发,将使dApp、钱包和其他项目成为用户访问DeFi流动性协议的最便捷网关。 11. 金色财经报道,跨链DEX项目Kyber Network于12月20日启动了财政部拨款计划,以促进对11月份因漏洞受影响的客户进行补偿。并计划于2024年2月1日分发资金(以美元稳定币形式)。受影响的用户需要在2024年1月11日至1月23日期间注册以获得补偿。 Kyber指出,受主要KyberSwap漏洞影响的用户的参考价值已确定为近4900万美元,但受影响的用户只会收到该价值的60%。在最初的攻击之后,抢跑机器人又被盗了660万美元。 Kyber团队最初试图与黑客谈判达成一项赏金协议,但他们要求完全控制该公司,包括所有Kyber资产及其治理机制KyberDAO。 12. 金色财经报道,2023年加密货币总投资大幅下降68%至106亿美元,与2022年记录的332亿美元总投资相比下降60%,是2020年以来的最低点。Coinbase Ventures表示,预计我们的活动将在2024年有所增长,Coinbase Ventures将继续投资于加速将未来10亿用户引入链上的领域,包括加密基础设施以及社交和游戏等消费应用程序,并且还看到人工智能和加密货币交叉领域的机会。该公司还将寻求通过Base生态系统基金扩大对Base团队建设的支持。 总部位于香港的Animoca Brands联合创始人兼执行主席Yat Siu表示,该公司对2024年非常乐观,预计2024年加密货币融资环境将更加健康。 来源:金色财经
lg
...
金色财经
2023-12-27
势头猛进 OpenAI拟以1000亿美元估值开展新一轮融资
go
lg
...
lphabet向OpenAI的竞争对手
Anthropic
投入了数十亿美元。 Salesforce领投了一笔对Hugging Face的投资,估值达45亿美元。专为人工智能任务设计半导体的公司英伟达本月初表示,该公司在2023年进行了20多项投资。 据知情人士透露,OpenAI还与总部位于阿联酋阿布扎比的G42公司就一项新芯片计划进行了筹资讨论。 此外,知情人士还表示,Open AI已经讨论打算从G42融资80亿至100亿美元。由于涉及机密信息,这名知情人士要求匿名。 目前尚不清楚OpenAI的半导体风险投资与公司更广泛的融资是否有关。 彭博社上月报道称,OpenAI首席执行官奥特曼一直在为代号为“Tigris”的芯片制造项目寻求资金。“Tigris”的目标是生产出能与目前在人工智能芯片市场占据主导地位的英伟达竞争的半导体。 今年10月,G42宣布与OpenAI建立合作伙伴关系,致力于“为阿联酋和区域市场提供尖端的人工智能解决方案”,但未透露具体合作的财务细节。 G42成立于2018年,由阿联酋国家安全顾问兼阿布扎比投资局主席Sheikh Tahnoon bin Zayed Al Nahyan领导。 11月初,OpenAI的董事会突然解雇了奥特曼,当时OpenAI一度显得前途未卜,一些投资者甚至考虑将所持股份减持至零。 但在经历了五天的领导层动荡之后,奥特曼还是被重新召回,并任命了一个新的董事会。 Open AI此举旨在向客户表明态度,在经历动荡之后,将重新专注于自己的产品。 原文由South China Morning Post撰写,中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。 来源:金色财经
lg
...
金色财经
2023-12-26
区块链动态2023年12月22日早参考
go
lg
...
将是FTX的风险投资组合,该投资组合在
Anthropic
中拥有大量股份,
Anthropic
是一家颠覆性的人工智能 (AI) 公司,已从谷歌和亚马逊筹集资金,估值超过180亿美元。 金色财经此前报道,GalaxyDigital此前帮助FTX出售、对冲和质押持有的比特币、以太坊等数字资产以及灰度比特币信托资产等帮助其资产管理规模增加到了53亿美元。 来源:金色财经
lg
...
金色财经
2023-12-22
人工智能初创公司
Anthropic
据悉将募资7.5亿美元
go
lg
...
据报道,知情人士称,人工智能初创公司
Anthropic
正在讨论在一轮由Menlo Ventures领投的融资中募资7.5亿美元。在此轮融资之前,这家初创公司的估值为184亿美元。
lg
...
金融界
2023-12-21
下一只值得买入的AI股:亚马逊?
go
lg
...
人工智能模型,包括AI21 Labs、
Anthropic
、Cohere、Meta Platforms和Stability AI等公司开发的模型。当然,还有亚马逊自己的Titan,它提供了一系列由AWS训练的人工智能模型,支持各种用例。例如,Titan Image Generator可以使用语音提示创建原始图像,很像OpenAI的DALL-E。这些产品为云用户提供了开发自己的人工智能应用程序所需的一切,帮助将人工智能推向大众。 就在上个月,亚马逊透露,它将提供英伟达(NVDA.US)最新的最先进的人工智能芯片——H200 Tensor Core GPU。亚马逊还宣布了其新的、更节能的Trainium2和gravon4人工智能处理器。这将使其云基础设施客户能够获得广泛的人工智能选择,从顶级产品到更具成本效益的选择。该公司还推出了Amazon Q,这是一款生成式人工智能助手,旨在帮助企业自动化和简化平凡而耗时的任务。 除了云计算部门,亚马逊还向其电子商务平台上的商家提供生成式人工智能工具,以帮助他们创建准确的产品列表,同时还为其电子商务平台上的客户广告推出了人工智能图像生成功能。亚马逊也在部署生成式人工智能来改进客户购买推荐和搜索过程。最后,亚马逊借鉴了微软的人工智能策略,斥资40亿美元收购了人工智能初创企业
Anthropic
的少数股权,以进一步扩大其人工智能业务。
Anthropic
是OpenAI的竞争对手。 因此,有证据表明,亚马逊正在利用下一代人工智能来维持甚至提高其行业领先业务的竞争优势。 尽管亚马逊的股票今年大幅上涨,但它仍提供了大量的机会,使其获得令人惊讶的合理估值。该股目前的预期市盈率约为2.4倍,远低于其7年平均的3.5倍。这可能让投资者有机会以折扣价购买亚马逊股票。
lg
...
金融界
2023-12-19
人类最大“威胁”之一:深伪、诈骗、扰乱选举 “AI过度入侵”时代 欧盟里程碑式法案出炉
go
lg
...
白宫曾在今年 7 月宣布,包括亚马逊、
Anthropic
、谷歌、Inflection、Meta、微软和OpenAI在内的多家人工智能研发企业都已同意对这些系统进行自我监管。 参议院多数党领袖、纽约州民主党人查克·舒默已承诺,一项全面的人工智能法案可能于明年出台。
lg
...
芷莹
2023-12-12
雄心、恐惧和金钱:硅谷的AI争夺之战是如何被点燃的
go
lg
...
人现在每周使用它。 OpenAI击败了
Anthropic
公司的有效利他主义者。虽然谷歌的佩奇乐观派们急忙发布了自己的聊天机器人Bard,但人们普遍认为他们在与OpenAI的竞争中失利。ChatGPT发布了三个月后,谷歌股价下跌了11%。马斯克做的东西还没有踪影。 但这只是开始。
lg
...
金融界
2023-12-11
Footprint Analytics x Future3 Campus联合发布AI与Web3研究报告
go
lg
...
推动了人们对更多生成式人工智能的关注,
Anthropic
(Amazon)、DeepMind(Google)、Llama 等模型也随后进入人们的视野。与此同时,各行各业的从业者也开始积极探索 AI 会如何推动他们所在领域的发展,或者寻求通过与 AI 技术的结合在行业中脱颖而出,进一步加速了 AI 在各个领域的渗透。 1.2 AI 与 Web3 的交融 Web3 的愿景从改革金融体系开始,旨在实现更多的用户权力,并有望引领现代经济和文化的转变。区块链技术为实现这一目标提供了坚实的技术基础,它不仅重新设计了价值传输和激励机制,还为资源分配和权力分散提供了支持。 图 2:Web3 发展历程 早在 2020 年,区块链领域的投资公司 Fourth Revolution Capital(4RC)就曾指出,区块链技术将和 AI 结合,通过对金融、医疗、电子商务、娱乐等全球行业的去中心化,以实现对现有行业的颠覆。 目前,AI 与 Web3 的结合,主要是两大方向: 利用 AI 去提升生产力以及用户体验。 结合区块链透明、安全、去中心化存储、可追溯、可验证的技术特点,以及 Web3 去中心化的生产关系,解决传统技术无法解决的痛点或者激励社区参与,提高生产效率。 市场上 AI 与 Web3 的结合有以下的一些探索方向: 图 3:AI 与 Web3 结合全景图 数据:区块链技术可以应用在模型数据存储上,提供加密数据集,保护数据隐私和记录模型使用数据的来源、使用情况,以及校验数据的真实性。通过访问和分析存储在区块链上的数据,AI 可以提取有价值的信息,并用于模型训练和优化。同时,AI 也可以作为数据生产工具,去提高 Web3 数据的生产效率。 算法:Web3 中的算法可以为 AI 提供更安全、可信和自主控制的计算环境,为 AI 体统提供加密保障,在模型参数上,内嵌安全防护栏,防止系统被滥用或者恶意操作。AI 可以与 Web3 中的算法进行交互,例如利用智能合约执行任务、验证数据和执行决策。同时,AI 的算法也可以为 Web3 提供更智能化和高效的决策和服务。 算力:Web3 的分散式计算资源可以为 AI 提供高性能的计算能力。AI 可以利用 Web3 中的分散式计算资源进行模型的训练、数据分析和预测。通过将计算任务分发到网络上的多个节点,AI 可以加快计算速度,并处理更大规模的数据。 在本文中,我们将重点探索如何利用 AI 的技术,去提升 Web3 数据的生产效率以及使用体验。 Web3数据现状 2.1 Web2 & Web3 数据行业对比 作为 AI 最核心的组成部分“数据”,在 Web3 跟我们熟悉的 Web2 很着很多的区别。差异主要是在于 Web2 以及 Web3 本身的应用架构导致其产生的数据特征有所不同。 2.1.1 Web2 & Web3 应用架构对比 图 4:Web2 & Web3 应用架构 在 Web2 架构中,通常是由单一实体(通常是一家公司)来控制网页或者 APP,公司对于他们构建的内容有着绝对的控制权,他们可以决定谁可以访问其服务器上的内容和逻辑,以及用户拥有怎样的权益,还可以决定这些内容在网上存在的时长。不少案例表明,互联网公司有权改变其平台上的规则,甚至中止为用户提供服务,而用户对此无法保留所创造的价值。 而 Web3 架构则借助了通用状态层(Universal State Layer)的概念,将一部分或者全部的内容和逻辑放置在公共区块链上。这些内容和逻辑是公开记录在区块链上的,可供所有人访问,用户可以直接控制链上内容和逻辑。而在 Web2 中,用户需要帐户或 API 密钥才能与区块链上的内容进行交互。用户可以直接控制其对应的链上内容和逻辑。不同于 Web2,Web3 用户无需授权帐户或 API 密钥就能与区块链上的内容进行交互(特定管理操作除外)。 2.1.2 Web2 与 Web3 数据特征对比 图 5:Web2 与 Web3 数据特征对比 Web2 数据通常表现为封闭和高度受限的,具有复杂的权限控制,高度成熟、多种数据格式、严格遵循行业标准,以及复杂的业务逻辑抽象。这些数据规模庞大,但互操作性相对较低,通常存储在中央服务器上,且不注重隐私保护,大多数是非匿名的。 相比之下,Web3 数据更加开放,访问权限更广泛,尽管成熟度较低,以非结构化数据为主,标准化较为罕见,业务逻辑抽象相对简化。Web3 的数据规模相对 Web2 较小,但它具有较高的互操作性(比如 EVM 兼容),并可分散或集中存储数据,同时强调用户隐私,用户通常采用匿名方式进行链上交互。 2.2 Web3 数据行业现状与前景,以及遇到的挑战 在 Web2 时代,数据如石油的“储量”般珍贵,访问和获取大规模数据一直是极大的挑战。在 Web3 中,数据的开放性和共享性一下子让大家觉得“石油到处都是”,使得 AI 模型能够更轻松地获取更多的训练数据,这对于提高模型性能和智能水平至关重要。但对 Web3 这个“新石油” 的数据处理依然有很多问题待解决,主要有以下几个: 数据来源:链上数据“标准”繁杂分散,数据处理花费大量人工成本 处理链上数据时,需要反复执行耗时而劳动密集的索引过程,需要开发者和数据分析师花费大量时间和资源来适应不同链、不同项目之间的数据差异。链上数据行业缺乏统一的生产和处理标准,除了记录到区块链账本上的,events,logs,and traces 等都基本上是项目自己定义和生产(或生成)的,这导致非专业交易者很难辨别并找到最准确和可信的数据,增加了他们在链上交易和投资决策中的困难。比如,去中心化交易所 Uniswap 和 Pancakeswap 就有可能在数据处理方法和数据口径上存在差异,过程中的检查和统一口径等工序进一步加大了数据处理的复杂性。 数据更新:链上数据体量大且更新频率高,难以及时地处理成结构化数据 区块链是时刻变动的,数据更新以秒甚至毫秒级别计。数据的频繁产生和更新使其难以维持高质量的数据处理和及时的更新。因此,自动化的处理流程是十分重要的,这也是对于数据处理的成本和效率的一大挑战。Web3 数据行业仍处于初级阶段。随着新合约的层出不穷和迭代更新,数据缺乏标准、格式多样,进一步增加了数据处理的复杂性。 数据分析:链上数据的匿名属性,导致数据身份难以区分 链上数据通常不包含足够的信息来清晰识别每个地址的身份,这使得数据在与链下的经济、社会或法律动向难以联动。但是链上数据的动向与现实世界紧密相关,了解链上活动与现实世界中特定个体或实体的关联性对于特定的场景比如数据分析来说十分重要。 随着大语言模型(LLM)技术引发的生产力变更讨论,能否利用 AI 来解决这些挑战也成为 Web3 领域的一个焦点关注之一。 AI 与 Web3 数据碰撞产生的化学反应 3.1 传统 AI 与 LLM 的特征对比 在模型训练方面,传统 AI 模型通常规模较小,参数数量在数万到数百万之间,但为了确保输出结果的准确性,需要大量的人工标注数据。LLM 之所以如此强大,部分原因在于其使用了海量的语料拟合百亿、千亿级以上的参数,极大地提升了它对自然语言的理解能力,但这也意味着需要更多的数据来进行训练,训练成本相当高昂。 在能力范围和运行方式上,传统 AI 更适合特定领域的任务,能够提供相对精准和专业的答案。相比之下,LLM 更适合通用性任务,但容易产生幻觉问题,这意味着在一些情况下,它的回答可能不够精确或专业,甚至完全错误。因此,如果需要和客观,可信任,和可以追溯的结果,可能需要进行多次检查、多次训练或引入额外的纠错机制和框架。 图 6:传统 AI 与大模型语言模型 (LLM)的特征对比 3.1.1 传统 AI 在 Web3 数据领域的实践 传统 AI 已经在区块链数据行业展现了其重要性,为这一领域带来了更多创新和效率。例如,0xScope 团队采用 AI 技术,构建了基于图计算的群集分析算法,通过不同规则的权重分配来帮助准确识别用户之间的相关地址。这种深度学习算法的应用提高了地址群集的准确性,为数据分析提供了更精确的工具。Nansen 则将 AI 用于 NFT 价格预测,通过数据分析和自然语言处理技术,提供有关 NFT 市场趋势的见解。另一方面,Trusta Labs使用了基于资产图谱挖掘和用户行为序列分析的机器学习方法,以增强其女巫检测解决方案的可靠性和稳定性,有助于维护区块链网络生态的安全。另一方面,Trusta Labs 采用了图挖掘和用户行为分析的方法,以增强其女巫检测解决方案的可靠性和稳定性,有助于维护区块链网络的安全。Goplus 在其运营中利用传统人工智能来提高去中心化应用程序(dApps)的安全性和效率。他们收集和分析来自 dApp 的安全信息,提供快速风险警报,帮助降低这些平台的风险敞口。这包括通过评估开源状态和潜在恶意行为等因素来检测 dApp 主合同中的风险,以及收集详细的审计信息,包括审计公司凭证、审计时间和审计报告链接。Footprint Analytics 则使用 AI 生成生产结构化数据的代码,分析 NFT 交易 Wash trading 交易以及机器人账户筛选排查。 然而,传统 AI 拥有的信息有限,专注于使用预定的算法和规则执行预设任务,而 LLM 则通过大规模的自然语言数据学习,可以理解和生成自然语言,这使其更适合处理复杂且巨量的文本数据。 最近,随着 LLM 取得了显著进展,人们对 AI 与 Web3 数据的结合,也进行了一些新的思考与探索。 3.1.2 LLM 的优势 LLM 相对于传统人工智能具有以下优势: 可扩展性:LLM 支持大规模数据处理 LLM 在可扩展性方面表现出色,能够高效处理大量数据和用户互动。这使其非常适合处理需要大规模信息处理的任务,如文本分析或者大规模数据清洗。其高度的数据处理能力为区块链数据行业提供了强大的分析和应用潜力。 适应性:LLM 可学习适应多领域需求 LLM 具备卓越的适应性,可以为特定任务进行微调或嵌入行业或私有数据库,使其能够迅速学习和适应不同领域的细微差别。这一特性使 LLM 成为了解决多领域、多用途问题的理想选择,为区块链应用的多样性提供了更广泛的支持。 提高效率:LLM 自动化任务提高效率 LLM 的高效率为区块链数据行业带来了显著的便利。它能够自动化原本需要大量人工时间和资源的任务,从而提高生产力并降低成本。LLM 可以在几秒内生成大量文本、分析海量数据集,或执行多种重复性任务,从而减少了等待和处理时间,使区块链数据处理更加高效。 任务分解:可以生成某些工作的具体计划,把大的工作分成小步骤 LLM Agent 具备独特的能力,即可以生成某些工作的具体计划,将复杂任务分解为可管理的小步骤。这一特性对于处理大规模的区块链数据和执行复杂的数据分析任务非常有益。通过将大型工作分解成小任务,LLM 可以更好地管理数据处理流程,并输出高质量的分析。 这一能力对于执行复杂任务的 AI 系统至关重要,例如机器人自动化、项目管理和自然语言理解与生成,使其能够将高级任务目标转化为详细的行动路线,提高任务执行的效率和准确性。 可访问性和易用性:LLM 以自然语言提供用户友好互动 LLM 的可访问性使更多用户能够轻松与数据和系统进行互动,让这些互动更加用户友好。通过自然语言,LLM 使数据和系统更容易访问和交互,无需用户学习复杂的技术术语或特定命令,例如,SQL,R,Python 等来做数据获取和分析。这一特性拓宽了区块链应用的受众范围,让更多的人能够访问和使用 Web3 应用和服务,不论他们是否精通技术,从而促进了区块链数据行业的发展和普及。 3.2 LLM 与 Web3 数据的融合 图 7:区块链数据与 LLM 的融合 大型语言模型的培训需要依赖大规模数据,通过学习数据中的模式来建立模型。区块链数据中蕴含的交互和行为模式是 LLM 学习的燃料。数据量和质量也直接影响 LLM 模型的学习效果。 数据不仅仅是 LLM 的消耗品,LLM 还有助于生产数据,甚至可以提供反馈。例如,LLM 可以协助数据分析师在数据预处理方面做出贡献,如数据清洗和标注,或者生成结构化数据,清除数据中的噪声,凸显有效信息。 3.3 增强 LLM 的常用技术解决方案 ChatGPT 的出现,不仅向我们展示了 LLM 解决复杂问题的通用能力,同时也引发了全球范围的,对在通用能力上去叠加外部能力的探索。这里包括,通用能力的增强(包括上下文长度、复杂推理、数学、代码、多模态等)以及外部能力的扩充(处理非结构化数据、使用更复杂的工具、与物理世界的交互等)。如何将 crypto 领域的专有知识以及个人的个性化私有数据嫁接到大模型的通用能力上,是大模型在 crypto 垂直领域商业化落地的核心技术问题。 目前,大多数应用都集中在检索增强生成(RAG)上,比如提示工程和嵌入技术,已经存在的代理工具也大多都聚焦于提高 RAG 工作的效率和准确性。市场上主要的基于 LLM 技术的应用栈的参考架构有以下几种: Prompt Engineering 图 8:Prompt Engineering 当前,大多数从业者在构建应用时采用基础解决方案,即 Prompt Engineering。这一方法通过设计特定的 Prompt 来改变模型的输入,以满足特定应用的需求,是最方便快捷的做法。然而,基础的 Prompt Engineering 存在一些限制,如数据库更新不及时、内容冗杂、以及对输入上下文长度(In-Context Length)的支持和多轮问答的限制。 因此,行业内也在研究更先进的改进方案,包括嵌入(Embedding)和微调(Fine-tuning)。 嵌入(Embedding) 嵌入(Embedding)是一种广泛应用于人工智能领域的数据表示方法,能高效捕获对象的语义信息。通过将对象属性映射成向量形式,嵌入技术能够通过分析向量之间的相互关系,快速找到最有可能正确的答案。嵌入可以在 LLM 的基础上构建,以利用该模型在广泛语料上学到的丰富语言知识。通过嵌入技术将特定任务或领域的信息引入到预训练的大模型中,使得模型更专业化,更适应特定任务,同时保留了基础模型的通用性。 用通俗的话来讲,嵌入就类似于你给一个经过综合训练的大学生一本工具书,让他拿着拥有特定任务相关知识的工具书去完成任务,他可以随时查阅工具书,然后可以解决特定的问题。 微调(Fine-tuning) 图 9:Fine Tuning 微调(Fine-tuning)与嵌入不同,通过更新已经预训练的语言模型的参数,使其适应特定任务。这种方法允许模型在特定任务上表现出更好的性能,同时保持通用性。微调的核心思想是调整模型参数,捕捉与目标任务相关的特定模式和关系。但微调的模型通用能力上限仍然受限于基座模型本身。 用通俗的话来讲,微调就类似于给经过综合训练的大学生上专业知识课程,让他掌握除了综合能力以外的专业课知识,能自行解决专业板块的问题。 重新训练 LLM 当前的 LLM 虽然强大,但不一定能够满足所有需求。重新训练 LLM 是一种高度定制化的解决方案,通过引入新数据集和调整模型权重,使其更适应特定任务、需求或领域。然而,这种方法需要大量计算资源和数据,并且管理和维护重新训练后的模型也是挑战之一。 Agent 模型 图 10:Agent 模型 Agent 模型是一种构建智能代理的方法,它以 LLM 作为核心控制器。这个系统还包括几个关键组成部分,以提供更全面的智能。 Planning,规划:将大任务分成小任务,这样更容易完成 Memory,反思:通过反思过去的行为,改进未来的计划 Tools,工具使用:代理可以调用外部工具获取更多信息,如调用搜索引擎、计算器等 人工智能代理模型具备强大的语言理解和生成能力,能够解决通用问题,进行任务分解以及自我反思。这使得它在各种应用中都有广泛的潜力。然而,代理模型也存在一些局限性,例如受到上下文长度的限制、长期规划和任务拆分容易出错、输出内容的可靠性不稳定等问题。这些局限性需要长期不断的研究和创新,以进一步拓展代理模型在不同领域的应用。 以上的各种技术并不是相互排斥的,它们可以在训练和增强同一个模型的过程中一起使用。开发者可以充分发挥现有大语言模型的潜力,尝试不同的方法,以满足日益复杂的应用需求。这种综合使用不仅有助于提高模型的性能,还有助于推动 Web3 技术的快速创新和进步。 然而,我们认为,虽然现有的 LLM 已经在 Web3 的快速发展中发挥了重要作用,但在充分尝试这些现有模型(如 OpenAI、Llama 2 以及其他开源 LLM)之前,我们可以从浅入深,从 prompt engineering 和嵌入等 RAG 策略入手,谨慎考虑微调和重新训练基础模型。 3.4 LLM 如何加速区块链数据生产的各个流程 3.4.1 区块链数据的一般处理流程 当今,区块链领域的建设者逐渐认识到数据产品的价值。这一价值覆盖了产品运营监控、预测模型、推荐系统以及数据驱动的应用程序等多个领域。尽管这一认知逐渐增强,但作为数据获取到数据应用中不可或缺的关键步骤,数据处理往往被忽视。 图 12:区块链数据处理流程 将区块链原始非结构化数据,如 events 或 logs 等,转换为结构化的数据 区块链上的每一笔交易或事件都会生成 events 或 logs,这些数据通常是非结构化的。这一步骤是获取数据的第一入口,但数据仍然需要被进一步处理以提取有用信息,得到结构化的原始数据。这包括整理数据、处理异常情况和转化为通用格式。 将结构化的原始数据,转换为具有业务意义的抽象表 在得到结构化原始数据后,需要进一步进行业务抽象,将数据映射到业务实体和指标上,比如交易量、用户量等业务指标,将原始数据转化为对业务和决策有意义的数据。 从抽象表中,计算提取业务指标 有了抽象的业务数据后,可以在业务抽象的数据上进行进一步计算,就可以得出各种重要的衍生指标。例如交易总额的月增长率、用户留存率等核心指标。这些指标可以借助 SQL、Python 等工具实现,更加有可能帮助监控业务健康、了解用户行为和趋势,从而支持决策和战略规划。 3.4.2 区块链数据生成流程加入 LLM 后的优化 LLM 在区块链数据处理中可以解决多个问题,包括但不限于以下内容: 处理非结构化数据: 从交易日志和事件中提取结构化信息:LLM 可以分析区块链的交易日志和事件,提取其中的关键信息,如交易金额、交易方地址、时间戳等,将非结构化数据转化为的带有业务意义的数据,使其更易于分析和理解。 清洗数据,识别异常数据:LLM 可以自动识别和清洗不一致或异常的数据,帮助确保数据的准确性和一致性,从而提高数据质量。 进行业务抽象: 将原始链上数据映射到业务实体:LLM 可以将原始区块链数据映射到业务实体,例如将区块链地址映射到实际用户或资产,从而使业务处理更加直观和有效。 处理非结构化链上内容,打标签:LLM 可以分析非结构化数据,如 Twitter 情感分析结果,将其标记为正面、负面或中性情感,从而帮助用户更好地理解社交媒体上的情感倾向。 自然语言解读数据: 计算核心指标:基于业务抽象,LLM 可以计算核心业务指标,如用户交易量、资产价值、市场份额等,以帮助用户更好地了解其业务的关键性能。 查询数据:LLM 可以通过 AIGC,理解用户意图,生成 SQL 查询,使用户能够以自然语言提出查询请求,而不必编写复杂的 SQL 查询语句。这增加了数据库查询的可访问性。 指标选择、排序和相关性分析:LLM 可以帮助用户选择、排序和分析不同的多个指标,以更好地理解它们之间的关系和相关性,从而支持更深入的数据分析和决策制定。 产生业务抽象的自然语言描述:LLM 可以根据事实数据,生成自然语言摘要或解释,以帮助用户更好地理解业务抽象和数据指标,提高可解释性,并使决策更具合理性。 3.5 目前用例 根据 LLM 自身的技术以及产品体验优势,它可以被应用到不同的链上数据场景,技术上从易到难可以将这些场景分成四类: 数据转换:进行数据增强、重构等操作,如文本摘要、分类、信息抽取。这类应用开发较快,但更适合通用场景,不太适合大量数据的简单批量化处理。 自然语言接口:将 LLM 连接知识库或工具,实现问答或基本工具使用的自动化。这可以用于构建专业聊天机器人,但其实际价值受其所连接的知识库质量等其他因素影响。 工作流自动化:使用 LLM 实现业务流程的标准化和自动化。这可以应用于较复杂的区块链数据处理流程,如解构智能合约运行过程、风险识别等。 协助机器人与助手辅助系统:辅助系统是在自然语言接口的基础上,集成更多数据源和功能的增强系统,大幅提高用户工作效率。 图 11:LLM 应用场景 3.6 LLM 的局限性 3.6.1 行业现状:成熟应用、正在攻克的问题以及尚未解决的挑战 在 Web3 数据领域,尽管已经取得了一些重要的进展,但仍然面临一些挑战。 相对成熟的应用: 使用 LLM 进行信息处理:LLM 等 AI 技术已成功用于生成文本摘要、总结、解释等工作,帮助用户从长篇文章、专业报告中提取关键信息,提高了数据的可读性和可理解性。 使用 AI 解决开发问题:LLM 已经应用于解决开发过程中的问题,例如替代StackOverflow 或搜索引擎,为开发者提供问题解答和编程支持。 有待解决与正在探索的问题: 利用 LLM 生成代码:行业正在努力将 LLM 技术应用于自然语言到 SQL 查询语言的转换,以提高数据库查询的自动化和可理解性。然而,过程中会有很多困难,比如在某些情境下,生成的代码要求极高的准确性,语法必须百分之百正确,以确保程序能够无 bug 运行,并获得正确的结果。难点还包括确保问题回答的成功率、正确率,以及对业务的深刻理解。 数据标注问题:数据标注对于机器学习和深度学习模型的训练至关重要,但在 Web3 数据领域,特别是处理匿名的区块链数据时,标注数据的复杂性较高。 准确性和幻觉(Hallucination)问题:AI 模型中幻觉的出现可能受多因素影响,包括有偏见或不足的训练数据、过度拟合、有限的上下文理解、缺乏领域知识、对抗性攻击和模型架构。研究人员和开发者需要不断改进模型的训练和校准方法,以提高生成文本的可信度和准确性。 利用数据进行业务分析和文章输出:将数据用于业务分析和生成文章仍然是一个具有挑战性的问题。问题的复杂性、需要精心设计的提示(prompt)、以及高质量的数据、数据量、减少幻觉问题的方法都是待解决的问题。 根据业务领域自动索引智能合同数据以进行数据抽象:自动为不同业务领域的智能合同数据建立索引以进行数据抽象仍然是一个未解决的问题。这需要综合考虑不同业务领域的特点,以及数据的多样性和复杂性。 处理时序数据,表格文档数据等更复杂的模态:DALL·E 2 等多模态模型非常擅长在文字生成图像、语音等常见模态。而在区块链以及金融领域需要特别地对待一些时序数据,而非简单地把文本向量化就能解决。联和时序数据与文本,跨模态联合训练等,是实现数据智能分析以及应用的重要研究方向。 3.6.2 为何只靠 LLM 不能完美解决区块链数据行业的问题 作为语言模型,LLM 更适用于处理对流畅度要求较高的场景,而在追求准确性方面,可能需要对模型进行更进一步的调整。在将 LLM 应用于区块链数据行业时,以下框架可提供一些参考。 图 13:区块链数据行业下 LLM 输出的流畅性、准确性和用例风险 在评估 LLM 在不同应用中的适用性时,关注流畅度和准确性是至关重要的。流畅度指的是模型的输出是否自然、通顺,准确性则表示模型的答案是否准确。这两个维度在不同应用场景中有不同的要求。 对于流畅度要求较高的任务,如自然语言生成、创意写作等,LLM 通常能够胜任,因为其在自然语言处理方面的强大性能使其能够生成流畅的文本。 区块链数据面临着数据解析、数据处理、数据应用等多方面的问题。LLM 拥有卓越的语言理解和推理能力,使其成为与区块链数据互动、整理和概括的理想工具。然而,LLM 并不能解决所有区块链数据领域的问题。 在数据处理方面,LLM 更适合快速迭代和探索性处理链上数据,不断尝试新的处理方法。然而,LLM 在生产环境中的详细核对等任务方面仍存在一些限制。典型的问题是 token 长度不够,无法应对长上下文的内容。耗时的 prompt,回答不稳定影响下游任务进而导致成功率不稳定的问题,以及执行大批量任务的效率不高。 其次,LLM 处理内容的过程中很可能出现幻觉问题。据估计,ChatGPT 的幻觉概率约为 15% 至 20%,而由于其处理过程的不透明性,很多错误难以察觉。因此,框架的建立和专家知识的结合变得至关重要。此外,LLM 结合链上数据还是有很多挑战: 链上数据实体类型多、数量庞大,以何种形式投喂给 LLM,有效地运用在具体的商业化场景,类似其他垂直行业,需要更多研究和探索。 链上数据包括结构化和非结构化数据,目前行业大多数数据解决方案,都是基于对业务数据的理解。解析链上数据的过程中,用 ETL 去过滤,清洗,补充和复原业务逻辑,进一步把非结构化数据整理为结构化数据,可以为后期多种业务场景提供更高效的分析。比如,结构化的 DEX trades,NFT marketplace transactions,wallet address portfolio 等,就具有前面提到的高质量,高价值,准确和真实等特点,可以给通用 LLM 提供高效的补充。 被误解的 LLM LLM 可以直接处理非结构化数据,因此结构化数据将不再被需要? LLM 通常基于海量文本数据预训练而来,天然适合处理各类非结构化的文本数据。然而,各个行业已经拥有大量结构化数据,尤其 Web3 领域中解析后的数据。如何有效的利用这些数据,增强 LLM,是一个行业的热门研究课题。 对于 LLM,结构化数据仍然具有以下的优势: 海量:大量的数据储存在各种应用背后的数据库和其他标准格式里面,特别是私有数据。每个公司和行业都还有大量 LLM 没有用于预训练的墙内数据。 已有:这些数据不需要重新生产,投入成本极低,唯一的问题是怎么用起来。 高质量和高价值:领域内长期积累的,蕴含专家的专业知识,通常都沉淀到了结构化数据里面,用于产学研。结构化数据的质量是数据可用性的关键,其中包括数据的完整性、一致性、准确性、唯一性和事实性。 高效率:结构化数据以表格、数据库或其他规范格式存储,模式是预先定义的,并且在整个数据集中保持一致。这意味着数据的格式、类型和关系都是可预测和可控的,使得数据的分析和查询更加简单和可靠。而且,行业已经有成熟的 ETL 及各种数据处理和管理工具,使用起来也更加高效和便捷。LLM 可以通过 API,把这些数据使用起来。 准确性和事实性:LLM 的文本数据,基于 token 概率,目前还不能稳定的输出确切的答案,产生的幻觉问题一直是 LLM 要解决的核心根本问题。对于很多行业和场景,会形成安全和可靠性问题,比如,医疗,金融等。结构化数据,正是可以辅助和矫正LLM 这些问题的一个方向。 体现关系图谱,和特定业务逻辑:不同类型的结构化数据,可以以特定的组织形式(关系型数据库,图数据库等),输入到 LLM,解决不同类型的领域问题。结构化数据使用标准化的查询语言(如 SQL),使得对数据进行复杂的查询和分析变得更加高效和准确。知识图谱 (Knowledge Graph) 可以更好地表达实体之间的关系,也更容易进行关联查询。 使用成本低:不用 LLM 每次重新从底层重新训练整个底座模型,可以结合 Agents 和LLM API 等 LLM 赋能方式,更快更低成本的接入 LLM。 目前市场上还有一些脑洞大开的观点,认为 LLM 在处理文本信息和非结构化信息方面的能力极强,只需将原始数据,包括非结构化数据,简单导入到 LLM,就能达到目的。这个想法类似于要求通用 LLM 解数学题,在没有专门构建数学能力模型的情况下,大多数 LLM 可能会在处理简单的小学加减题时出错。反而,建立类似数学能力模型,和图像生成模型的 Crypto LLM 垂直模型,才是解决 LLM 在 Crypto 领域更落地的实践。 4.2 LLM 可以从新闻、推特等文字信息推测内容,人们不再需要链上数据分析来得出结论? LLM 虽然可以从新闻、社交媒体等文本中获得信息,但直接从链上数据中获得的洞察仍然是不可或缺的,主要原因有: 链上数据是原始的第一手资讯,而新闻和社交媒体中的信息可能存在片面性或误导性。直接分析链上数据可以减少信息偏差。尽管利用 LLM 进行文本分析存在理解偏差的风险,但直接分析链上数据可以减少误读。 链上数据包含全面的历史交互和交易记录,分析可以发现长期趋势和模式。链上数据还可以展现整个生态系统的全貌,如资金流向、各方关系等。这些宏观的洞察有助于更深入地理解状况。而新闻和社交媒体信息通常更零散且短期。 链上数据是开放的。任何人都可以验证分析结果,避免信息的不对称。而新闻和社交媒体未必都如实披露。文本信息和链上数据可以相互验证。综合两者可以形成更立体和准确的判断。 链上数据分析仍是不可或缺的。LLM 从文本中获取信息具有辅助作用,但不能取代直接分析链上数据。充分利用两者优势才能取得最佳效果。 4.3 利用 LangChain、LlamaIndex 或其他 AI 工具,在 LLM 的基础上构建区块链数据解决方案非常容易? LangChain 和 LlamaIndex 等工具为构建自定义的简单 LLM 应用提供了便利,使快速搭建成为可能。然而,将这些工具成功应用于实际生产环境中涉及到更多的挑战。构建一个高效运行、保持高质量的 LLM 应用是一项复杂的任务,需要深入理解区块链技术和 AI 工具的工作原理,并有效地将它们整合在一起。这对于区块链数据行业来说,是一项重要但具有挑战性的工作。 在这个过程中,必须认识到区块链数据的特性,它要求极高的精准性和可重复校验性。一旦数据通过 LLM 进行处理和分析,用户对其准确性和可信度有很高的期望。这与 LLM 的模糊容错性之间存在着潜在的矛盾。因此,在构建区块链数据解决方案时,必须仔细权衡这两方面的需求,以满足用户的期望。 当前市场上,虽然已经有了一些基础工具,但这个领域仍在快速演进和不断迭代。类比于 Web2 世界的发展历程,从最初的 PHP 编程语言到更成熟、可扩展的方案如 Java、Ruby、Python,以及 JavaScript 和 Node.js 等,再到 Go 和 Rust 等新兴技术,都经历了不断的演变。AI 工具也在不断变化,新兴的 GPT 框架如 AutoGPT,Microsft AutoGen,及最近OpenAI 自己推出的 ChatGPT 4.0 Turbo 的 GPTs 和 Agents 等只是展示了未来可能性的一部分。这表明,区块链数据行业和 AI 技术都还有许多发展空间,需要不断努力和创新。 当前在应用 LLM 时,有两个陷阱需要特别注意: 期望值过高:很多人认为 LLM 可以解决一切问题,但实际上 LLM 有明显的局限性。它需要大量的计算资源,训练成本高昂,而且训练过程可能不稳定。对 LLM 的能力要有现实的期望,明白它在某些场景下表现出色,如自然语言处理和文本生成,但在其他领域可能无法胜任。 忽视业务需求:另一个陷阱是强行应用 LLM 技术,而不充分考虑业务需求。在应用 LLM 之前,务必明确具体的业务需求。需要评估 LLM 是否是最佳技术选择,并做好风险评估和控制。强调 LLM 的有效应用需要根据实际情况慎重考虑,避免误用。 尽管 LLM 在许多领域都具备巨大潜力,但开发者和研究者在应用 LLM 时需要保持谨慎,采取开放的探索态度,以找到更适合的应用场景并最大程度地发挥其优势。 关于Footprint Analytics Footprint Analytics是一家区块链数据解决方案提供商。借助尖端的人工智能技术,我们提供 Crypto 领域首家支持无代码数据分析平台以及统一的数据 API,让用户可以快速检索超过 30 条公链生态的 NFT,GameFi 以及 钱包地址资金流追踪数据。 关于Future3 Campus Future3 Campus是由万向区块链实验室和HashKey Capital共同发起的Web3.0创新孵化平台,重点聚焦Web3.0 Massive Adoption、DePIN、AI三大赛道,以上海、粤港澳大湾区、新加坡为主要孵化基地,辐射全球Web3.0生态。同时,Future3 Campus将推出首期5000万美金的种子基金用于Web3.0项目孵化,真正服务于Web3.0领域的创新创业。 来源:金色财经
lg
...
金色财经
2023-12-06
与AI安全完全无关 OpenAI闹剧只是科技界的权力斗争
go
lg
...
供了机会,让他们可以访问OpenAI、
Anthropic
、Google、Meta和许多其他开发者的AI模型,”该发言人说,“Quora本身并不从事训练模型的业务,我们的任务是让那些训练模型的人能够接触到大量受众。” 奥特曼被解职后,德安吉洛几乎没有进行过公开表态,但随着围绕他的冲突和动机传言四起,他在X上再次转发了Replit CEO马萨德的一篇帖文。“我与亚当·德安吉洛相识多年,”马萨德写道,“虽然我已经有段时间没和他说过话了,但认为他疯了或者他因为某些功能重迭或其他传言而怀恨在心的想法似乎是错误的。” 虽然奥特曼被罢免震惊了业界,但这并不是德安吉洛第一次突然间撤换公司领导者。2012年,他在Quora的联合创办人切弗(Charlie Cheever)也被罢免了。在回答Quora上的一个关于切弗从业状况的问题时,德安吉洛说,“我们认为”,让这位联合创办人脱离公司日常事务是“最好的决定”。 据一位知情人士透露,切弗对关系破裂几乎毫无察觉。事情来得太突然,以至于员工们哭着去切弗家探望,打听他为何离职。该人士说,关于这一决定或做此决定的原因,似乎没有进行过沟通,甚至对员工也是一样。自那以后,两位联合创办人几乎断了联络。 此后的10年,德安吉洛继续将Quora打造成一个分享各种知识的平台——尽管要实现Quora投资人拉博伊斯(Keith Rabois)在2010年的豪言壮语“Quora将成为2005年后估值最高的公司,句号。”中提出的远大目标还有很长的路要走。根据PitchBook的资料,Quora已从硅谷大佬那里筹集了约3亿美元,但在投入营运近15年后,它仍未上市或被收购。根据PitchBook的资料,截至2019年,该公司的估值为20亿美元。 六年前,在回答Quora上的一个问题时,德安吉洛说,随着技术“变得越发强大”,他预计AI可以“透过各种方式”帮到他的初创公司,包括帮“人们写出更好的答案”。但他同时表示,如果AI发展到了“可以做任何人类可以做的事情”的程度,那么一切都会变得没有定数。 “我认为,在那个世界里,某种形式的知识共享将非常重要,但AI的安全性是更大的问题,”他写道,“我觉得有些人现在考虑安全问题是件好事,但我个人认为,对那个世界心怀忐忑,而不是随着它的临近而去适应它,这是没有意义的。”第二年,他加入了OpenAI董事会。
lg
...
金融界
2023-12-04
加密与AI的碰撞:机遇、代表性项目及未来
go
lg
...
AI、Google Deepmind、
Anthropic
及许多其他公司,都在进行各自的研究和运营。 5、加密和人工智能领域的当前机遇 现在我们已经了解了AI和加密协同效应的有关基础知识,下面我们可以更详细地研究一下该领域的一些领先项目。虽然其中的大多数仍在积极努力地启动引导他们的网络、获取忠诚用户群及更广泛的来自加密社区的关注,但他们都奔走在行业的最前沿,是这个快速增长行业的优秀代表。 (1)Bittensor:去中心化人工智能模型网络 Bittensor是迄今为止Crypto & AI生态中最受欢迎也是最完善的项目。Bittensor是一个去中心化网络,旨在通过为众多分散的商品市场或“子网”创建一个平台,统一使用一个单一的代币系统,让人工智能领域更加民主化。它的使命是通过采用独特的激励机制和先进的子网架构,打造一个与OpenAI等AI领域的大型超级企业相媲美的网络。Bittensor系统可以视为是一台由区块链驱动的机器,可以有效地将AI功能带到链上。 该网络由两个关键参与者管理:矿工和验证者。矿工向网络提交预训练的人工智能模型,并因其贡献而获得奖励,而验证者则确保模型输出的有效性和准确性。这种设置创造了一个竞争环境,激励矿工不断改进他们的模型,以获得更好的性能和更高的TAO(网络的原生代币)回报。用户通过向验证者发送查询来与网络进行交互,验证者然后将这些查询分发给矿工。验证器对这些矿工的输出进行排序,并将排名最高的响应返回给用户。 Bittensor的模型开发方法是独一无二的。与许多人工智能实验室或研究机构不同,Bittensor由于训练模型的成本高且复杂并没有这么做。该网络依赖于去中心化训练机制。验证者(Validator)的任务是使用特定的数据集评估矿工生成的模型,并根据某些标准(如准确性和损失函数)对各模型打分。这种去中心化评估方式确保了模型性能得以持续改进。 Bittensor架构包括Yuma共识机制,这是一种工作量证明(PoW)和权益证明(PoS)的独特混合机制,它将资源分配到网络的子网中。子网是一个个独立的经济市场,每个市场都专注于不同的人工智能任务,如文本预测或图像生成,并且可以根据其功能选择加入或退出Yuma共识。 Bittensor是人工智能去中心化的重要一步,它提供了一个平台,可以以去中心化的方式开发、评估和改进各种人工智能模型。其独特的结构不仅激励了高质量人工智能模型的创建,还使人工智能技术的使用更加民主化,有望改变各个领域的AI开发和使用方式。 (2)Akash:开源超级云 Akash网络是一个创新的开源超级云平台,旨在安全有效地进行计算资源买卖。它的愿景是为用户提供部署自己的云基础设施以及购买和出售未使用的云资源的能力。这种灵活性不仅使云资源的使用更加民主化,还为需要扩展操作的用户提供了具成本效益的解决方案。 Akash系统的核心是一种逆向拍卖机制,用户可以根据自己的计算需求提交出价,供应商之间可以竞争提供服务,这通常会致使价格明显低于传统云系统。该系统的底层支撑是成熟可靠的Kubernetes和Cosmos等技术,确保平台安全可靠地托管应用程序。Akash的社区驱动方法确保其用户在网络的发展和治理中拥有发言权,使其成为真正的以用户为中心的公共服务。 Akash的基础设施是使用一种简单易用的、基于YAML的SDL来定义的,它允许用户跨多个领域和供应商创建复杂的部署。该特性与领先的容器编排系统Kubernetes相结合,不仅保证了部署的灵活性,还保证了应用程序托管的安全性和可靠性。此外,Akash提供持久存储解决方案,即使在重新启动后也能确保数据存留,这对于管理大型数据集的应用程序来说特别有好处。 总的来说,Akash网络作为一个去中心化的云平台脱颖而出,针对当前云服务供应商的垄断性问题提供了独特的解决方案。其利用了全球数百万数据中心中未充分利用的资源,这种模式不仅降低了成本,还提高了云原生应用程序的速度和效率。由于不需要重写专有语言,也不受供应商的限制,Akash为各种云应用程序提供了一个通用平台。 (3)Render:计算访问扩展平台 Render网络是一个区块链平台,旨在解决媒体生产中日益增长的计算需求,特别是在增强现实、虚拟现实和AI增强媒体等领域。它利用未使用的GPU周期将需要计算能力的内容创建者与拥有可用GPU资源的供应商连接起来。这种利用区块链技术的去中心化方法,确保了安全有效地处理基于GPU的任务,例如AI驱动的内容创建和优化。 Render网络的核心服务是其与人工智能的集成,这在内容创建和流程优化方面都起着至关重要的作用。该网络支持人工智能相关任务,使艺术家能够使用AI工具来生成资产并增强数字艺术品。这种集成允许创建超高分辨率的3D世界和优化的渲染过程,如AI去噪。此外,Render网络对人工智能的使用还扩展至大型艺术收藏管理和渲染工作流程优化,从而拓展了创作过程的可能性。 Render网络生态作为GPU资源市场,为艺术家、工程师和节点运营商等各方利益相关者提供服务。它使计算能力的使用更加民主化,使个人创作者和大型工作室能够负担得起复杂的渲染项目。该生态系统内交易使用RNDR代币进行,创造了一个以渲染服务为中心的充满活力的经济。随着人工智能继续重塑数字内容创作,Render网络将成为促进数字媒体领域新型创意表达和技术创新的关键参与者。 (4)Gensyn:去中心化计算平台 Gensyn是一个AI结合加密货币的项目,专注于攻破最先进的人工智能系统固有的计算挑战和资源限制。该项目旨在克服由构建基础模型所需的巨大资源需求而导致的AI发展障碍。Gensyn采用的方法是创建一个去中心化的区块链协议,以有效利用全局计算资源。 Gensyn的诞生背景突出了人工智能系统日益增加的计算复杂性,超过了可用计算供应。例如,训练像OpenAI GPT-4这样的大模型需要大量的资源,这给所有相关方造成了巨大障碍。这一动态催生了对能够有效利用所有可用计算资源的系统的需求,以应对当前解决方案的局限性,当前的解决方案要么过于昂贵,要么不足以胜任大规模人工智能任务。 Gensyn旨在通过创建一个去中心化协议来解决这个问题,该协议以一种经济高效的方式连接和验证链下深度学习任务。该协议面临着几大挑战,包括任务验证、市场动态、事前评估、隐私问题以及对深度学习模型高效并行化的需求。该协议旨在建立一个无需信任的计算网络,为提供参与激励,并提供一种方法来验证计算任务是否按承诺执行。 Gensyn协议是用于深度学习计算的第一层无需信任协议,奖励参与者贡献计算时间及执行ML任务。它使用了多种技术来验证完成的任务,包括概率学习证明、基于图形的pinpoint协议和Truebit类型的激励游戏。该系统涉及了各方参与者,如提交者(Submitter)、求解者(Solver)、验证者(Verifier)和告密者(Whistleblower),各参与者在计算过程中都有特定角色。 在实践中,Gensyn协议从任务提交到合约仲裁和结算包含了若干阶段。该协议旨在为机器学习(ML)计算创建一个透明的低成本市场,实现可扩展性和效率。该协议还为拥有强大GPU的矿工提供了一个机会,可以将他们的硬件用于机器学习计算,与主流供应商相比,成本可能更低。这种方法不仅解决了人工智能领域的计算挑战,还使人工智能资源的获取更加民主化。 (5)Fetch:人工智能经济开源平台 Fetch.ai的时间比前面提到的一些项目的时间还要长,其网站上提供各种各样的服务。Fetch核心上是一个人工智能(AI)和加密货币相结合的创新项目,旨在彻底改变经济活动和流程的执行方式。Fetch服务基于它的AI智能体,它被设计成模块化的构建块,可以被编程执行特定的任务。这些智能体能够自主连接、搜索和交易,从而创造动态市场,改变传统的经济活动格局。 Fetch的一项关键服务就是能够使传统产品与AI相结合。这是通过将它们的API与Fetch.ai智能体集成来实现的,集成过程很快,并且不需要更改底层业务应用程序。AI智能体可以与网络中的其他智能体相结合,为新的用例和商业模式开辟了可能性。此外,这些智能体还具有代表用户进行谈判和交易的能力,这让它们能够通过部署盈利。 另外,这些智能体还可以从机器学习模型中提供推论(inference),允许用户将他们的见解变现并强化他们的机器学习模型。 Fetch还引入了Agentverse,这是一种简化AI智能体部署的无代码管理服务。就像传统的无代码平台(Replit)越来越受欢迎,以及Github Copilot这样的服务让普通大众都能写代码一样,Fetch正在以自己独特的方式进一步推动web3开发的民主化。 通过Agentverse,用户可以毫不费力地启动他们的第一个智能体,这大大降低了使用先进人工智能技术的准入门槛。就人工智能引擎和智能体服务而言,Fetch利用大语言模型(LLM)来发现并将任务执行发送给适当的AI智能体。该系统不仅可以将AI应用和服务货币化,还可以作为构建、上市、分析、托管等智能体服务的综合平台。 该平台通过搜索、发现和分析等功能增强了效用。智能体可以在Agentverse中注册,以便易于在Fetch.ai平台上被识别发现,Fetch.ai平台采用了一种基于LLM的针对性搜索机制。分析工具可用于提高智能体语义描述符的有效性,从而增强其可发现性。此外,Fetch.ai为离线智能体集成了一个物联网网关,使它们能够收集消息并在重新连接时批量处理这些消息。 最后,Fetch.ai为管理智能体提供托管服务,除了托管服务之外,还提供了Agentverse的所有功能。该平台还引入了一个开源的智能体寻址和命名网络,利用了Fetch.ai的Web3网络。这就意味着一种新的Web DNS寻址方法,将区块链技术集成到系统中。总的来说,Fetch.ai提供了一个人工智能和区块链技术相结合的多功能平台,为AI智能体开发、机器学习模型货币化以及数字经济突破性的搜索和发现方法提供了工具。AI智能体和区块链技术的结合为以去中心化的高效方式自动化及优化各流程铺平了道路。 6、AI和加密行业的下一步是什么? 人工智能和区块链技术的无缝融合代表了这两个领域的关键进步。这种结合不仅仅是两种尖端技术的融合,更是一种变革性的协同作用,重新定义了数字创新和去中心化的边界。这种结合的潜在应用(正如在Fetch.ai、Bittensor、Akash Network、Render Network和Gensyn等项目所探讨的),展示了将AI的计算能力与区块链安全透明的框架相结合具有巨大的可能性和优势。 当我们展望未来时,很明显,人工智能和区块链的融合将在塑造各行各业上发挥关键作用。从增强数据安全性和完整性到创建去中心化自治组织新模式等等,这种融合有望带来更高效透明、更可访问的技术。特别是在去中心化金融领域,去中心化人工智能(DeAI)的出现可以使人工智能技术的使用更加民主化,打破传统上大公司垄断的障碍。这有望催生一个更具包容性的数字经济,在这样的未来经济中,个人和小型实体也可以享用以前遥不可及的人工智能工具和服务。 另外,AI和加密技术的集成也可以解决这两个领域中一些最紧迫的挑战。在人工智能领域,数据孤岛和训练大模型所需的巨大计算资源等问题可以通过区块链的去中心化数据管理和计算能力共享来缓解。在区块链领域,人工智能可以提高效率,自动化决策过程,并改善安全机制。开发人员、研究人员和利益相关者持续探索和利用人工智能和区块链之间的协同作用是至关重要的。这样一来,他们不仅能够促进这些独立领域的发展,还将推动整个数字领域的创新,最终让全社会受益。 来源:金色财经
lg
...
金色财经
2023-12-01
上一页
1
•••
27
28
29
30
31
•••
45
下一页
24小时热点
中国传大消息!上海正考虑绕过互联网“防火墙”的计划 以吸引更多外国投资
lg
...
中美突发重磅!美国议员推法案要求终止中国“永久正常贸易关系”地位和小额豁免待遇
lg
...
重磅!特朗普:与中国国家主席习近平的关系“非常好” 中美关系非常良好
lg
...
中美重大表态!特朗普称“宁愿不必对中国征收关税” 人民币大涨超300点
lg
...
特朗普一句话、美元与黄金突然“大变脸”!金价惊现V型反弹 如何交易黄金?
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
56讨论
#VIP会员尊享#
lg
...
1694讨论
#比特币最新消息#
lg
...
828讨论
#CES 2025国际消费电子展#
lg
...
19讨论