作者:Lucas Tcheyan,Galaxy副研究员;翻译:0xjs@果米财情
公链的出现是计算机科学历史上最深刻的进步之一。但AI的发展将会并且已经在对我们的世界产生深远的影响。如果说区块链技术为交易结算、数据存储和系统设计提供了新的模板,那么人工智能则是计算、分析和内容交付方面的一场革命。这两个行业的创新正在释放新的用例,从而可能在未来几年加速这两个行业的采用。本报告探讨了加密货币和AI的持续集成,重点关注试图弥合两者之间差距、利用两者力量的新颖用例。具体来说,本报告研究了开发去中心化计算协议、零知识机器学习 (zkML) 基础设施和AI智能体的项目。
加密货币为AI提供了无需许可、无需信任且可组合的结算层。这解锁了用例,例如通过去中心化计算系统使硬件更容易访问,构建可以执行需要价值交换的复杂任务的AI智能体,以及开发身份和溯源(provenance)解决方案来对抗女巫攻击和深度伪造。AI为加密货币带来了许多我们在 Web 2 中看到的相同好处。这包括由于大语言模型(即经过专门训练的ChatGPT 和 Copilot 版本)而为用户和开发人员增强的用户体验 (UX) 以及潜在的潜力显著提高智能合约功能和自动化。区块链是AI所需的透明的数据丰富环境。但区块链的计算能力也有限,这是直接集成AI模型的主要障碍。
加密货币和Ai交叉领域正在进行的实验和最终采用背后的驱动力与推动加密货币最有前途的用例的驱动力相同——访问无需许可和无需信任的协调层,从而更好地促进价值转移。鉴于巨大的潜力,该领域的参与者需要了解这两种技术交叉的基本方式。
在不久的将来(6个月到1年),加密货币和AI的集成将由AI应用程序主导,这些应用程序可以提高开发人员的效率、智能合约的可审计性和安全性以及用户的可访问性。这些集成并非特定于加密货币,而是增强了链上开发人员和用户体验。
正如高性能 GPU 严重短缺一样,去中心化计算产品正在实施AI定制的GPU产品,为采用提供了推动力。
用户体验和监管仍然是吸引去中心化计算客户的障碍。然而, OpenAI 的最新发展以及美国正在进行的监管审查凸显了无需许可、抗审查、去中心化的AI网络的价值主张。
链上AI集成,特别是能够使用人工智能模型的智能合约,需要改进 zkML 技术和其他验证链下计算的计算方法。缺乏全面的工具和开发人员人才以及高昂的成本是采用的障碍。
AI智能体非常适合加密货币,用户(或智能体本身)可以创建钱包以与其他服务、智能体或人员进行交易。目前使用传统的金融方法无法实现这一点。为了更广泛的采用,需要与非加密产品进行额外的集成。
AI是利用计算和机器来模仿人类推理和解决问题的能力。
神经网络是人工智能模型的一种训练方法。他们通过离散的算法层运行输入,对其进行改进,直到产生所需的输出。神经网络由具有权重的方程组成,可以修改权重来改变输出。它们可能需要大量的数据和计算来进行训练,以便其输出准确。这是开发 AI 模型最常见的方式之一(ChatGPT 使用依赖于Transformer 神经网络过程)。
训练是开发神经网络和其他人工智能模型的过程。它需要大量数据来训练模型以正确解释输入并产生准确的输出。在训练过程中,模型方程的权重不断修改,直到产生令人满意的输出。培训费用可能非常昂贵。例如,ChatGPT使用数万个自己的 GPU 来处理数据。资源较少的团队通常依赖专门的计算提供商,例如 Amazon Web Services、Azure 和 Google Cloud 提供商。
推理是实际使用 AI 模型来获取输出或结果(例如,使用 ChatGPT 为有关加密货币和 AI 交叉点的论文创建大纲)。在整个培训过程和最终产品中都会使用推理。由于计算成本的原因,即使在训练完成后,它们的运行成本也可能很高,但其计算强度低于训练。
零知识证明 (ZKP)允许在不泄露基础信息的情况下验证声明。这在加密货币中很有用,主要有两个原因:1) 隐私和 2) 扩展。为了保护隐私,这使用户能够在不泄露敏感信息(例如钱包中有多少 ETH)的情况下进行交易。对于扩展而言,它使链下计算能够比重新执行计算更快地在链上得到证明。这使得区块链和应用程序能够廉价地在链下运行计算,然后在链上验证它们。
AI和加密货币交叉的项目仍在构建支持大规模链上人工智能交互所需的底层基础设施。
去中心化计算市场正在兴起,以提供训练和推理人工智能模型所需的大量物理硬件,主要以GPU的形式。这些双向市场将那些租赁和寻求租赁计算的人连接起来,促进价值的转移和计算的验证。在去中心化计算中,正在出现几个提供附加功能的子类别。除了双边市场之外,本报告还将审查专门提供可验证训练和微调输出的机器学习训练提供商,以及致力于连接计算和模型生成以实现AI的项目,也经常被称为智能激励网络。
zkML是希望以经济有效且及时的方式在链上提供可验证模型输出的项目的一个新兴重点领域。这些项目主要使应用程序能够处理链下繁重的计算请求,然后在链上发布可验证的输出,证明链下工作负载是完整且准确的。 zkML 在当前实例中既昂贵又耗时,但越来越多地被用作解决方案。这在 zkML 提供商和想要利用 AI 模型的 DeFi/游戏应用程序之间的集成数量不断增加中显而易见。
充足的计算供应以及验证链上计算的能力为链上AI智能体打开了大门。智能体是经过训练的模型,能够代表用户执行请求。智能体提供了显著增强链上体验的机会,使用户只需与聊天机器人对话即可执行复杂的交易。然而,就目前而言,智能体项目仍然专注于开发基础设施和工具,以实现轻松快速的部署。
AI需要大量计算来训练模型和运行推理。在过去的十年中,随着模型变得越来越复杂,计算需求呈指数级增长。例如,OpenAI发现,从 2012 年到 2018 年,其模型的计算需求从每两年翻一番变为每三个半月翻一番。这导致对 GPU 的需求激增,一些加密货币矿工甚至重新利用其 GPU来提供云计算服务。随着访问计算的竞争加剧和成本上升,一些项目正在利用加密技术来提供去中心化计算解决方案。他们以具有竞争力的价格提供按需计算,以便团队能够以经济实惠的方式训练和运行模型。在某些情况下,权衡的是性能和安全性。
最先进的 GPU(例如Nvidia生产的 GPU)的需求量很大。2023年 9 月,Tether收购了德国比特币矿商 Northern Data 的股份,据报道,该公司斥资 4.2 亿美元购买了 10,000 个 H100 GPU(用于 AI 训练的最先进 GPU 之一)。获得一流硬件的等待时间可能至少为六个月,在许多情况下甚至更长。更糟糕的是,公司经常被要求签署长期合同,以获取他们甚至可能不会使用的计算量。这可能会导致存在可用计算但市场上不可用的情况。去中心化计算系统有助于解决这些市场效率低下的问题,创建一个二级市场,计算所有者可以在接到通知后立即转租其过剩容量,从而释放新的供应。
除了有竞争力的定价和可访问性之外,去中心化计算的关键价值主张是抗审查性。尖端AI开发日益由拥有无与伦比的计算和数据访问能力的大型科技公司主导。AI指数报告2023年年度报告中强调的第一个关键主题是,工业界在AI模型的开发方面日益超越学术界,将控制权集中在少数技术领导者手中。这引发了人们的担忧,即他们是否有能力在制定支撑AI模型的规范和价值观方面产生巨大影响力,特别是在这些科技公司推动监管以限制其无法控制的人工智能开发之后。
近年来出现了几种去中心化计算模型,每种模型都有自己的重点和权衡。
Akash、io.net、iExec、Cudos 等项目都是去中心化计算应用程序,除了数据和通用计算解决方案之外,它们还提供或即将提供用于 AI 训练和推理的专用计算的访问权限。
Akash是目前唯一完全开源的“超级云”平台。它是使用 Cosmos SDK 的权益证明网络。 AKT 是 Akash 的原生代币,作为一种支付形式,用于保护网络安全并激励参与。 Akash 于 2020 年推出了第一个主网,专注于提供无需许可的云计算市场,最初以存储和 CPU 租赁服务为特色。 2023 年 6 月,Akash推出了一个专注于 GPU 的新测试网,并于 9 月推出了GPU 主网,使用户能够租赁 GPU 进行人工智能训练和推理。
Akash 生态系统中有两个主要参与者——租户和供应商。租户是想要购买 Akash网络计算资源的用户。供应商是计算资源供应商。为了匹配租户和供应商,Akash 依靠逆向拍卖流程。租户提交他们的计算要求,在其中他们可以指定某些条件,例如服务器的位置或进行计算的硬件类型,以及他们愿意支付的金额。然后,供应商提交他们的要价,最低出价者将获得任务。
Akash 验证者维护网络的完整性。验证者集目前限制为 100 个,并计划随着时间的推移逐步增加。任何人都可以通过质押比当前质押 AKT 数量最少的验证者更多的 AKT 来成为验证者。 AKT 持有者还可以将其 AKT 委托给验证者。网络的交易费用和区块奖励以 AKT 形式分配。此外,对于每笔租赁,Akash 网络都会按照社区确定的费率赚取“收取费用”,并将其分配给 AKT 持有者。
去中心化计算市场旨在填补现有计算市场的低效率。供应限制导致公司囤积超出其可能需要的计算资源,并且由于与云提供商的合同结构将客户锁定在长期合同中,即使可能不需要持续访问,供应也进一步受到限制。去中心化计算平台释放了新的供应,使世界上任何拥有计算需求的人都可以成为供应商。
AI 训练对 GPU 的需求激增是否会转化为 Akash 上的长期网络使用还有待观察。例如,Akash 长期以来一直为 CPU 提供市场,以70-80% 的折扣提供与中心化替代品类似的服务。然而,较低的价格并没有带来显著的采用。网络上的活跃租约已经趋于平缓,到 2023 年第二季度,平均只有 33% 的计算、16% 的内存和 13% 的存储。虽然这些都是链上采用的令人印象深刻的指标(作为参考,领先的存储提供商 Filecoin 已经2023 年第三季度存储利用率为 12.6%),这表明这些产品的供应继续超过需求。
Akash 推出 GPU 网络已经过去半年多了,现在准确评估长期采用率还为时过早。迄今为止,GPU 的平均利用率为 44%,高于 CPU、内存和存储,这是需求的一个迹象。这主要是由对最高质量 GPU(如 A100)的需求推动的,超过90%已出租。
Akash 的每日支出也有所增加,相对于 GPU 出现之前几乎翻了一番。这部分归因于其他服务使用量的增加,尤其是 CPU,但主要是新 GPU 使用量的结果。
定价与Lambda Cloud 和 Vast.ai 等中心化竞争对手相当(或者在某些情况下甚至更贵)。对最高端 GPU(例如 H100 和 A100)的巨大需求意味着该设备的大多数所有者对在面临竞争性定价的市场上市兴趣不大。
虽然最初的兴趣很有希望,但采用仍然存在障碍(下面进一步讨论)。去中心化计算网络需要采取更多措施来产生需求和供应,团队正在尝试如何最好地吸引新用户。例如,2024 年初,Akash 通过了第 240 号提案,增加 GPU 供应商的 AKT 排放量并激励更多供应,特别针对高端 GPU。团队还致力于推出概念验证模型,向潜在用户展示其网络的实时功能。 Akash 正在训练他们自己的基础模型,并且已经推出了聊天机器人和图像生成产品,可以使用 Akash GPU 创建输出。同样,io.net开发了stable diffusion模型,并正在推出新的网络功能,更好地模仿传统 GPU 数据中心的性能和规模。
除了能够满足AI需求的通用计算平台外,一组专注于机器学习模型训练的专业AI GPU供应商也正在兴起。例如,Gensyn正在“协调电力和硬件来构建集体智慧”,其观点是,“如果有人想要训练某些东西,并且有人愿意训练它,那么就应该允许这种训练发生。”
该协议有四个主要参与者:提交者(submitters)、求解者(solvers)、验证者(verifiers)和吹哨者(whistleblowers)。提交者向网络提交带有培训请求的任务。这些任务包括训练目标、要训练的模型和训练数据。作为提交过程的一部分,提交者需要为求解者所需的估计计算量预先支付费用。
提交后,任务将分配给对模型进行实际训练的求解者。然后,求解者将已完成的任务提交给验证者,验证者负责检查训练以确保正确完成。吹哨者有责任确保验证者诚实行事。为了激励吹哨者参与网络,Gensyn 计划定期提供故意错误的证据,奖励吹哨者抓住他们。
除了为人工智能相关工作负载提供计算之外,Gensyn 的关键价值主张是其验证系统,该系统仍在开发中。为了确保 GPU 供应商的外部计算正确执行(即确保用户的模型按照他们希望的方式进行训练),验证是必要的。 Gensyn 采用独特的方法解决了这个问题,利用了称为“概率学习证明、基于图形的精确协议和 Truebit 式激励游戏”的新颖验证方法。这是一种乐观求解模式,允许验证者确认求解者已正确运行模型,而无需自己完全重新运行模型,完全重新运行模型是一个成本高昂且低效的过程。
除了其创新的验证方法之外,Gensyn 还声称相对于中心化替代方案和加密货币竞争对手而言具有成本效益,提供的 ML 训练价格比 AWS 便宜高达 80%,同时在测试方面胜过 Truebit 等类似项目。
这些初步结果是否可以在去中心化网络中大规模复制还有待观察。 Gensyn 希望利用小型数据中心、零售用户以及未来手机等小型移动设备等提供商的多余计算能力。然而,正如 Gensyn 团队自己所承认的那样,依赖异构计算提供商带来了一些新的挑战。
对于 Google Cloud Providers 和 Coreweave 等中心化供应商来说,计算成本昂贵,而计算之间的通信(带宽和延迟)却很便宜。这些系统旨在尽快实现硬件之间的通信。 Gensyn 颠覆了这一框架,通过让世界上任何人都可以提供 GPU 来降低计算成本,但同时也增加了通信成本,因为网络现在必须在相距较远的异构硬件上协调计算作业。 Gensyn 尚未推出,但它是构建去中心化机器学习训练协议时可能实现的概念证明。
去中心化计算平台也为AI创建方法的设计提供了可能性。 Bittensor是一种基于 Substrate 构建的去中心化计算协议,试图回答“我们如何将AI转变为协作方法?”的问题。 Bittensor 旨在实现AI生成的去中心化和商品化。该协议于 2021 年推出,希望利用协作机器学习模型的力量来不断迭代并产生更好的AI。
Bittensor 从比特币中汲取灵感,其原生货币 TAO 的供应量为 2100 万,减半周期为四年(第一次减半将于 2025 年)。 Bittensor 不是使用工作量证明来生成正确的随机数并获得区块奖励,而是依赖于“智能证明”(Proof of Intelligence),要求矿工运行模型来响应推理请求而生成输出。
激励智能
Bittensor 最初依赖专家混合 (MoE) 模型来生成输出。当提交推理请求时,MoE 模型不会依赖一个广义模型,而是将推理请求转发给给定输入类型的最准确的模型。想象一下建造一栋房子,你聘请了各种专家来负责施工过程的不同方面(例如:建筑师、工程师、油漆工、建筑工人等......)。 MoE 将其应用于机器学习模型,尝试根据输入利用不同模型的输出。正如 Bittensor 创始人 Ala Shaabana所解释的那样,这就像“与一屋子聪明人交谈并获得最佳答案,而不是与一个人交谈”。由于在确保正确路由、消息同步到正确模型以及激励方面存在挑战,这种方法已被搁置,直到项目得到进一步开发。
Bittensor 网络中有两个主要参与者:验证者和矿工。验证者的任务是向矿工发送推理请求,审查他们的输出,并根据他们的响应质量对它们进行排名。为了确保他们的排名可靠,验证者会根据他们的排名与其他验证者排名的一致程度给予“vtrust”分数。验证者的 vtrust 分数越高,他们获得的 TAO 币就越多。这是为了激励验证者随着时间的推移就模型排名达成共识,因为就排名达成一致的验证者越多,他们的个人 vtrust 分数就越高。
矿工,也称为服务者,是运行实际机器学习模型的网络参与者。矿工们相互竞争,为验证者提供针对给定查询的最准确的输出,输出越准确,赚取的 TAO 就越多。矿工可以随心所欲地生成这些输出。例如,在未来的情况下,Bittensor 矿工完全有可能之前在 Gensyn 上训练过模型,并用它们来赚取 TAO 。
如今,大多数交互直接发生在验证者和矿工之间。验证者向矿工提交输入并请求输出(即训练模型)。一旦验证者查询网络上的矿工并收到他们的响应,他们就会对矿工进行排名并将其排名提交到网络。
验证者(依赖 PoS)和矿工(依赖模型证明,PoW 的一种形式)之间的这种互动被称为 Yuma 共识。它旨在激励矿工产生最佳输出来赚取 TAO ,并激励验证者对矿工输出进行准确排名,以获得更高的 vtrust 分数并增加他们的 TAO 奖励,从而形成网络的共识机制。
子网和应用程序
Bittensor 上的交互主要包括验证者向矿工提交请求并评估其输出。然而,随着贡献矿工的质量提高和网络整体智能的增长,Bittensor 将在其现有堆栈之上创建一个应用程序层,以便开发人员可以构建查询 Bittensor 网络的应用程序。
2023 年 10 月,Bittensor 通过 Revolution 升级引入了子网,朝着实现这一目标迈出了重要一步。子网是 Bittensor 上激励特定行为的单独网络。 Revolution 向任何有兴趣创建子网的人开放网络。自发布以来的几个月内,已经启动了超过32 个子网,包括用于文本提示、数据抓取、图像生成和存储的子网。随着子网的成熟并成为产品就绪,子网创建者还将创建应用程序集成,使团队能够构建查询特定子网的应用程序。一些应用程序(聊天机器人、图像生成器、推特回复机器人、预测市场)目前已经存在,但除了 Bittensor 基金会的资助之外,没有正式的激励措施让验证者接受和转发这些查询。
为了提供更清晰的说明,下面是一个示例,说明应用程序集成到网络中后 Bittensor 可能如何工作。
子网根据根网络(root network)评估的性能赚取 TAO 。根网络位于所有子网之上,本质上充当一种特殊的子网,并由 64 个最大的子网验证者按权益进行管理。根网络验证者根据子网的性能对子网进行排名,并定期将排放的TAO 代币分配给子网。通过这种方式,各个子网充当根网络的矿工。
Bittensor展望
Bittensor仍在经历成长的烦恼,因为它扩展了协议的功能以激励跨多个子网的智能生成。矿工们不断设计新的方法来攻击网络以获得更多 TAO 奖励,例如通过稍微修改其模型运行的高评价推理的输出,然后提交多个变体。影响整个网络的治理提案只能由完全由 Opentensor 基金会利益相关者组成的Triumvirate提交和实施(需要注意的是,提案需要在实施之前得到由 Bittensor 验证者组成的 Bittensor 参议院的批准)。该项目的代币经济正在进行修改,以提高对 TAO 跨子网使用的激励。该项目还因其独特的方法而迅速获得名声,最受欢迎的人工智能网站之一HuggingFace的首席执行官表示 Bittensor 应该将其资源添加到该网站。
在核心开发人员最近发表的一篇名为“Bittensor Paradigm”的文章中,该团队阐述了 Bittensor 的愿景,即最终发展为“对所测量的内容不可知”。理论上,这可以使 Bittensor 开发子网来激励所有由 TAO 支持的任何类型的行为。仍然存在相当大的实际限制——最值得注意的是,证明这些网络能够扩展以处理如此多样化的流程,并且潜在的激励措施推动的进步超过了中心化产品。
上述部分提供了正在开发的各种类型的去中心化AI计算协议的粗略概述。在其开发和采用的早期,它们提供了生态系统的基础,最终可以促进“AI构建块”的创建,例如 DeFi 的“货币乐高”概念。无需许可的区块链的可组合性为每个协议构建在另一个协议之上提供了可能性,以提供更全面的去中心化人工智能生态系统。
例如,这是 Akash、Gensyn 和 Bittensor 可能全部交互以响应推理请求的一种方式。
需要明确的是,这只是未来可能发生的事情的一个例子,而不是当前生态系统、现有合作伙伴关系或可能结果的代表。互操作性的限制以及下面描述的其他考虑因素极大地限制了当今的集成可能性。除此之外,流动性破碎化和使用多种代币的需要可能会损害用户体验,Akash 和 Bittensor 的创始人都指出了这一点。
除了计算之外,还推出了其他几种去中心化基础设施服务,以支持加密货币新兴的AI生态系统。
列出所有这些超出了本报告的范围,但一些有趣且说明性的示例包括:
Ocean:一个去中心化的数据市场。用户可以创建代表其数据的数据 NFT,并可以使用数据代币进行购买。用户既可以将其数据货币化,又可以对其拥有更大的主权,同时为AI团队提供开发和训练模型所需的数据的访问权限。
Grass:一个去中心化的带宽市场。用户可以将多余的带宽出售给AI公司,后者利用这些带宽从互联网上抓取数据。Grass建立在Wynd 网络之上,这不仅使个人能够将其带宽货币化,而且还为带宽购买者提供了更多样化的观点来了解个人用户在网上看到的内容(因为个人的互联网访问通常是根据其 IP 地址专门定制的) )。
HiveMapper:构建一个去中心化的地图产品,其中包含从日常汽车驾驶员收集的信息。 HiveMapper 依靠 AI 来解释从用户仪表板摄像头收集的图像,并奖励用户通过强化人类学习反馈 (RHLF) 帮助微调 AI 模型的代币。
总的来说,这些都指向探索支持AI模型的去中心化市场模型或开发它们所需的周边基础设施的几乎无限的机会。目前,这些项目大多处于概念验证阶段,需要更多的研究和开发来证明它们能够以提供全面人工智能服务所需的规模运行。
去中心化计算产品仍处于开发的早期阶段。他们刚刚开始推出最先进的计算能力,能够在生产中训练最强大的AI模型。为了获得有意义的市场份额,他们需要展示与中心化替代方案相比的实际优势。更广泛采用的潜在触发因素包括:
GPU 供应/需求。 GPU 的稀缺加上快速增长的计算需求正在导致 GPU 军备竞赛。由于 GPU 的限制,OpenAI 已经一度限制对其平台的访问。 Akash 和 Gensyn 等平台可以为需要高性能计算的团队提供具有成本竞争力的替代方案。对于去中心化计算提供商来说,未来 6-12 个月是一个特别独特的机会来吸引新用户,由于缺乏更广泛的市场准入,这些新用户被迫考虑去中心化产品。再加上 Meta 的 LLaMA 2 等性能日益提高的开源模型,用户在部署有效的微调模型时不再面临同样的障碍,使计算资源成为主要瓶颈。然而,平台本身的存在并不能确保足够的计算供应和消费者的相应需求。采购高端 GPU 仍然很困难,而且成本并不总是需求方的主要动机。这些平台将面临挑战,以展示使用去中心化计算选项的实际好处(无论是由于成本、审查阻力、正常运行时间和弹性还是可访问性)来积累粘性用户。他们必须快速行动。 GPU 基础设施投资和建设正在以惊人的速度进行。
监管。监管仍然是去中心化计算运动的阻力。短期内,缺乏明确的监管意味着提供商和用户都面临使用这些服务的潜在风险。如果供应商提供计算或买方在不知情的情况下从受制裁实体购买计算怎么办?用户可能会犹豫是否使用缺乏中心化实体控制和监督的去中心化平台。协议试图通过将控制纳入其平台或添加过滤器以仅访问已知的计算提供商(即提供了解你的客户KYC信息)来减轻这些担忧,但需要更强大的方法在确保合规性的同时保护隐私。短期内,我们可能会看到 KYC 和合规平台的出现,这些平台限制对其协议的访问,以解决这些问题。此外,围绕美国可能的新监管框架的讨论(最好的例子是《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》的发布)凸显了进一步限制 GPU 获取的监管行动的潜力。
审查。监管是双向的,去中心化的计算产品可以从限制AI访问的行动中受益。除了行政命令之外,OpenAI 创始人 Sam Altman 还在 国会作证,说明监管机构需要为人工智能开发颁发许可证。关于人工智能监管的讨论才刚刚开始,但任何此类限制访问或审查AI功能的尝试都可能加速不存在此类障碍的去中心化平台的采用。2023年11月OpenAI 领导层变动(或缺乏)进一步表明,将最强大的现有AI模型的决策权授予少数人是有风险的。此外,所有AI模型都必然反映了创建它们的人的偏见,无论是有意还是无意。消除这些偏差的一种方法是使模型尽可能开放地进行微调和训练,确保任何地方的任何人都可以访问各种类型和偏差的模型。
数据隐私。 当与为用户提供数据自主权的外部数据和隐私解决方案集成时,去中心化计算可能会比中心化替代方案更具吸引力。当三星意识到工程师正在使用 ChatGPT 帮助芯片设计并将敏感信息泄露给 ChatGPT 时,三星成为了这一事件的受害者。 Phala Network 和 iExec 声称为用户提供 SGX 安全飞地来保护用户数据,并且正在进行的全同态加密研究可以进一步解锁确保隐私的去中心化计算。随着AI进一步融入我们的生活,用户将更加重视能够在具有隐私保护的应用程序上运行模型。用户还需要支持数据可组合性的服务,以便他们可以将数据从一种模型无缝移植到另一种模型。
用户体验(UX)。 用户体验仍然是更广泛采用所有类型的加密应用程序和基础设施的重大障碍。这对于去中心化计算产品来说并没有什么不同,并且在某些情况下,由于开发人员需要了解加密货币和人工智能,这会加剧这种情况。需要从基础知识进行改进,例如登入抽象与区块链的交互,以提供与当前市场领导者相同的高质量输出。鉴于许多提供更便宜产品的可操作的去中心化计算协议很难获得常规使用,这一点显而易见。
智能合约是任何区块链生态系统的核心构建块。在给定一组特定条件的情况下,它们会自动执行并减少或消除对受信任第三方的需求,从而能够创建复杂的去中心化应用程序,例如 DeFi 中的应用程序。然而,由于智能合约目前大部分存在,其功能仍然受到限制,因为它们根据必须更新的预设参数执行。
例如,部署的借贷协议智能合约包含根据特定贷款与价值比率何时清算头寸的规范。虽然在静态环境中有用,但在风险不断变化的动态情况下,这些智能合约必须不断更新以适应风险承受能力的变化,这给不通过中心化流程管理的合约带来了挑战。例如,依赖去中心化治理流程的 DAO 可能无法快速反应以应对系统性风险。
集成AI(即机器学习模型)的智能合约是增强功能、安全性和效率同时改善整体用户体验的一种可能方法。然而,这些集成也带来了额外的风险,因为不可能确保支撑这些智能合约的模型不会被攻击或解释长尾情况(鉴于数据输入的稀缺,长尾情况很难训练模型)。
机器学习需要大量的计算来运行复杂的模型,这使得AI模型由于成本高昂而无法直接在智能合约中运行。例如,为用户提供收益优化模型的 DeFi 协议将很难在链上运行该模型,而无需支付过高的Gas费。一种解决方案是增加底层区块链的计算能力。然而,这也增加了对链验证者集的要求,可能会破坏去中心化特性。相反,一些项目正在探索使用 zkML 以无需信任的方式验证输出,而不需要密集的链上计算。
说明 zkML 有用性的一个常见示例是,用户需要其他人通过模型运行数据并验证其交易对手实际上运行了正确的模型。也许开发人员正在使用去中心化计算提供商来训练他们的模型,并担心该提供商试图通过使用输出差异几乎无法察觉的更便宜的模型来削减成本。 zkML 使计算提供商能够通过其模型运行数据,然后生成可以在链上验证的证明,以证明给定输入的模型输出是正确的。在这种情况下,模型提供者将具有额外的优势,即能够提供他们的模型,而不必透露产生输出的基础权重。
也可以做相反的事情。如果用户想要使用他们的数据运行模型,但由于隐私问题(比如在医疗检查或专有商业信息的情况下),不希望提供模型的项目访问他们的数据,那么用户可以在他们的数据上运行模型而不共享数据,然后通过证明验证他们运行了正确的模型。这些可能性通过解决令人望而却步的计算限制,极大地扩展了人工智能和智能合约功能集成的设计空间。
鉴于 zkML 领域的早期状态,开发主要集中在构建团队所需的基础设施和工具,以将其模型和输出转换为可以在链上验证的证明。这些产品尽可能地抽象了开发的零知识方面。
EZKL和Giza是通过提供机器学习模型执行的可验证证明来构建此工具的两个项目。两者都帮助团队构建机器学习模型,以确保这些模型可以在链上以可信方式验证结果的方式执行。这两个项目都使用开放神经网络交换 (ONNX) 将用 TensorFlow 和 Pytorch 等通用语言编写的机器学习模型转换为标准格式。然后,他们输出这些模型的版本,这些模型在执行时也会生成 zk 证明。 EZKL 是开源的,生产 zk-SNARKS,而 Giza 是闭源的,生产 zk-STARKS。这两个项目目前仅兼容 EVM。
过去几个月,EZKL 在增强 zkML 解决方案方面取得了重大进展,主要集中在降低成本、提高安全性和加快证明生成速度。例如,2023 年 11 月,EZKL 集成了一个新的开源 GPU 库,可将聚合证明时间缩短 35%;1 月,EZKL发布了Lilith,这是一种软件解决方案,用于在使用 EZKL 证明时集成高性能计算集群和编排并发作业系统。 Giza 的独特之处在于,除了提供用于创建可验证的机器学习模型的工具之外,他们还计划实现相当于Hugging Face的 web3 ,为 zkML 协作和模型共享开辟用户市场,并最终集成去中心化计算产品。一月份,EZKL 发布了一项基准评估,比较了 EZKL、Giza 和 RiscZero(如下所述)的性能。 EZKL 展示了更快的证明时间和内存使用。
Modulus Labs还在开发一种专为 AI 模型定制的新的 zk-proof 技术。 Modulus 发表了一篇名为《智能的成本》(The Cost of Intelligence )的论文(暗示在链上运行 AI 模型的成本极高),该论文对当时现有的 zk-proof 系统进行了基准测试,以确定改进 AI 模型 zk-proofs 的能力和瓶颈。该论文于 2023 年 1 月发布,表明现有产品过于昂贵且效率低下,无法大规模实现AI应用。在最初研究的基础上,Modulus 在 11 月推出了Remainder,这是一种专门的零知识证明器,专门用于降低 AI 模型的成本和证明时间,目标是使项目在经济上可行,将模型大规模集成到智能合约中。他们的工作是闭源的,因此无法与上述解决方案进行基准测试,但最近在 Vitalik关于加密和人工智能的博客文章中引用了他们的工作。
工具和基础设施开发对于 zkML 空间的未来增长至关重要,因为它可以显著减少需要部署运行可验证的链下计算所需的 zk 电路的团队的摩擦。创建安全接口,使从事机器学习工作的非加密原生构建者能够将他们的模型带到链上,这将使应用程序能够通过真正新颖的用例进行更大的实验。工具还解决了更广泛采用 zkML 的一个主要障碍,即缺乏知识渊博且对零知识、机器学习和密码学交叉领域工作感兴趣的开发人员。
正在开发的其他解决方案(称为“协处理器”)包括RiscZero 、Axiom和Ritual。协处理器这个术语主要是语义上的——这些网络履行许多不同的角色,包括在链上验证链下计算。与 EZKL、Giza 和 Modulus 一样,他们的目标是完全抽象零知识证明生成过程,创建本质上能够执行链下程序并生成链上验证证明的零知识虚拟机。 RiscZero 和 Axiom 可以为简单的 AI 模型提供服务,因为它们是更通用的协处理器,而 Ritual 是专门为与 AI 模型一起使用而构建的。
Infernet是 Ritual 的第一个实例,包含一个Infernet SDK,允许开发人员向网络提交推理请求并接收输出和证明(可选)作为回报。 Infernet 节点接收这些请求并在返回输出之前处理链下计算。例如,DAO 可以创建一个流程,确保所有新的治理提案在提交之前满足某些先决条件。每次提交新提案时,治理合约都会通过 Infernet 触发推理请求,调用 DAO 特定治理训练的 AI 模型。该模型审查提案以确保提交所有必要的标准,并返回输出和证据,批准或拒绝提案的提交。
在接下来的一年里,Ritual 团队计划推出更多功能,形成称为 Ritual 超级链的基础设施层。前面讨论的许多项目都可以作为服务提供商插入 Ritual。 Ritual 团队已经与 EZKL 集成以生成证明,并且可能很快会添加其他领先提供商的功能。Ritual 上的 Infernet 节点还可以使用 Akash 或 io.net GPU 以及在 Bittensor 子网上训练的查询模型。他们的最终目标是成为开放AI基础设施的首选提供商,能够为任何网络、任何工作负载的机器学习和其他AI相关任务提供服务。
zkML有助于调和区块链和人工智能之间的矛盾,前者本质上是资源受限的,而后者需要大量的计算和数据。正如 Giza 的一位创始人所说,“用例非常丰富……这有点像以太坊早期问智能合约的用例是什么……我们所做的只是扩展智能合约的用例。 ”然而,如上所述,当今的开发主要发生在工具和基础设施级别。应用仍处于探索阶段,团队面临的挑战是证明使用 zkML 实现模型所产生的价值超过了其复杂性和成本。
目前的一些应用包括:
去中心化金融。 zkML通过增强智能合约能力,升级了DeFi的设计空间。 DeFi 协议为机器学习模型提供大量可验证且不可篡改的数据,可用于生成收益获取或交易策略、风险分析、用户体验等。例如,Giza与Yearn Finance合作,为 Yearn 的新 v3 金库构建概念验证自动风险评估引擎。 Modulus Labs与Lyra Finance合作将机器学习纳入其 AMM,与 Ion Protocol合作实施分析验证者风险的模型,并帮助Upshot验证其人工智能支持的 NFT 价格信息。 NOYA(利用 EZKL)和Mozaic等协议提供了对专有链下模型的访问,这些模型使用户能够访问自动化流动性挖矿,同时使他们能够验证链上的数据输入和证明。 Spectral Finance正在构建链上信用评分引擎,以预测Compound或Aave借款人拖欠贷款的可能性。由于 zkML,这些所谓的“De-Ai-Fi”产品在未来几年可能会变得更加流行。
游戏。 长期以来,游戏一直被认为可以通过公链进行颠覆和增强。 zkML 使人工智能的链上游戏成为可能。 Modulus Labs已经实现了简单链上游戏的概念验证。 Leela vs the World是一款博弈论国际象棋游戏,用户在其中对抗 AI 国际象棋模型,zkML 验证 Leela 所做的每一步都是基于游戏运行的模型。同样,团队也使用 EZKL 框架来构建简单的歌唱比赛和链上井字游戏。 Cartridge正在使用Giza使团队能够部署完全链上游戏,最近重点引入了一款简单的人工智能驾驶游戏,用户可以竞争为试图避开障碍物的汽车创建更好的模型。虽然简单,但这些概念验证指向未来的实现,能够实现更复杂的链上验证,例如能够与游戏内经济体进行交互的复杂 NPC 演员,如《 AI Arena》中所见,这是一款超级大乱斗游戏,玩家可以在其中训练自己的战士,然后部署为AI模型进行战斗。
身份、溯源和隐私。 加密货币已经被用作验证真实性和打击越来越多的人工智能生成/操纵内容和深度伪造的手段。 zkML 可以推进这些努力。 WorldCoin 是一种身份证明解决方案,要求用户扫描虹膜以生成唯一的 ID。未来,生物识别 ID 可以使用加密存储在个人设备上进行自我托管,并使用验证本地运行的生物识别所需的模型。然后,用户可以提供生物识别证据,而无需透露自己的身份,从而在确保隐私的同时抵御女巫攻击。这也可以应用于需要隐私的其他推论,例如使用模型分析医疗数据/图像来检测疾病、验证人格并在约会应用程序中开发匹配算法,或者需要验证财务信息的保险和贷款机构。
zkML 仍处于实验阶段,大多数项目都专注于构建基础设施原语和概念证明。如今的挑战包括计算成本、内存限制、模型复杂性、有限的工具和基础设施以及开发人员人才。简而言之,在 zkML 能够以消费产品所需的规模实施之前,还有相当多的工作要做。
然而,随着该领域的成熟以及这些限制的解决,zkML将成为AI和加密集成的关键组成部分。从本质上讲,zkML 承诺能够将任何规模的链下计算引入链上,同时保持与链上运行相同或接近相同的安全保证。然而,在这一愿景实现之前,该技术的早期用户将继续必须在 zkML 的隐私和安全性与替代方案的效率之间进行权衡。
AI和加密货币最令人兴奋的集成之一是正在进行的AI智能体实验。智能体是能够使用AI模型接收、解释和执行任务的自主机器人。这可以是任何事情,从拥有一个随时可用的根据你的偏好进行微调的个人助理,到雇用一个根据你的风险偏好来管理和调整你的投资组合的金融机器人。
由于加密货币提供了无需许可和无需信任的支付基础设施,智能体和加密货币可以很好地结合在一起。经过培训后,智能体将获得一个钱包,以便他们可以自行使用智能合约进行交易。例如,今天的简单智能体可以在互联网上抓取信息,然后根据模型在预测市场上进行交易。
Morpheus是 2024 年在以太坊和 Arbitrum 上上市的最新开源智能体项目之一。其白皮书于 2023 年 9 月匿名发布,为社区的形成和构建提供了基础(包括Erik Vorhees等著名人物) 。该白皮书包括一个可下载的智能体协议,它是一个开源的LLM,可以在本地运行,由用户的钱包管理,并与智能合约交互。它使用智能合约排名来帮助智能体根据处理的交易数量等标准确定哪些智能合约可以安全地进行交互。
白皮书还提供了构建 Morpheus 网络的框架,例如使智能体协议运行所需的激励结构和基础设施。这包括激励贡献者构建用于与智能体交互的前端、供开发人员构建可插入智能体以便他们可以相互交互的应用程序的 API,以及使用户能够访问运行智能体所需的计算和存储的云解决方案在边缘设备上。该项目的初始资金已于 2 月初启动,完整协议预计将于 2024 年第二季度启动。
去中心化自治基础设施网络 (DAIN)是一种新的智能体基础设施协议,在 Solana 上构建智能体到智能体经济。 DAIN 的目标是让来自不同企业的智能体可以通过通用 API 无缝地相互交互,从而大大开放 AI 智能体的设计空间,重点是实现能够与 web2 和 web3 产品交互的智能体。一月份,DAIN 宣布与 Asset Shield 首次合作,使用户能够将“智能体签名者”添加到其多重签名中,这些签名者能够根据用户设置的规则解释交易并批准/拒绝。
Fetch.AI是最早部署的 AI 智能体协议之一,并开发了一个生态系统,用于使用 FET 代币和Fetch.AI钱包在链上构建、部署和使用智能体。该协议提供了一套用于使用智能体的全面工具和应用程序,包括用于与智能体交互和订购代理的钱包内功能。
Autonolas的创始人包括 Fetch 团队的前成员,它是一个用于创建和使用去中心化AI智能体的开放市场。 Autonolas 还为开发人员提供了一套工具来构建链下托管的AI智能体,并可以插入多个区块链,包括 Polygon、Ethereum、Gnosis Chain 和 Solana。他们目前拥有一些活跃的智能体概念验证产品,包括用于预测市场和 DAO 治理。
SingularityNet正在为AI智能体构建一个去中心化的市场,人们可以在其中部署专注的AI智能体,这些智能体可以被其他人或智能体雇用来执行复杂的任务。其他公司,如AlteredStateMachine,正在构建 AI 智能体与 NFT 的集成。用户铸造具有随机属性的 NFT,这些属性赋予他们在不同任务上的优势和劣势。然后可以对这些智能体进行训练,以增强某些属性,以用于游戏、DeFi 或作为虚拟助手并与其他用户进行交易。
总的来说,这些项目设想了一个未来的智能体生态系统,这些智能体能够协同工作,不仅可以执行任务,还可以帮助构建通用AI。真正复杂的智能体将有能力自主完成任何用户任务。例如,完全自主的智能体将能够弄清楚如何雇用另一个智能体来集成 API,然后执行,而不必确保智能体在使用之前已经与外部 API(例如旅行预订网站)集成并执行任务。从用户的角度来看,不需要检查智能体是否可以完成任务,因为智能体可以自己确定。
2023 年 7 月,闪电网络实验室推出了在闪电网络上使用智能体的概念验证实施方案,称为 LangChain 比特币套件。该产品特别有趣,因为它旨在解决 Web 2 世界中日益严重的问题——Web应用程序的门禁且昂贵的API 密钥。
LangChain 通过为开发人员提供一套工具来解决这个问题,使智能体能够购买、出售和持有比特币,以及查询 API 密钥和发送小额支付。在传统的支付领域,小额支付由于费用而成本高昂,而在闪电网络上,智能体可以每天以最低的费用发送无限的小额支付。当与 LangChain 的 L402 支付计量 API 框架结合使用时,这允许公司可以根据使用量的增加和减少调整其 API 的访问费用,而不是设定单一的成本过高的标准。
在未来,链上活动主要由智能体与智能体交互所主导,这样的事情将是必要的,以确保智能体能够以成本不过高的方式相互交互。这是一个早期的例子,说明如何在无需许可且经济高效的支付赛道上使用智能体,为新市场和经济互动开辟了可能性。
智能体领域仍处于新生阶段。项目刚刚开始推出功能性智能体,可以使用其基础设施处理简单的任务——这通常只有经验丰富的开发人员和用户才能访问。然而,随着时间的推移,AI智能体对加密货币的最大影响之一是所有垂直领域的用户体验改进。交易将开始从基于点击转向基于文本,用户能够通过大语言模性与链上智能体进行交互。Dawn Wallet等团队已经推出了聊天机器人钱包,供用户在链上进行交互。
此外,目前尚不清楚智能体如何在 Web 2 中运作,因为金融领域依赖于受监管的银行机构,这些机构不能 24/7 运营,也无法进行无缝跨境交易。正如Lyn Alden所强调的那样,由于缺乏退款和处理微交易的能力,与信用卡相比,加密赛道尤其有吸引力。然而,如果智能体成为一种更常见的交易方式,现有的支付提供商和应用程序很可能会迅速采取行动,实施在现有金融领域运营所需的基础设施,从而削弱使用加密货币的一些好处。
目前,智能体可能仅限于确定性的加密货币交易,其中给定输入保证给定输出。这两种模型都规定了这些智能体弄清楚如何执行复杂任务的能力,而工具则扩大了它们可以完成的范围,都需要进一步开发。为了让加密智能体在新颖的链上加密用例之外变得有用,需要更广泛的集成和接受加密作为一种支付形式以及监管的明确性。然而,随着这些组件的发展,智能体准备成为上述去中心化计算和 zkML 解决方案的最大消费者之一,以自主的非确定性方式接收和解决任何任务。
AI 为加密货币引入了我们在 web2 中看到的相同创新,增强了从基础设施开发到用户体验和可访问性的各个方面。然而,项目仍处于发展早期,近期加密货币和AI集成将主要由链下集成主导。
像Copilot这样的产品将使开发人员效率“提高10 倍”,Layer1和DeFi应用程序已经与微软等大公司合作推出人工智能辅助开发平台。Cub3.ai和Test Machine等公司正在开发用于智能合约审计和实时威胁监控的AI集成,以增强链上安全性。 LLM 聊天机器人正在使用链上数据、协议文档和应用程序进行培训,为用户提供增强的可访问性和用户体验。
对于真正利用加密货币底层技术的更高级集成来说,挑战仍然是证明在链上实施AI解决方案在技术上是可行的,而且在经济上也是可行的。去中心化计算、zkML 和 AI 智能体的发展指向有前景的垂直领域,这些领域为加密货币和AI深度互联的未来奠定了基础。
转载请注明:果米财情 » 区块链 » Galaxy万字长文:加密货币和AI交叉领域和项目盘点
本文仅代表作者观点,不代表果米财情立场。
本文系作者授权发表,未经许可,不得转载。