AI赋能区块链数据网络

区块链的一个关键特性是其对数据的安全和透明性的承诺。对于人工智能来说,这是一个巨大的优点。人工智能需要大量的数据来进行训练,并从中学习。通过使用区块链,可以确保这些数据的来源是安全的,并且在处理过程中保持不变。此外,区块链的公开性也可以帮助提高 AI 的可解释性,因为所有的交易都可以追溯。

也就是说,AI 可以从大量的区块链数据中提取有价值的信息,而区块链技术可以为 AI 提供一个安全,透明且不可篡改的数据来源。并且 AI 技术可以帮助更快地处理和分析大量的数据,从而提高区块链网络的效率。AI 还可以帮助优化区块链网络,例如通过智能合约自动执行交易,或者通过预测网络负载来提高资源分配的效率。

人工智能技术正在逐渐为区块链数据网络赋能,不仅仅是通过 AI 技术来进一步提高它们的数据处理能力和应用价值,也是让数据进行自动化处理和分析,让其更加快速、准确地查询和索引区块链数据,从而为下游应用程序提供更加高效、可靠的数据支持等。

本文将介绍四个数据和人工智能的相关项目,进一步分析和探讨它们如何利用人工智能技术来提升其性能和应用价值。

The Graph

为什么使用人工智能

The Graph 作为一种去中心化协议,主要应用于索引区块链数据并使其可以适用于下游应用程序的查询,例如 dapp 前端、绘图、仪表板或数据分析。

迄今为止,The Graph 中有许多人工智能用例,但主要用例是部署自动化决策工具,新兴的用例则是降低访问 The Graph 索引的 web3 数据的门槛。官方目前主要关注在前一个用例——在 The Graph 中使用 AI 实现自动化。

人工智能技术还可以帮助提高数据查询和索引的准确性和速度,从而提高整个数据处理流程的效率,并且帮助发现数据之间的关联,挖掘出隐藏在数据中的规律和趋势,为数据分析和决策提供更加有力的支持。此外,AI 还可以自动化处理数据,从而减少人工干预的成本和时间,提高数据处理的可靠性和效率。

Semiotic Labs

Semiotic Labs 是 The Graph 的核心开发者之一,他们一直在使用人工智能来增强 The Graph 网络。Semiotic Labs 通过在 The Graph Network 上运行 Indexer 来增强网络,这需要专业的 DevOps 技能,自 2021 年初以来,他们一直在运营一个竞争性的 Indexer(索引器):semiotic-indexer.eth。

The Graph 中的 Indexers 可以根据其形状控制它们所服务的 GraphQL 查询的定价。 对于此任务,The Graph 创建了一种名为 Agora2,3 的特定领域语言,它将查询形状映射到 GRT 中的价格。

然而,手动填充和更新每个子图的 Agora 模型是一项繁琐的任务,因此,大多数索引器默认采用静态、统一的定价模型。

此外,为了帮助索引器对服务不同查询形状的相对资源成本进行定价,并遵循查询市场价格,他们还利用自己的人工智能专业知识,为 The Graph 生态系统发布了两个自动化软件工具:AutoAgora 和 Allocation Optimizer。AutoAgora 帮助 Indexers 提高其协议性能和收入,而 Allocation Optimizer 则是一个可以帮助 Indexers 在子图之间优化其 GRT 分配的工具。Semiotic Labs 还在研究如何利用 The Graph 独特的数据索引功能来实现人工智能应用的未来想法。

AutoAgora

The Graph 的核心目的是为其用户提供查询服务。在简化的场景中,该协议涉及多个 Indexers(数据卖方)、消费者(数据买方)和网关。当客户将查询发送到多个网关之一时,网关会根据各种因素(例如索引器的出价、服务质量 (QoS)、延迟等)在 Indexers 之间分配查询。Indexers 通过提供查询来赚钱,同时可以自由控制所提供查询的价格。这个过程如下图所示:

Indexers 以名为 Agora 的特定领域语言定义的模型的形式表达对各种 GraphQL 查询的出价。Agora 价格模型将查询映射到 GRT 中的价格,即提供给定索引器执行查询的具体价格。然而,为每个子图创建和更新 Agora 模型可能是一项乏味且耗时的任务,因此许多索引器使用静态、统一定价模型。

为了帮助索引器定价并确保它们遵循查询的市场价格,Semiotic Labs 创建了一个名为 AutoAgora 的开源工具。AutoAgora 自动化了创建和更新 Agora 价格模型的过程,使索引器更容易提供动态定价,反映服务特定查询形状的实际成本。简而言之,对于希望为其在 The Graph Network 上的查询服务提供更具竞争力和灵活定价的索引器来说,AutoAgora 是一个有用的工具。

AutoAgora 由多个模块组成,这些模块协同工作以自动化创建和更新 Agora 价格模型的过程。这些模块包括:日志处理、相对成本发现和绝对价格发现。他们可以帮助解析日志以提取传入的查询、它们的形状和执行时间,对相似的查询形状进行分组并计算其资源使用统计信息(例如平均执行时间),以及尝试根据过去服务的查询量调整价格来最大化收入。

当然,目前的 AutoAgora 也存在着许多缺点,例如仅基于平均查询形状执行时间的相对成本模型过于简单化;市场价格强盗模型的初始收敛速度相当慢,需要很多小时;价格强盗训练在查询量较低的子图上不稳定;当多个代理在同一市场上相互竞争时,价格强盗训练的稳定性尚未得到证实等。

这些问题在未来随着技术升级,也可以陆续得到解决,比如可以添加其他硬件影响测量,以便索引器可以表达其硬件商品(CPU、RAM、I/O、网络等)的相对成本;加快网关更新索引器成本模型的速度;实施一个简单的规则,用于停用训练,并默认使用索引器提供的默认价格乘数;以及开发一个模拟环境来对特定场景进行压力测试等等。

The Allocation Optimizer

目前 The Graph Network 中部署了超过 750 个子图。在消费者进行子图查询之前,Indexers 必须“同步(sync)”与子图相关的区块链数据,然后将 GRT 分配给子图。同步子图然后提供查询服务是一项非常消耗资源的任务,因此索引器通常不会同步所有子图。在实践中,图网络看起来类似于下图,索引器仅分配给许多可能的子图中的一些:

Indexers 是 The Graph 协议中策展人的角色,他们在子图上发出(暂时存入)GRT信号。当特定子图的查询费用增加时,策展人可以得到奖励,因此理性的策展人会尝试在查询费用较高的子图上发出信号。然而,如果所有索引器都只索引具有最高信号的子图,那么它们将无法覆盖其他子图。因此,为了确定要索引哪些子图,索引器必须遵循索引奖励,而不是仅仅遵循信号。但是,对于许多索引器来说,遵循索引奖励并非易事,因为分配优化是一个困难的数学问题。

为了解决这个问题,The Graph提供了一个开源工具——Allocation Optimizer,它可以帮助索引器计算最佳分配,并提高他们的索引奖励收入,释放他们的一些时间,以便他们可以专注于为子图查询提供高质量的服务。

虽然分配优化是一个困难的数学问题,但解决数学问题本身并不能改进协议。通过为索引器提供可以计算其最佳分配的工具,我们可以增加他们的索引奖励收入并释放他们的一些时间,以便他们可以专注于为子图查询提供高质量的服务。

未来应用

除了目前大家关注的部署在网络中使用的人工智能相关工具,The Graph 官方也在思考另一个角度的创新,即人工智能创建者如何能更好利用 The Graph 。

ChatGPT 的发布使得大型语言模型 (LLM) 的运用被大众熟知,LLM 目前被大量运用于总结和综合文本数据,以及处理数字数据。但是,让 LLM 正确进行数学计算仍然是一个新兴的领域,The Graph 针对这点启动了新的试点项目,利用 LLM 来访问和总结 The Graph 的大量信息。具体来说,The Graph 的目标是使任何对 web3 数据感兴趣的人都可以使用自然语言直接访问它,而不需要相关的专业计算机语言背景。

官方为了让人工智能构建者以及 LLM 更好的利用 The Graph,使用了自己的数据来训练新的人工智能模型。和神经网络需要大量数据进行训练一样,The Graph 也同样拥有可以适用于训练人工智能的数据。因为 LLM 接受的训练是基于互联网上大部分的公共数据,很多都存在虚假或矛盾的问题,所以“garbage in, garbage out(垃圾输入/输出)”是所有大型语言模型会面临的困难点,即错误的输入会导致错误的输出,这也是像 ChatGPT 这样的软件经常出错的原因之一。

The Graph 不同于传统应用的地方在于,它的数据是可验证的,也就是说它提供的是准确的数据,因此,这也可以解决上述模型训练中的问题,使人工智能未来的输出更加值得信赖。

在未来,The Graph 可能成为训练新人工智能模型的可信、可验证数据的来源。

Dune

Dune + AI = 人人都能当数据分析师

区块链公开和透明的性质,使得用户访问变得十分简单,但原始数据(Raw Data)依旧难以分辨,非专业的程序员很难全部掌握,但一般来说,原始数据是十分重要的,其中包含了很多有价值的信息,因此市面上便出现了许多为不同类型数据服务的分析工具,不仅仅是为专业的分析师和研究员提供帮助,也是为普通用户和散户提供间接访问和深度分析的有效工具。

Dune 的数据功能在经历过几次更新升级之后,已经逐渐适应大部分用户对数据的查询、分析和展示功能。而它的 SQL 查询功能,表面上看是 UGC 模式,赋予用户平等的权限去执行查询任务,但实际上 Dune 采纳的 SQL 模式依旧存在两个问题,一个是门槛较高,需要掌握一定的数据语言才能开始使用,对于相对简单的查询来说,例如查询 Uniswap 上 DAI 作为交易对的数量,仅需要几行代码就能够解决。一旦需要查询或者执行的逻辑变得复杂,那么其代码量可能会大幅增加,非专业的程序员很难自行完美写出需要查询的逻辑,也是这一点,令大部分用户只能选择采用已经建立好的、专业人员编写的数据查询。

因此,Dune 首先决定通过引入可视化查询构建器来解决这个问题。这个构建器将为用户提供一个直观的界面,让他们通过拖拽和点击的方式来构建复杂的查询逻辑,而无需编写繁琐的代码。

可视化查询构建器将以图形化的方式展示数据表、字段和操作符,用户可以通过简单的操作来定义查询的条件和逻辑。例如,用户可以选择一个数据表,然后从字段列表中选择感兴趣的字段,并在操作符列表中选择适当的操作符(如等于、大于、小于等),然后设置字段的值或者与其他条件进行组合。用户还可以通过拖拽操作将多个条件组合成复杂的逻辑表达式,以满足他们的查询需求。所有这些操作都是直观和易于理解的,即使对于非专业的程序员来说也能轻松上手。

一旦用户完成了查询逻辑的构建,可视化查询构建器将自动生成相应的SQL查询语句,并将结果显示给用户。用户可以直接查看查询结果,也可以将结果导出为表格、图表或其他格式,以便进一步分析和展示。

此外,Dune还提供了一个查询模板库,其中包含了常见的查询模板和示例,用户可以直接使用这些模板,而无需从头开始构建查询。这些查询模板涵盖了不同类型的数据和分析需求,包括交易数据、用户行为、市场趋势等,用户可以根据自己的需求选择合适的模板,并进行必要的修改和定制。

通过引入可视化查询构建器和查询模板库,Dune使得数据查询和分析变得更加简单和可靠。用户无需深入了解SQL语言和复杂的查询逻辑,只需通过直观的界面和预设的模板来完成查询任务。这不仅提高了非专业用户的数据访问和分析能力,也为专业分析师和研究员提供了更高效的工具和资源,推动了区块链数据的广泛应用和挖掘。

自然语言查询

Dune 在今年 4 月宣布推出一项名为“查询解释”的新功能,该功能利用 LLM(大型语言模型)来简化复杂的 SQL 查询。借助这一新功能,用户只需单击按钮即可获得任何 SQL 查询的自然语言解释。要访问自然语言解释,用户只需导航到感兴趣的查询并单击 SQL 代码下方的新小按钮。

许多用户,尤其是初学者,发现理解复杂的多行 SQL 查询中每一行的含义具有挑战性。查询解释功能旨在简化对此类查询的理解,这些查询通常是令人费解且复杂的。借助这一新功能,用户可以轻松理解其他人编写的语言。

查询解释只是 Dune Wizards 社区为其用户准备的一套全面的 LLM 功能和集成的一部分而引入的第一个功能。

未来, Dune 计划发布的 LLM 功能还包括查询翻译、自然语言查询、搜索功能和引导知识库。

凭借这些即将推出的 LLM 功能,Dune 致力于为用户提供先进的工具,简化复杂查询的处理过程,增强初学者和经验丰富的分析师的可访问性和可用性。

在 LLM 加入后,一定程度上抹去了专业用户和普通用户的能力差异。借助 GPT-4 对代码的理解能力,可以让普通用户直观的理解查询语句的作用,而无需掌握 SQL 知识。在此功能引入前,用户只能被动的在看板页面阅读图表,而在引入查询解释功能后,普通用户也可以理解 SQL 代码是发挥作用的具体含义。

Mind Studio

零信任人工智能

Mind Network 是一个去中心化的零信任数据湖,可保护 Web3 上的所有数据、智能合约和 AI。它建立在基于零知识证明(ZKP)和自适应全同态加密(AFHE)的专利零信任框架之上,为数据存储和计算提供高性能加密。Mind Network 由币安孵化营第5季孵化,并入选了 Chainlink BUILD 项目。目前 Mind Network 测试网已对白名单用户开放。

Web3 的快速发展暴露了传统安全模型在防御高级网络威胁方面的局限性。Web2 对集中式基础设施和隐式信任假设的依赖使其容易受到数据泄露的影响。因此,Mind Network 采用零信任原则,支持强大的数据保护和访问控制。通过彻底改变 Web3 时代的信息安全,Mind Network 提供了一种变革性的解决方案,解决了传统方法的缺点。

对于人工智能领域,Mind Network 也推出了零信任人工智能。在目前 AI 快速发展的时代,保护隐私的计算是十分重要的,Mind Network 使开发人员能对加密数据进行计算,利用人工智能的力量保障隐私安全。这种革命性方法能保护敏感的人工智能模型避免未经授权的访问,并确保用于训练和推理的数据的机密性。

此外,官方也推出了加密数据湖和安全的智能合约,来保护 L1/L2链、去中心化存储和公共云中的敏感信息以及避免智能合约中未经授权的访问和潜在操作。

Mind Network 是 Web3 数据安全性的先驱,通过实施零信任原则和最先进的加密技术来增强安全性。该综合平台提供端到端加密,使用户能够掌控个人数据、金融交易和用户交互。通过消除隐含的信任假设并优先考虑用户隐私,Mind Network 在去中心化生态系统中建立了信任。

Mind Studio:基于 SQL 的 Mind Network IDE

Mind Network 致力于提供高效且安全的数据开发体验,他们不断进行算法和工程加速,以确保在提供更低价格的前提下,能够比传统的数据账本提供更快的体验。

Mind Studio 是他们最新推出的基于 SQL 的 IDE,为 Web3 开发人员提供了一个简单易用的工具,推动大规模采用私有数据湖。通过使用 Mind Query 构建在 Mind Lake 上的 I/O 网关,用户可以轻松创建个人数据空间,无需具备编程语言的专业知识。

数据权利不再是专业人员的专属,每个用户都能轻松享有自己的数据权益。

官方还提供了 L1/L2 跨链、去中心化存储和公链的加密数据访问功能。他们定期向社区提供 Mind SDK,方便开发人员进行数据开发和分析。这样的举措进一步促进了数据的开放和共享,为用户提供更多的选择和灵活性。

在安全方面,Mind Network采用了零信任解决方案,确保用户的加密数据在端到端的计算过程中得到全面保护。无论是数据传输、存储还是计算过程,用户的数据都能获得最高级别的安全保障。这种安全性的设计为用户提供了信心,使他们能够放心地将敏感数据存储在 Mind Lake 中。

除了安全性之外,性能也是 Mind Network 非常注重的一点。他们深知流畅的数据开发体验是用户采用的关键因素。通过不断优化算法和工程加速,Mind Network 在保证更低价格的同时,仍能提供比传统的云提供商更快的数据处理速度。用户可以在 Mind Studio 中享受到快速、高效的数据开发体验,为他们的工作带来更大的便利和效率。

因此,Mind Studio 是一个以用户友好为核心的 SQL IDE,致力于推动私有数据湖的大规模采用。通过提供简单易用的工具和零信任的安全保障,以及优化的性能表现,Mind Network 为用户提供了一个高效、安全的数据开发环境,进一步推动了数据开放和共享的进程。

Space and Time(SxT)

人工智能的可验证性

Space and Time is (SxT) 是一个去中心化数据仓库,预加载了来自主要链的索引区块链数据。用户可以以简单的 SQL 格式将防篡改的链上数据与自己的链下数据集连接起来,并将结果发布到智能合约、dapp、仪表板、BI 工具和 ML 模型。

在人工智能和数据驱动创新的时代,信息的准确性和可信性变得至关重要。验证数据的有效性和真实性不再只是一个可有可无的功能,反而变得十分关键。

可验证性的重要性在未来十年必然会持续增长,随着人工智能的出现,人们已经进入了决策日益自动化的阶段。人工智能算法从数据中学习,它们所做出的决策取决于所输入的数据。如果输入数据存在缺陷、偏见或不完整,决策结果将反映出这些问题。此外,随着人工智能系统变得越来越复杂,其决策过程往往变得不太透明,有时被称为“黑匣子”。这种不透明性使得理解特定结果是如何得出的具有挑战性,凸显了对可验证数据和可解释人工智能模型的需求。

在 AI 被快速接纳并使用的阶段,区分事实和虚构的能力变得至关重要。深度伪造和错误信息活动正在兴起,这些活动利用先进的人工智能技术来创建和传播难以辨别真假的虚假信息。可验证性在应对这些威胁方面起到至关重要的作用,有助于维护数字领域的真实性和信任。

Space and Time 带来了一个解决方案,便是建立一个可验证的数据库,这也是官方名称中空间和时间发挥作用的地方,作为一个可验证的数据库,时空确保数据不仅可靠和准确,还可追溯和审计。

SxT 创建了一个分散的数据分类账。通过这种方式,数据库提供了清晰、不可篡改的数据历史记录,确保透明度和去中心化。

未来,随着人工智能和数据驱动决策的兴起,信任所交互的信息的能力至关重要。SxT 的可验证数据库提供了一种在日益复杂的数字环境中确保信任、促进透明度和问责制的方法。当然,可验证性不仅涉及数据的完整性,还涉及数据的真实性。SxT 将持续致力于建立一个可以令所有人可以依赖人工智能系统的未来,保证用户所做决策都是基于准确、可靠的信息。

SxT 将继续推动可验证性的发展,并与各行各业的合作伙伴共同努力,确保数据的准确性和可信性。通过建立可验证的数据库和采用透明度和去中心化的方法,我们可以在人工智能时代建立起信任和透明度的基石。

使用自然语言进行数据分析

最近,Space and Time 宣布推出他们的 OpenAI 聊天机器人 Houston,用户可以在 Space and Time Studio 上与其进行交互。Houston 利用 GPT-4 和 ChainML,使用户能够根据自然语言提示生成 SQL、Python 脚本和仪表板等。

Space and Time 的技术被称为 SQL 证明,它允许数据仓库生成 SNARK 加密证明,证明查询计算的准确性,并验证查询和数据的完整性,尤其在 Web3 环境中,这一点非常重要,因为没有可信的实体来确保数据或查询的准确性。

使用 OpenAI 的 ChatGPT 集成命名为 Houston 的聊天机器人,使维护和查询数据库变得更加容易,而无需编写代码。首席技术官 Scott Dykstra 表示:Space and Time 的用户可以根据提示生成 SQL 或 Python 脚本,提出关于数据的自然语言问题,并通过与官方的聊天机器人对话来获取准确的可视化结果,并将其加载到新的数据集中。这位联合创始人与该初创公司的首席执行官 Nate Holiday 表示,Houston 还将展示通过自然语言提示生成的 SQL代码,以便进行检查,并创建查询和结果的可视化表示。

此外,通过SxT Studio,用户还可以可视化可用的区块链数据,只需连接钱包,即可开始运行查询、创建表格并加载用户自己的数据。

结论

AI 和区块链是两种强大的技术,它们的结合可能会引发一场数据处理和理解的革命。通过将AI的分析能力与区块链的安全性和透明性相结合,我们可以创建出更加高效,安全,可信的数据网络。然而,这个领域还需要更多的研究,以克服其中的挑战,例如数据隐私,网络安全,等等

人工智能技术正在逐渐为区块链数据网络带来强大的能量。在这个加密生态系统中,The Graph 和Dune 作为广为人知的数据相关应用,也可以通过 AI 技术进一步提升其数据处理能力和应用价值。它们可以利用人工智能的力量来解析、分析和提取区块链数据中的有用信息,从而为用户提供更准确、高效的数据查询和分析工具。

新兴的数据相关应用 Mind Network 和 Space and Time 也在持续利用人工智能来优化其性能。Mind Network 利用人工智能技术来处理和分析大规模数据集,帮助用户发现数据中的模式和趋势,从而做出更明智的决策。而 Space and Time 则通过AI 技术提供了与聊天机器人交互的方式,使用户能够以自然语言的方式与数据进行交互和查询,从而简化了数据操作的复杂性。

这些新兴的数据应用不仅在区块链领域发挥着重要作用,而且还在不断探索和创新,以利用人工智能的潜力来提高数据处理的效率和准确性。随着人工智能技术的不断进步和应用的深入,我们可以期待看到更多的数据应用在加密生态系统中融合AI,为用户带来更多的创新和价值。

参考:

Subscribe to Betalpha Labs
Receive the latest updates directly to your inbox.
Mint this entry as an NFT to add it to your collection.
Verification
This entry has been permanently stored onchain and signed by its creator.