DAOrayaki & THUBA DAO |解密人工智能内容生成(AIGC)的发展与现状

DAOrayaki DAO研究奖金池:

资助地址: DAOrayaki.eth

投票进展:DAO Committee 4/0 通过

研究种类:AIGC, Web3

贡献者:Roy Dong@THUBA Core Member

审核者:Yofu@DAOrayaki

视频链接: https://www.bilibili.com/video/BV17D4y1p7EY/spm_id_from=333.999.0.0

摘要

AIGC是Web3.0时代的生产力工具,AIGC提供大量的生产力,而Web3.0与区块链的应用则决定生产关系与用户主权。

但我们必须认识到AIGC和Web3是两个不同的方向。AIGC作为使用AI技术的生产工具,既可以应用于Web2世界,也可以应用于Web3世界。到目前为止,大多数已经开发的项目仍然在Web2领域。把两者放在一起谈话是不合适的。而Web3希望借助区块链和智能合约技术,让用户拥有虚拟资产的主权。它与创建模式之间本没有直接联系。

本文将从以下四个方面解密AIGC的发展与现状进行:

  • 内容创造形式的演变

  • 技术测概况

  • AIGC的行业应用

  • AIGC与Web3

第一部分:内容创造形式的演变

可以分成三个阶段:

第一个阶段是PGC(Professionally-Generated Content),专家生成内容,由拥有内容相关领域资质的专业团队进行创作,门槛与成本较高,质量有一定保障,追求电视剧电影等商业化渠道的收益,代表项目就是以爱优腾为首的视频平台。在这些平台上,用户更多地是去接收和搜索视频资源来收看,类似于Web1.0的概念。

但这一阶段创作权掌握在少数专业人士手中,普通创作者的成果很难被大众看见。在第二阶段衍生出了一系列的UGC平台(User-generated Content,用户生产内容),如Twitter,YouTube,国内爱优腾等视频平台。在这些平台上用户不仅是接收者,也可以是内容的提供方,内容生产的规模极大地扩张了,但用户生产的内容质量则参差不齐,可以将它看作是Web2.0时代的内容创作。

那么Web3.0时代的内容创作生态是?AIGC和web3的关联在哪里?

AIGC(AI generated Content,人工智能生成内容),指由人工智能帮助甚至取代人类进行内容创作,可以作为强大的生产力工具,帮助解决Web3.0和元宇宙中的一些实际问题。它生产频率更快,并且可以定制风格,满足每个人的需求。它拥有无限规模的内容创作灵感,效果也不会太差。

第二部分:技术测概况

AIGC技术的快速发展始于GAN(生成对抗网络,2014)模型的发表。它由两个模型组成:生成模型和判别模型。生成器生成“假”数据并试图欺骗鉴别器;鉴别器验证生成的数据,并尝试正确识别所有“假”数据。在训练迭代的过程中,两个网络对抗中提升,直到达到平衡状态。

AIGC技术的快速发展始于GAN(生成对抗网络,2014)模型的发表。它由两个模型组成:生成模型和判别模型。生成器生成“假”数据并试图欺骗鉴别器;鉴别器验证生成的数据,并尝试正确识别所有“假”数据。在训练迭代的过程中,两个网络对抗中提升,直到达到平衡状态。

在GAN发表后的两三年时间里,业内对GAN模型进行了各种改造和应用。2016年和2017年,在语音合成、情绪检测、换脸等领域产生了一大批实际应用。

谷歌在2017年开发的Transformer模型逐渐取代了Long and Short Term memory (LSTM)等传统RNN模型,成为NLP问题的首选模型。

作为Seq2seq模型,它提出了注意力机制,计算每个单词与其上下文的相关性,以确定哪些信息对手头的任务最重要。与其他模型相比,Transformer速度更快,并且可以更长时间地保留有效信息。

BERT(来自Transformer的双向编码器表示,2018)使用Transformer构建了一个用于自然语言处理的完整模型框架。它在处理一系列自然语言处理任务上超越了现有的模型。

BERT(来自Transformer的双向编码器表示,2018)使用Transformer构建了一个用于自然语言处理的完整模型框架。它在处理一系列自然语言处理任务上超越了现有的模型。

从那时起,模型的大小不断增加,在最近两年出现了GPT-3、InstructGPT和ChatGPT等一批大模型,其成本也呈几何级数上升。

现今的语言模型有三个特点:大模型、大数据、大计算能力。在上方的图中可以看到模型参数的数量增加得有多快。有人甚至提出了语言模型的摩尔定律,——一年增长十倍。最新发布的ChatGPT模型有1750亿个参数,很难想象在这之后GPT-4中还有多少参数。

ChatGPT的优势:

  1. 引入了HFRL(Human Feedback RL, 2022.03)技术,在训练数据集中增加了人的反馈,基于人的反馈进行优化,但由于需要大量的人的注释,成本进一步扩大。

  2. 第二点是模型在回答问题时会有自己的原则。之前的聊天机器人在与用户聊天时会将一些负面和敏感的内容一并学习,最后学会谩骂,发表歧视言论。与之前的模型不同,ChatGPT可以识别恶意消息,然后拒绝给出答案。

  3. 有记忆:ChatGPT支持连续对话,并能记住与用户之前对话的内容,因此经过多轮对话用户会发现它的答案在不断提升。

第三部分:AIGC的行业应用

在参加2022年奇绩创坛秋季营的55家公司中,有19家AI主题公司、15家元宇宙主题公司和16家大型模型主题公司。与AIGC相关的项目有十余个,其中一半以上是与图像相关的。每个项目的详细信息附在下面的链接中:

Link:https://new.qq.com/rain/a/20221121A04ZNE00

当下AIGC最火的细分赛道当属图像领域,归功于Stable Diffusion的行业应用,图像AIGC在2022年迎来了爆发式的增长。具体地,图像AIGC赛道具有以下优势:

  1. 与自然语言处理中的大模型相比,CV领域的模型尺寸相对较小,与Web3的契合度也更高,可以与NFT、元宇宙紧密联系在一起。

  2. 与文字相比,人们对图片的阅读成本更低,一直是一种更直观和更容易被接受的表达形式。

  3. 图片的趣味性和多样性更高,且该部分技术目前趋于成熟,正在快速迭代。

在参加2022年奇绩创坛秋季营的55家公司中,有19家AI主题公司、15家元宇宙主题公司和16家大型模型主题公司。与AIGC相关的项目有十余个,其中一半以上是与图像相关的。每个项目的详细信息附在下面的链接中:

扩散模型

2022年CVPR的论文《High-Resolution Image Synthesis with Latent Diffusion Models》

通过向图像中添加噪声,可以将一张图片变成随机的噪声图片,扩散模型与之相反,学习如何去除噪声。然后,该模型将这种去噪过程应用于随机的噪声图片,最终生成逼真的图像。

当前图像AIGC领域也存在一些局限性,具体有下面几点:

  1. 模型需要在效果和效率之间做权衡,在秒级别还是难以生成准确的,用户期待的定制效果。

  2. 这些公司的运营和维护成本很高,需要大量的图形显卡设备来带动他们的模型。

  3. 赛道中近期涌现大量初创公司,竞争激烈,但缺乏杀手级应用程序。

接下来再来讨论下3D-AIGC,这是一个潜力较大的赛道,目前模型尚不成熟,但未来会成为元宇宙中的刚需的基础设施。

类似于2D图像的生成,3D-AIGC项目能够生成三维物品,进而甚至自动地渲染与构建三维场景。当未来元宇宙得到普及之后,会对虚拟的三位资产有大量的需求。当用户处于三维场景中时,用户需要的不再是二维的图片,而是三维的物体和场景。

相比于生成二维图像,在三维上生成虚拟资产需要考虑更多的东西。一个三维的虚拟物体由两部分组成,一个是三维形状,另一个是物体表面的花纹和图案,我们称之为纹理。

因此一个模型需要选取三维虚拟资产可以分两步生成。在我们获得了一个3D对象的几何图形后,我们就可以通过纹理映射,环境贴图等多种方法来赋予它表面的纹理。

而在描述三维物体的几何形状时也需要考虑多种的表达方式有显式的表达形式,比如网格和点云;也有代数、NeRF(神经辐射场)等隐式的表达方式。具体需要选取适配模型的方式。

总之我们最终需要将所有的这些过程都集成到一起,组成一个文本到3D图像的流程管线,管线比较长,在当下也尚未有成熟的应用端模型出现。但扩散模型的流行会促使许多研究者进一步研究三维图像生成技术。目前这一方向的技术模型也在快速迭代。

相对于VR、XR等需要与人互动、对实时性有严格要求的技术。3D AIGC推的实时性要求更低低,应用门槛和速度会更快一些。

第四部分:AIGC与Web3

都说AIGC是web3.0时代的生产力工具,AIGC提供大量的生产力,而web3.0与区块链的应用则决定生产关系与用户主权。

但我们必须认识到AIGC和Web3是两个不同的方向。AIGC作为使用AI技术的生产工具,既可以应用于web2世界,也可以应用于Web3世界。到目前为止,大多数已经开发的项目仍然在Web2领域。把两者放在一起谈话是不合适的。而Web3希望借助区块链和智能合约技术,让用户拥有虚拟资产的主权。它与创建模式之间本没有直接联系。

但两者之间确实又有很多趋同之处:

  • 一方面,它们都依靠程序来优化现有的生产和创作模型。AIGC用AI取代人类进行创造,Web3用智能合约、区块链等去中心化程序取代人工中心化机构。用机器代替人,不会有主观的误差和偏差,效率也会显著提高。

  • 另一方面,Web3和元宇宙将对二维的图片和音频,三维的虚拟物体和场景有很大的需求,而AIGC是一个很好的满足方式。

但在web3.0的概念尚未普及到普罗大众的当下,我们能看到涌现出的项目几乎还是Web2的项目,在web3领域的应用目前大量地还是停留在图像生成的AIGC上,用于NFT的创作。

其实在应用端,AIGC和web3.0的联系不能仅仅依靠“生产力”和“生产关系”之间的联系,因为AIGC同样也能给web2项目带来生产力的提升,而web3项目的优势是不明显的。

所以,为了抓住AIGC发展的机遇,我认为当前web3项目需要在以下两个方面进行优化:

一是寻求AIGC加持下的Web3.0原生项目,即只在Web3端能够应用的项目。或者换句话说,去思考如何用AIGC解决Web3项目目前面临的困境,这样的解决方案也是Web3原生的。例如ReadOn用AIGC去生成文章quiz,开辟了Proof of Read的新模式,解决了ReadFi一直以来存在的刷币问题,为真正阅读的用户提供代币奖励。这很难做到,但web3需要这样的模式创新。

二是用AIGC优化现存Web3应用的效率和用户体验。目前AIGC的应用主要存在于图像和NFT上,但其实创作是一个很宽泛的概念,除图片外还有很多种其他的创作方式。上文提到的3D-AIGC是元宇宙中可供思考的应用渠道,quiz生成也是一个眼前一亮的idea。eduDAO和开发者平台可以思考用AIGC来赋能教育,用于出题或者修改模块化的代码、生成单测等等;GameFi可以思考是否能用AIGC来充当游戏里的NPC;甚至能否借助AIGC的coding能力生成智能合约。

致谢:

去中心化媒体和研究组织DAOrayaki公开资助THUBADAO展开独立课题研究,并进行公开成果分享。研究主题主要聚焦在Web3、DAO等相关领域内容。本文是资助成果的第六期分享。

DAOrayaki 是一个代表社区意志、功能齐全的去中心化媒体平台和研究组织。旨在链接创作者、资助者、读者,并提供Bounty、Grant、预测市场等多种治理工具,激励社区自由的展开研究、策展及报道多类话题。

THUBA DAO是由清华大学区块链协会(THUBA)成员所发起的去中心化组织。THUBA DAO致力于将Web3世界带给每一个学生,成为连接海内外区块链社区的桥梁,并培养最优秀的下一代Web青年与先锋者。

前期分享可参考:


通过 DAO,研究组织和媒体可以打破地域的限制,以社区的方式资助和生产内容。DAOrayaki将会通过DAO的形式,构建一个代表社区意志并由社区控制的功能齐全的去中心化媒体。欢迎通过文末方式提交与DAO、量子计算、星际移民、DA相关的内容,瓜分10000USDC赏金池!欢迎加入DAOrayaki社区,了解去中心化自治组织(DAO),探讨最新话题!

官方网站:https://daorayaki.org

Media:https://media.daorayaki.org

Discord server: https://discord.gg/wNUPmsGsa4

Medium: https://medium.com/@daorayaki

Email: daorayaki@dorafactory.org

Twitter: @daorayaki_

微信助手:DAOrayaki-Media

小宇宙:DAOrayaki

Subscribe to DAOrayaki
Receive the latest updates directly to your inbox.
Mint this entry as an NFT to add it to your collection.
Verification
This entry has been permanently stored onchain and signed by its creator.