关于 kaito yaps 的六层思考发散:你已被巨网包围!

kaito这个项目见到倒是比较早,最早是零散几个博主推,当时以为只是个做社媒数据分析的工具。

后来越来越多KOL推,一直到这周,timeline基本被kaito占领。特别是很多平时发的内容都很优质的博主;每多一个,我对它的好奇就会多一分。因为我相信这些博主的眼光不会错。

绝对不会那么简单!我看到的只是皮毛。于是排上研究计划。

kaito到底在做什么事?以及可能要做什么事?接下来基于我对这个项目的了解过程,说说我的理解。

第1层:表面上的kaito,KOL品牌价值排行榜?

从已对用户曝光的部分( yaps )来看,这是一个以某种方式量化twitter账户影响力的产品。这种影响力被用“Yapper Mindshare”表示。mindshare可以理解为“心智份额”,这其实用于表示一个品牌在受众群体中的地位和相对重要性,高心智份额能够带来更多购买行为。

从这里可以看到项目方针对社交账户影响力的定义——品牌价值/商誉。我们可以对比已经是尸体的某朋友科技,后者其实是把影响力定义为一种金融资本。品牌价值到金融资本的转换,是单向,并且可被控制的。FT没有这么一个阀,所以兜不住。

在首页可以很清楚地看到twitter账号获取yaps积分的排名数据、热力图、网络图等。

顶部菜单栏可以选择:

1、针对某个话题的yaps,或者某个分类话题(比如针对某个项目)。 2、项目的pre-TGE声量。 3、VC影响力。

暂时没有看到yaps积分的计算规则,事实上,不透露规则也是kaito做的比较好的地方,这个后面说。

这个就是第一层的kaito,看起来似乎只是个平平无奇的社交挖矿项目,而社交挖矿已经是上上轮就已经被玩过的模式了。很多难题解决不了,随手列一列:难以自动化定义内容价值;用户行为激励扭曲;垃圾内容泛滥、刷单划水等;社区氛围恶化,劣币驱逐良币……

第2层:AI辅助分析,让社交挖矿模式可行了起来?

在yaps产品页下拉,可以看到还有个具体的展示面板,AI基于用户内容做情绪分析,判断这个账号发的内容是硬核or随意、抄袭or原创、喜欢发垃圾话还是有价值内容。

目前只有这三个,但这玩意未来可以慢慢加上去很多。就好比隔断时间就会流行的“twitter人格分析”小玩具,MBTI人格测试分分钟给你玩上。btw确实可以加上MBTI,挺好玩的……

这其实反映了一个很重要的点,是上个周期所不具备的:AI在数据分析和量化工作中所能发挥的作用。或者说,NLP(自然语言处理)早已有之,但一直没有被拿来用。有句话怎么说来着?时候未到,杀鸡焉用牛刀?

跳回前面所说的,社交挖矿模式的几个无解问题,这几个其实是一环套一环,最根本就在于,内容价值无法量化。那么借助AI分析一个推文所含信息的价值、博主情绪等,都成为了可能。至于价值本身怎么量化,这个又串到后面PageRank的话题了,先放一下。

一旦内容价值可被相对准确地量化,垃圾内容泛滥的问题就可以缓解;刷单、划水、优质博主被排挤等问题,就可以缓解;用户行为激励扭曲的问题,就可以缓解。反过来,行为激励被导向到:发送优质内容。

当前的yaps积分,本质上还是社交挖矿,这个不用争。但我这么一说,是不是觉得好像有点不一样?

别着急。我的理解是,yaps仅仅是kaito打市场的一步棋。KOL是声量最高、最容易带动裂变的群体,就像我会在第3层说的,KOL只是众多分类角度的其一。

第3层:数据分析工具

前面说到,yaps目前可以能够看到项目的pre-TGE声量、VC影响力。这些都是基于对应的项目/VC在twitter上的官方账号数据得来。

理论上,只要底层数据在埋点/清洗/归类等过程足够精细,类似的菜单功能是可以被无限拓展的,因为只是针对不同特征做分类聚合。比如说哪天可以出个twitter政客影响力排行,出个xx话题分析,出个最受欢迎的av老师,等等。从社媒舆情的角度,kaito比部分单纯计算关键词频率、抓取KOL关键词重合度等简单算法的数据工具效果一定会更好,因为kaito的权重来源于长期的神经网络优化。

话题回到数据分析,twitter这么一个靠死贵死贵的API拿数据的,可以做到这样;链上数据的采集,似乎更容易?包括其他一些常见的平台。链上数据就算不自己做,和 Arkham 之类的合作,推出一些 alpha小工具、监控报警、投研助理 之类的副产品不成问题。

举一个例子吧,链上数据产品绝对做不来的。

运营节奏分析。

正常来说怎么做呢?找到运营主阵地,通常是twitter、discord,去扒每一条公告、推文,内容、互动数据、评论倾向、AMA、dc聊天内容、PR文案等;有发币的,还要结合k线图,有NFT的,去看资产交易记录;去看项目方大的运营周期里的活动填充,去看社区情绪变化和应对方式等。一个项目方会不会运营,这对于做二级投资其实很重要,但目前就是得耗费很多人力精力。

但如果用AI基于现有数据来辅助分析,就只需要一套成熟的算法规则了。同样的逻辑可以化用到:

一个热点事件的发展过程。一个meme币的发展过程。按头CABAL?

美国大选的全过程回顾。

……

这样的产品够不够有竞争力呢?我相信一定有,核心就是yaps背后那套算法的积累,核心就是我能做你不能做。边际成本够低情况下,每个副产品只要精准定位客群就好。

第4层:infoFi?金融化的信息门户

还记得我刚入圈的时候写过一篇文章 我设计了个区块链上的“烂番茄+wiki”项目:如何更好地引导社区治理? 设想的是一个类似于豆瓣/烂番茄的评分网站,社区去给项目打分,中间有各种机制来维持打分的公平性和准确度。

项目打分不稀奇,随便一个门户网站都能做,可是有意义吗?先不说当前的用户习惯不在这,就算用户习惯看打分,随便就能刷上去的分数有什么意义?

参考已有的一些长线运营打分网站,豆瓣/烂番茄/ProductHunt等,总结来说无外乎几点:

1、通过机器学习剔除可能存在的刷分行为; 2、通过注册用户的活跃度/影响力做不同权重; 3、邀请专业人士进行打分,相当于DPOS了其实;

很多门户网站的分数无意义的原因在于,他们的主业务基于信息归类,不可能无法花费大成本去做机器学习,去计算用户权重。并且用户习惯目前也不在这,成本收益对比很清晰。

但我在想,对很多新人来说,他们看不懂我们说的云里雾里的东西(就好比我这篇文章他们一个屁字都不会看)他们需要一个简单直白的东西告诉他们:这个项目好不好?这个KOL割不割?T、M、D、别、废、话、YES、OR、NO?

一个底层行为模式就是:电影、美食、AI模型,所以直观上难以评价的东西,一定会出现一个评分系统,帮助人们更快更直观获取这个东西的价值程度。这最终会形成用户习惯。好比我看影视作品一定会先开豆瓣,我朋友吃饭一定要先开大众点评一样。

说到这里,你似乎能够联想到什么东西。没错,搜索引擎,这个后面说。

先说说我为什么认为一个标准可用的信息门户很重要。

举几个例子吧。

1、之前老是看到有吐槽400U天团割韭菜,但有什么用呢?不是韭菜没有记忆,而是镰刀太多记不过来。就算你记得这个人了,人家改头换面或者卖号了,完了推倒重来了。用户天生不擅长记这些东西的,就好比前几天 @0x_Todd 老师说弄混了两位马男一样,没忍住笑,因为大部分人都一样认不清,我也是。

2、现在大多数门户网站会附一个评分,可往往就是简单取个平均数,打分账号根本不知道谁是谁。马斯克给你项目打5分和你自己打能一样吗我就问?

3、请思考一个问题:你认为胡润、福布斯为什么每年要花费大量精力制作排行榜?

全球最大的评级机构之一,穆迪2023全年净利润24亿美元。对于项目方来说,做信息门户服务有很多好处:提升自己的行业地位和话语权;向B端收取服务费;向C端收取订阅费;黑心一点的,收广告费……

光是第一个,话语权。即便我很不喜欢讨论权力这个词,但不可否认,有的时候,权力变现远超任何商业模式,无论这种权力是如何获得的。

第5层:搜索引擎?

前面提到PageRank,这里解释下。

PageRank是谷歌搜索引擎的核心算法之一,PageRank排名简单来说就是衡量一个网页的重要性,如果一个网页被很多其他网页所链接,那么他的排名就更高。某种程度上这个排名就是网络结构中,每个节点(网页)的权重。

假设对于一个网络结构,最初每一个网页的权重都是1;假设有一位随机冲浪者,每次经过一个节点,都会基于该网页上的链接跳转到其他网页,或者极低概率随机跳转到一个无关的新网页(设定一个阻尼系数,然后我们忽略这种情况)。假设这位冲浪者持续在各类网页之间来回跳转,拉长时间线,他停留在每个网页的次数其实就可以看作是节点的权重。

当然,实际的算法肯定没这么简单。再多了我也不懂。咱们就只抽象出这么一个底层模型。

现在就可以回到前面所说的,内容价值的问题了。内容由于是一个带有主观色彩的东西,我没法说人家发了个研报他就是高质量,你整天在那边shitpost就是低质量,不是这样的。或者说,部分是这样的,但一定会有一部分权重,它来源于“PageRank”。

请回到互联网行业常说的、我们炒meme常说的一个词——注意力价值。

形象点说,你这个节点每多被查看一次,就积累一点注意力价值;那么PageRank(在kaito里可能是yaps抽象后的一个内部参数)就是你能捕获的注意力价值相对值。

那么对标到谷歌,如果kaito提供web3信息的搜索服务,你输入一个词,最先搜到的是谁呢?

KOL:妈蛋,本来以为是来嫖你的,绕到最后我反被嫖了?

400U天团正义执行者……

开个玩笑。我们挪开KOL,放到付费能力更强的VC、项目方、CABAL集团、政治利益集团身上,假设kaito能进化到谷歌的地位,这些B端要获客,付钱要付给谁?付多少?嫌多了?那咱竞价排名吧?

……

第6层:机制设计的春天?

老实说,这层和kaito没啥关系,是我从kaito这个项目的研究中得到的一些灵感。如果能让你开心,第0层或者地下室也没问题的。

所有的机制设计,无论事前的演算有多么精巧,一旦实际投入运行,一定会面临来自不同利益群体的的挑战。

俗话说的好,“上有政策,下有对策”,这说的是博弈策略的演进。

更严重的问题是,不同群体的利益可能存在一些根本性的冲突,这意味着其中总有己方会在社区质疑、引战。而作为论据之一,对于难以量化的“事实”的量化规则便是重灾区。针对于此的争论往往最后鸡同鸭讲,沦为无意义。

但是AI评分黑箱不会啊。

AI给你打80分,说你阳气不足,还需努力,你什么想法?

1、感受到冒犯,但冒犯者是AI,算了吧。这是天然的社区包容性。 2、AI为什么给别人打90分只给我打80?我是不是有什么问题?这是AI的技术黑箱,让其时刻站在舆论高点。 3、AI真的会持续自我迭代,你会发现AI说的怎么越来越准了?这是认知接受的温水煮青蛙。

所以,一个好的AI评分模型,能够解决:

1、万物皆可量化了。如果量化效果差,不是不适合量化,是数据还不够。一旦万物都可以转换成明确的数据,很多统计、算法就能跨越性地跑了。 2、AI评分是个黑箱,这意味着不存在完全信息,博弈参与者的最优对策,确定性进一步降低了。 3、最大共识公约数。之前相互瞧不上,都觉得自己的更好;现在都得了吧,AI为准要不就?以和为贵嘛…… 4、随机性乐趣。这个用在炼油会非常合适。

当然,AI的模糊性是双刃剑,使其很容易被拿来作为阴谋的借口。这些相信随着技术发展会慢慢被解决。

差不多就想到这里,最后提一提我对项目的风险认识吧。

风险认识

从yaps这个先行产品来看,kaito目前的优势其实基于twitter,crypto大多数社媒活动是发生在twitter上的,如果twitter API成本变化、甚至直接改了提供数据,可能会带来严重影响。至于farcaster,第一生态暂时没那么成熟,裂变转不起来,第二由于成本低,竞品也能轻易塞进来;短期来说,小工具拥有竞争力。

更核心的问题就是权重算法,如果最终效果不够令人满意,比如大多数人都觉得A比B高但其实A比B低很多,这种其实是有问题的。这不是直觉与否,是算法逻辑有问题或者说团队作恶了。包括AI的中立性是需要被证明的。

第三,是能否得到最大采用。yaps可以很贵,吃精英用户,没问题。但后续怎么让更多人认可和采用,其实是做平台最难的事情。B端,排的高的自然高兴,顺水人情背个书;排名偏低的呢,会不会去搞事情?C端,KOL被拉拢了,但同样成为了“负债”,榜上只要有一个人出事,信任度就会大跌,这是单点风险* N。从yaps推出到最大采用,路还是难走的。

利益声明

我没有收kaito一分钱,不认识kaito任何人,甚至由于我个人反社会工程的原则,当初连twitter后不填钱包,错过了空投的大毛。本文所有言论,是我基于这个项目的一些衍生思考,也不代表项目就会这么做。写下此文的目的在文首已经阐明:kaito似乎没有我最初以为的那么简单,我想研究研究。

欢迎关注twitter交流:

@jojonas_xyz

Subscribe to jojonas
Receive the latest updates directly to your inbox.
Mint this entry as an NFT to add it to your collection.
Verification
This entry has been permanently stored onchain and signed by its creator.