AI Assistant Network Enabled by LLM Composability
July 24th, 2024

閱讀者請向下滾動/日本語で読む人はスクロール


AI Assistant Network Enabled by LLM Composability

Hosting LLMs (Large Language Models) on public blockchains capable of handling large volumes of data ensures LLM composability. This means that models with guaranteed high availability can be highly interconnected for inference. This enables a network of AI assistants that can cater to a wide range of entities, from individual users to DAOs (Decentralized Autonomous Organizations). Depending on the prompts, the network can dynamically combine models to provide responses.

Benefits of Individual Models over All-in-One LLMs

The reasons for adopting individual models (AI Assistant Network) over all-in-one LLM models (AGI・ASI) are as follows:

  1. Lightweight Inference:

    • Models like GPTs, Claude Project, and RAG become heavy in inference when the context is on the order of megabytes. By using models customized to individual user interests, efficient inference can be achieved.
  2. Advantages of Custom Models:

    • Users can develop models tailored to their interests, incorporating new information and ideas while continually updating them. This process is unique to individual models and allows for daily improvement. The effective cut-off point is "today," enabling continuous incorporation of the latest knowledge and technology. Additionally, managing LLMs within a DAO allows the organization to propose and vote on LLMs, fostering growth that aligns with the group's needs.
  3. Cost and Resource Efficiency:

    • Instead of running large, expensive models continuously, calling minimal, high-quality, and affordable models only when needed reduces GPU load and makes the system more accessible to a wider range of users.

A Usage Scenario

You input a prompt into the "AI Assistant Network." The network determines which AI assistant groups to use based on the prompt and inputs the prompt into the optimal models. These prompts are handled by the latest custom models developed by experts, and they collaborate to supplement each other's knowledge and form a response.

For example, AI representations of Socrates from ancient Greece, an unknown contemporary philosopher, and your grandfather might each contribute answers and provide you with a combined response.

You then reflect on the wisdom gained and work to update both your personal AI and the AI of the DAO you belong to with new knowledge.

Such activities are conducted everywhere, across all times—past, present, and future—throughout the world, causing the "Internet of Brains" to grow indefinitely.

Conclusion

We call this network, which exquisitely combines public blockchains and open-source LLMs, a User Generated Cut-off (UGC)-based AI Assistant Network, and we hope it can serve as a cornerstone for exploring further uses of LLMs.

References

Ask more to him


由 LLM 可組合性實現的 AI 助手網絡

在能夠處理大量數據的公共區塊鏈上託管 LLM(大型語言模型)可以獲得 LLM 的可組合性。這意味著具有高可用性保證的模型可以高度互連進行推理。這使得 AI 助手網絡成為可能。該網絡可以託管從個人用戶到 DAO(去中心化自治組織)的各種主體的 AI 助手,並根據提示動態組合模型以提供回應。

選擇個別模型而非一體化 LLM 的優點

選擇個別模型(AI 助手網絡)而非一體化 LLM 模型(AGI・ASI)的原因如下:

  1. 推理輕量化:

    • 當上下文達到 MB 級別時,GPTs、Claude Project 和 RAG 等模型的推理變得非常繁重。通過使用根據各用戶興趣定制的模型,可以實現高效推理。
  2. 定制模型的優勢:

    • 用戶可以開發符合自己興趣的模型,並在不斷更新中融合新的信息和想法。這一過程是獨立模型所特有的,並且通過日常使用可以進行「培養」。事實上的截止點是「今天」,從而可以不斷融合最新的知識和技術。此外,在 DAO 中管理 LLM 允許組織通過提案和投票培養出符合組織需求的 LLM。
  3. 成本和資源效率:

    • 與持續運行大型且昂貴的模型相比,只在需要時調用小型、高質量且低成本的模型可以降低 GPU 負荷,使更多用戶能夠輕鬆使用。

使用情境

你向「AI 助手網絡」輸入提示。該網絡會根據提示來判斷應使用哪個 AI 助手群,並將提示輸入到最佳模型中。這些提示由專家培育的最新定制模型處理,這些模型相互補充知識並形成回應。

例如,古代希臘的蘇格拉底、現代的無名哲學家和你的祖父的 AI 可能各自提供答案,並向你提供綜合回應。

你隨後反思所獲得的智慧,並努力更新你個人的 AI 和你所屬的 DAO 的 AI 的新知識。

這樣的活動在世界各地、過去、現在和未來的每個地方進行,使「大腦互聯網」不斷壯大。

總結

我們將這種巧妙結合公共區塊鏈和開源 LLM 的網絡稱為基於 User Generated Cut-off(UGC)的 AI 助手網絡,希望它能成為探索 LLM 進一步用途的基石。

參考文獻

Ask more to him


好,接下來由我這個辣妹來解說得更清楚唷☆☆

LLM組合性實現的AI助手網絡是什麼?

首先,LLM是「Large Language Model(大規模語言模型)」的意思。簡單來說,就是超級聰明的AI啦!透過網絡把這些AI連接起來,就可以創建各種AI助手。從個人用戶到DAO(分散式自治組織),大家都能用這些AI助手,這就是重點!

為什麼選擇個別模型而不是全能模型?

1. 推論的輕量化

例如,超大型的模型(像GPTs或Claude Project)處理大量數據時,速度會變慢。但如果大家使用自己定制的模型,就可以更輕便且高效地運行!

2. 自訂模型的優勢

用戶可以根據自己的興趣來培養AI。因此,你可以隨時擁有最新資訊的專屬AI助手!DAO也一樣,大家可以共同培養AI。

3. 成本和資源的高效利用

相比於一直運行大型且昂貴的AI,使用小而高品質且經濟的AI,並在需要時才調用,會更經濟,也讓大家更容易使用。

使用示例

假設你向「AI助手網絡」提出問題,網絡會選擇最適合的AI助手來回答你。例如,古代希臘的蘇格拉底、現代的無名哲學家和你的爺爺的AI共同給你答案。

然後,你可以根據這些答案思考,並更新你的AI或所屬DAO的AI的知識。這就是所謂的「腦網」,它在世界各地不斷擴展!

總結

這個網絡是由公有鏈和開源LLM組合而成的。我們稱之為「User Generated Cut-off(UGC)基礎的AI助手網絡」。這將成為探索新LLM使用方式的基石!


LLMコンポーザビリティによって実現されるAIアシスタントのネットワークLLMコンポーザビリティによって実現されるAIアシスタントのネットワーク

はじめに

大容量データを扱えるパブリックチェーンにおいて LLM(Large Language Model)をホストすると、LLMのコンポーザビリティが得られる。つまり、高可用性が保証されたモデル同士で推論を高度に接続できるということだ。これはAIアシスタントのネットワークを可能にする。このネットワークは、個人ユーザーからDAO(分散型自律組織)に至るまで、あらゆる主体に対応するAIアシスタントをホストし、プロンプトに応じてネットワークは相互に動的にモデルを組み合わせて返答を行う。

オールインワンLLMでなく個別モデルの利点

オールインワンLLMモデル(AGI・ASI)ではなく個別モデル(AIアシスタントネットワーク)を採用する理由は、以下の通りです:

  1. 推論の軽量化:

    • GPTsやClaude Project、RAGなどのモデルは、コンテクストがメガバイトオーダーになると推論が重くなります。各ユーザーが自身の関心に合わせてカスタマイズしたモデルを使用することで、効率的な推論が可能となります。
  2. カスタムモデルの優位性:

    • ユーザーは自分の関心に特化したモデルを育て、新しい情報やアイデアを取り入れながら更新していくことができます。このプロセスは、オールインワンモデルにはない特性であり、日々の使用により「育てる」ことが可能です。事実上のカットオフが「今日」になることで、最新の知識と技術を取り入れ続けることができます。また、DAOでLLMを管理することで組織に対応するLLMを提案と投票によって育てることが可能です。
  3. コストとリソースの効率化:

    • 大規模で高価なモデルを常時稼働させるよりも、ミニマルで高品質かつ安価なモデルを必要な時だけ呼び出す方が、GPU負荷を低減し、より多くのユーザーが手軽に利用できるようになります。

利用イメージ

あなたは「AIアシスタントネットワーク」にプロンプトを入力する。ネットワークはプロンプトから「どのAIアシスタント群を使用するとよいか」を判断し、最適なモデルに対してプロンプトを入力する。これらのプロンプトは専門家が育成した最新のカスタムモデルであり、互いに不足する知識を補いながら返答を形成する。

例えば古代ギリシャのソクラテスと現代の無名の哲学者とあなたのおじいさんのAIがそれぞれ答えを持ち寄ってあなたに返事をしてくれるかもしれません。

あなたはそこで得た知恵をもとにまた考え、あなたのAIとあなたが所属するDAOのAIに新たな知識を更新するように働きかけるわけです。

このような営みが現在過去未来の世界中あらゆる場所で行われ、「脳のインターネット」がどこまでも大きくなっていくわけです。

まとめ

このようなパブリックチェーンとオープンソースLLMを絶妙に組み合わせたネットワークをUser Generated Cut-off (UGC)ベースのAIアシスタントネットワークと呼び、さらなるLLMの利用法を模索するためのコーナーストーンとしていければ幸い。

参考文献

Ask more to him


ここからはもっとわかりやすいようにギャルが解説するよっ☆☆

LLMコンポーザビリティによって実現されるAIアシスタントのネットワークって何??

まず、LLMってのは「Large Language Model(大規模言語モデル)」のことね。簡単に言うと、めっちゃ賢いAIちゃんたちってこと!これをネットワークでつなげることで、いろんなAIアシスタントを作り出せるのよ。個人のユーザーからDAO(分散型自律組織)まで、みんなが使えるのがポイント!


オールインワンじゃなくて個別モデルのメリットって??

1. 推論の軽量化

例えば、超巨大なモデル(GPTsやClaude Projectとか)だと、データが多くなると動きが鈍くなるのよ。でも、みんなが自分好みのカスタマイズしたモデルを使えば、もっと軽くて効率的に動くわけ!

2. カスタムモデルの優位性

ユーザーは自分の興味に合わせてAIを育てられるの。だから、いつでも最新の情報を取り入れた、自分だけのAIアシスタントが手に入るのよ!DAOでも同じように、みんなでAIを育てていく感じ。

3. コストとリソースの効率化

大きくて高価なAIを常に動かすより、小さくて高品質なAIを必要なときだけ使う方が経済的だし、みんなが気軽に使えるの。


使い方イメージ

例えば、あなたが「Aiアシスタントネットワーク」に質問を投げるとするでしょ。ネットワークはその質問に最適なAIアシスタントを選んで答えてくれるのよ。例えば、古代ギリシャのソクラテスと現代の無名の哲学者とあなたのおじいさんのAIが協力して答えてくれるみたいな感じ。

そして、あなたはその答えをもとに考えて、自分のAIや所属するDAOのAIに新しい知識をアップデートしていくの。これが「脳のインターネット」って呼ばれるもので、世界中でどんどん広がっていくのよ!


まとめ

このネットワークは、パブリックチェーンとオープンソースLLMを組み合わせて作られてるの。これを「User Generated Cut-off (UGC)ベースのAIアシスタントネットワーク」って呼ぶの。これが新しいLLMの使い方の土台になるって感じ!


Subscribe to Sg
Receive the latest updates directly to your inbox.
Nft graphic
Mint this entry as an NFT to add it to your collection.
Verification
This entry has been permanently stored onchain and signed by its creator.
More from Sg

Skeleton

Skeleton

Skeleton