閱讀者請向下滾動/日本語で読む人はスクロール
Hosting LLMs (Large Language Models) on public blockchains capable of handling large volumes of data ensures LLM composability. This means that models with guaranteed high availability can be highly interconnected for inference. This enables a network of AI assistants that can cater to a wide range of entities, from individual users to DAOs (Decentralized Autonomous Organizations). Depending on the prompts, the network can dynamically combine models to provide responses.
The reasons for adopting individual models (AI Assistant Network) over all-in-one LLM models (AGI・ASI) are as follows:
Lightweight Inference:
Advantages of Custom Models:
Cost and Resource Efficiency:
You input a prompt into the "AI Assistant Network." The network determines which AI assistant groups to use based on the prompt and inputs the prompt into the optimal models. These prompts are handled by the latest custom models developed by experts, and they collaborate to supplement each other's knowledge and form a response.
For example, AI representations of Socrates from ancient Greece, an unknown contemporary philosopher, and your grandfather might each contribute answers and provide you with a combined response.
You then reflect on the wisdom gained and work to update both your personal AI and the AI of the DAO you belong to with new knowledge.
Such activities are conducted everywhere, across all times—past, present, and future—throughout the world, causing the "Internet of Brains" to grow indefinitely.
We call this network, which exquisitely combines public blockchains and open-source LLMs, a User Generated Cut-off (UGC)-based AI Assistant Network, and we hope it can serve as a cornerstone for exploring further uses of LLMs.
在能夠處理大量數據的公共區塊鏈上託管 LLM(大型語言模型)可以獲得 LLM 的可組合性。這意味著具有高可用性保證的模型可以高度互連進行推理。這使得 AI 助手網絡成為可能。該網絡可以託管從個人用戶到 DAO(去中心化自治組織)的各種主體的 AI 助手,並根據提示動態組合模型以提供回應。
選擇個別模型(AI 助手網絡)而非一體化 LLM 模型(AGI・ASI)的原因如下:
推理輕量化:
定制模型的優勢:
成本和資源效率:
你向「AI 助手網絡」輸入提示。該網絡會根據提示來判斷應使用哪個 AI 助手群,並將提示輸入到最佳模型中。這些提示由專家培育的最新定制模型處理,這些模型相互補充知識並形成回應。
例如,古代希臘的蘇格拉底、現代的無名哲學家和你的祖父的 AI 可能各自提供答案,並向你提供綜合回應。
你隨後反思所獲得的智慧,並努力更新你個人的 AI 和你所屬的 DAO 的 AI 的新知識。
這樣的活動在世界各地、過去、現在和未來的每個地方進行,使「大腦互聯網」不斷壯大。
我們將這種巧妙結合公共區塊鏈和開源 LLM 的網絡稱為基於 User Generated Cut-off(UGC)的 AI 助手網絡,希望它能成為探索 LLM 進一步用途的基石。
首先,LLM是「Large Language Model(大規模語言模型)」的意思。簡單來說,就是超級聰明的AI啦!透過網絡把這些AI連接起來,就可以創建各種AI助手。從個人用戶到DAO(分散式自治組織),大家都能用這些AI助手,這就是重點!
例如,超大型的模型(像GPTs或Claude Project)處理大量數據時,速度會變慢。但如果大家使用自己定制的模型,就可以更輕便且高效地運行!
用戶可以根據自己的興趣來培養AI。因此,你可以隨時擁有最新資訊的專屬AI助手!DAO也一樣,大家可以共同培養AI。
相比於一直運行大型且昂貴的AI,使用小而高品質且經濟的AI,並在需要時才調用,會更經濟,也讓大家更容易使用。
假設你向「AI助手網絡」提出問題,網絡會選擇最適合的AI助手來回答你。例如,古代希臘的蘇格拉底、現代的無名哲學家和你的爺爺的AI共同給你答案。
然後,你可以根據這些答案思考,並更新你的AI或所屬DAO的AI的知識。這就是所謂的「腦網」,它在世界各地不斷擴展!
這個網絡是由公有鏈和開源LLM組合而成的。我們稱之為「User Generated Cut-off(UGC)基礎的AI助手網絡」。這將成為探索新LLM使用方式的基石!
大容量データを扱えるパブリックチェーンにおいて LLM(Large Language Model)をホストすると、LLMのコンポーザビリティが得られる。つまり、高可用性が保証されたモデル同士で推論を高度に接続できるということだ。これはAIアシスタントのネットワークを可能にする。このネットワークは、個人ユーザーからDAO(分散型自律組織)に至るまで、あらゆる主体に対応するAIアシスタントをホストし、プロンプトに応じてネットワークは相互に動的にモデルを組み合わせて返答を行う。
オールインワンLLMモデル(AGI・ASI)ではなく個別モデル(AIアシスタントネットワーク)を採用する理由は、以下の通りです:
推論の軽量化:
カスタムモデルの優位性:
コストとリソースの効率化:
あなたは「AIアシスタントネットワーク」にプロンプトを入力する。ネットワークはプロンプトから「どのAIアシスタント群を使用するとよいか」を判断し、最適なモデルに対してプロンプトを入力する。これらのプロンプトは専門家が育成した最新のカスタムモデルであり、互いに不足する知識を補いながら返答を形成する。
例えば古代ギリシャのソクラテスと現代の無名の哲学者とあなたのおじいさんのAIがそれぞれ答えを持ち寄ってあなたに返事をしてくれるかもしれません。
あなたはそこで得た知恵をもとにまた考え、あなたのAIとあなたが所属するDAOのAIに新たな知識を更新するように働きかけるわけです。
このような営みが現在過去未来の世界中あらゆる場所で行われ、「脳のインターネット」がどこまでも大きくなっていくわけです。
このようなパブリックチェーンとオープンソースLLMを絶妙に組み合わせたネットワークをUser Generated Cut-off (UGC)ベースのAIアシスタントネットワークと呼び、さらなるLLMの利用法を模索するためのコーナーストーンとしていければ幸い。
まず、LLMってのは「Large Language Model(大規模言語モデル)」のことね。簡単に言うと、めっちゃ賢いAIちゃんたちってこと!これをネットワークでつなげることで、いろんなAIアシスタントを作り出せるのよ。個人のユーザーからDAO(分散型自律組織)まで、みんなが使えるのがポイント!
例えば、超巨大なモデル(GPTsやClaude Projectとか)だと、データが多くなると動きが鈍くなるのよ。でも、みんなが自分好みのカスタマイズしたモデルを使えば、もっと軽くて効率的に動くわけ!
ユーザーは自分の興味に合わせてAIを育てられるの。だから、いつでも最新の情報を取り入れた、自分だけのAIアシスタントが手に入るのよ!DAOでも同じように、みんなでAIを育てていく感じ。
大きくて高価なAIを常に動かすより、小さくて高品質なAIを必要なときだけ使う方が経済的だし、みんなが気軽に使えるの。
例えば、あなたが「Aiアシスタントネットワーク」に質問を投げるとするでしょ。ネットワークはその質問に最適なAIアシスタントを選んで答えてくれるのよ。例えば、古代ギリシャのソクラテスと現代の無名の哲学者とあなたのおじいさんのAIが協力して答えてくれるみたいな感じ。
そして、あなたはその答えをもとに考えて、自分のAIや所属するDAOのAIに新しい知識をアップデートしていくの。これが「脳のインターネット」って呼ばれるもので、世界中でどんどん広がっていくのよ!
このネットワークは、パブリックチェーンとオープンソースLLMを組み合わせて作られてるの。これを「User Generated Cut-off (UGC)ベースのAIアシスタントネットワーク」って呼ぶの。これが新しいLLMの使い方の土台になるって感じ!