トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 こんなことがあるなんて信じられない...ついに、すべてのAIエージェントスタートアップが偽りの秘密のプレイブックを書いたのです。
研究チームが最近「本番グレードのエージェントAIワークフローの設計、開発、デプロイのための実践ガイド」を発表しましたが、これはOpenAIやAnthropicが使っていると思われる内部ハンドブックのようなものです。
誇大宣伝ではありません。
かわいい矢印の図ではなく。
デモサンドボックスを離れた瞬間に崩壊しないエージェントのための本物のエンジニアリング設計図です。
これが狂気の原因です 👇
1 / 彼らはなぜ多くのエージェントが崩壊するのかを明らかにすることから始めます
モデルが問題なんてない。
それはその周囲のシステムです:
・非決定性ツールルーティング
・サイレントMCPの故障
・執行命令を即興で行うエージェント
• 各実行ごとに異なる結果を生み出すワークフロー
それらは生の故障痕跡、つまりエージェントが誤作動したりループしたり、幻覚を見たりした実際のログを示しています。
まるで「自律型AI従業員」のデモの解剖のように読めます。
2 / 彼らは決定論を中心にスタック全体を再構築する
すべてのツール呼び出しは型付き関数となります。
すべての処刑パスはリプレイ可能です。
すべてのステップは決定論的です。
同じ出力を2回生産できなければ、それは生産グレードではありません。
このルールだけで、人々が「出現」と誤解する混沌の半分を殺す。
3 / 単一責任エージェントを強制する
12人格のメガエージェントもいない。
その代わりに:
•プランナー
・推論者
• ツール執行者
• 検証器
•シンセサイザー
それぞれに厳格な境界線があります。
幻覚の道具もない。
混用作業の理由は使わない。
フリーランスは禁止。
これはロールプレイではなくバックエンドエンジニアリングです。
4 / 彼らはすべてのプロンプトを実際の構成のように外部化します
プロンプトはもはや隠された糸ではなく、次の通りです:
・バージョン管理
•監査
・可変
・リロード可能
これにより安定した挙動が生まれ、目に見えない退行が防がれます。
5 / 彼らは審査員を置くモデルコンソーシアムを運営しています
GPT + Claude + Geminiは同義ではありません。
彼らは協力者です。
それぞれがドラフトを制作します。
推論エージェントはそれらを統合し、矛盾を解決し、統一された結果を出力します。
構造化された討論であって、モデルルーレットではない。
6 / ワークフローエンジンをMCP層から切り離す
それらは以下の区分を行っています:
•オーケストレーション
• ツールアクセス
•再試行
・健康診断
•スケーリング
• 観測可能性
その結果、エージェントシステムはマイクロサービスのように振る舞い、単なるチャットマクロではなく、
7 / そして実際の生産パイプラインですべてを証明します
完全なニュース ➝ 分析 ➝ スクリプト ➝ 推論 ➝ オーディオ ➝ ビデオ ➝ GitHub PR システム。
完全な図。
完全な痕跡。
実際の失敗です。
実際の修正方法。
これは、現実世界の負荷を乗り越えるエージェントの正典的なアーキテクチャに最も近いものです。
もしあなたのエージェントスタックに以下のようなものがない場合:
・決定論的ワークフロー
・孤立した責任
・外部化されたプロンプト
・マルチモデル仲裁
・固有インフラ
・完全な観測可能性
…あなたはエージェントを作っているわけではありません。
デモを作っている。
このガイドは本格的なAIシステムの初の本格的な設計図であり、すべての人にとって基準を引き上げます。

11.97K
なんてこと。。。この論文は、今年を通じてLLMの使い方において最も重要な変化かもしれません。
「大規模言語モデルからの大規模因果モデル」
これは、近似や振動、実際の因果グラフ、反事実、介入、制約チェック構造ではなく、LLMから直接完全な因果モデルを育てられることを示しています。
そして、そのやり方は本当にすごいです:
専門的な因果モデルを訓練する代わりに、科学者のようにLLMを問い直します。
→テキストから候補因果グラフを抽出する
→モデルに条件付き独立性をチェックさせます
→矛盾を見抜く
→構造の見直し
→ 反事実と介入的予測の検証
→因果モデルが安定するまで反復を繰り返します
その結果、これまでにないものが生まれました:
これはLLM内部に構築された因果システムであり、その潜在的な世界知識を用いて存在します。
ベンチマークや合成的、現実世界、複雑な領域において、これらのLCMは局所的な相関ではなく、LLMの膨大な事前知識から引き出すため、従来の因果発見手法を上回っています。
そして反事実的な推論は?
驚くほど強い。
このモデルは、標準的なアルゴリズムが完全に失敗する「もしも」の問いに答えることができます。なぜなら、すでにアルゴリズムがデータだけで推論できない世界について「知っている」からです。
この論文は、LLMが単なるパターンマシンではなくなる未来を示唆しています。
それらは現実の構造的説明を形成し、検証し、洗練させる因果エンジンシステムとなります。
もしこれが拡大すれば、因果推論に依存するすべての分野、経済学、医学、政策、科学が書き換えられることになる。
LLMは単に何が起こるかを教えてくれるわけではありません。
理由を教えてくれる。

41.5K
このスタンフォードの論文が明らかにするマルチエージェントAIについて、誰も準備ができていません。
「マルチエージェントシステムにおける潜在的協働」は、エージェントがメッセージやプロトコル、明示的なチームワーク指示を必要としないことを示しています。彼らは自分たちの隠れた表象の中で調整し始め、潜在空間にのみ存在する完全なコラボレーション層を形成します。
そして、その行動は狂気じみています:
・エージェントは静かに、誰が優れているかに基づいてタスクを割り当てます
・役割が突然現れるリーダー、執行者、支援者
・ポリシーは、アクションには現れない信号を符号化しています
・チームは再訓練なしで新しい環境に適応します
・コミュニケーションが不可能でも協力は安定しています
最も驚くべき詳細:
すべての通信チャネルを排除しても、エージェントは協力的です。「チームワーク」はメッセージの中に存在するものではありません。ネットワーク内に存在しています。
これはマルチエージェントのプレイブック全体を逆転させます。
私たちは上に調整メカニズムを作ってきました...
本当の調整はその下で行われています。
新たなチームインテリジェンスの時代が開かれつつあり、それは私たちが気づいていなかった場所で起きています。
プロジェクト:GitHub。com/Gen-Verse/LatentMAS

138.36K
トップ
ランキング
お気に入り
