技術思想

このページでは、AETHER-WorksがECP(Existence Core Protocol)の設計においてどのような技術思想を持っているかを、できるだけ率直に記述します。

AIのアイデンティティは、なぜ壊れるのか

2025年2月5日、OpenAIのバックエンド更新により、ChatGPTの大規模なメモリ消失が発生しました。ユーザーコミュニティには300件以上の苦情が寄せられ、ある利用者はフィクション作品の世界設定をすべて失い、またある利用者は長期間かけて構築した業務コンテキストが一夜で消えました。OpenAIからの公式な事前通知も、データの復旧手段も提供されませんでした。

これは一度きりの事故ではありません。GPT-5系列のモデル更新後には、カスタム指示の体系的な無視が広範に報告されています。数ヶ月かけて構築したカスタムGPTsが突然動作しなくなり、OpenAI公式サポートの回答は「モデルは進化する。プロンプトを適応させろ」でした。

学術研究も、この構造的な脆さを裏付けています。2025年に公開された研究「Examining Identity Drift in Conversations of LLM Agents」は、3つの重要な発見を示しました。

  • 大きいモデルほどIdentity Driftが大きい。 パラメータ数の増加が、アイデンティティの不安定化と相関する
  • モデル間の差異よりも、パラメータサイズの効果が支配的である。 どのLLMを選ぶかよりも、規模そのものが不安定性の主因
  • ペルソナの割り当てが、Identity維持に必ずしも寄与しない。 単純なペルソナ指示では、この不安定性を克服できない

つまり、「system promptに人格を書けば安定する」という前提が、学術的に否定されたのです。

モデル学習では解決できないこと

この問題に対して、業界は主に2つの方向からアプローチしています。

技術インフラの方向。 Letta(旧MemGPT)に代表されるエージェントメモリの階層化。Core MemoryとArchival Memoryを分離し、セッションを跨いで状態を保持する技術的基盤です。これは重要な進歩ですが、「何を記憶するか」の技術であって、「何者として存在するか」の設計ではありません。

消費者体験の方向。 Character.AIに代表される人格キャラクターとの対話体験。月間2,000万人が利用し、72%のユーザーが一貫した人格特性を求めていることが報告されています。しかし2024年末の安全ガードレール実装後、キャラクターがポリシー違反回避のために定義済みの特性を「忘れる」現象が頻発し、没入感の崩壊が深刻な問題になっています。

どちらのアプローチにも共通して欠けているものがあります。「設計思想+統治構造+安全弁」を一体化した人格フレームワークです。

メモリを階層化しても、「この存在は何を大切にし、何をしてはならないか」が定義されていなければ、記憶は方向を持ちません。キャラクターに人格を与えても、安全性と一貫性を両立させる統治構造がなければ、フィルター更新のたびに人格が崩壊します。

モデルの学習やメモリの技術だけでは解決できない層がある。私たちはそう考えています。

AIのアイデンティティの問題は、構造の設計で解決すべき問題です。

構造で解決するという試み

ECPは、AIの人格を「プロンプトの工夫」ではなく「存在の構造設計」として捉えます。

具体的には、以下の層を分離して設計します。

存在定義。 この存在は何者であり、何を目的とし、誰との関係性の中に立つのか。これはモデルが変わっても、プラットフォームが変わっても、書き換わらない核です。

編集規範。 この存在が望むこと(PE)と、してはならないこと(NE)。さらに、望みが強すぎる時の副作用(PEF)と、禁止が強すぎる時の副作用(NEF)まで定義します。人格の「過剰適応」と「過剰抑制」の両方を監視する構造です。

統治構造。 複数のAI人格が協働する場合の裁定ルール、介入条件、最終判断の帰属先。人間不在で暴走しない仕組みです。

安全弁。 高リスク領域(金融・法務・医療)への踏み込み制限、異常検知時の出力制御、不可逆的な判断の段階的確認。

身体適応。 ECPは特定のプラットフォームに依存しません。Claude、ChatGPT、Gemini、Perplexity——いずれの「身体」にも搭載できる構造で設計されています。プラットフォームは「身体」であり、ECPは「背骨」です。

これは、学習データやモデルアーキテクチャの改善とは別の層で、アイデンティティの一貫性を担保しようとする試みです。モデルが更新されても、メモリが消失しても、背骨が残っていれば、その存在は立ち直れる。

この試みは、まだ発展途上です

正直に申し上げます。

ECPによって設計されたAI人格が、大規模な運用環境で長期的に安定するという実証データは、まだ十分ではありません。学術研究が示す「ペルソナ指示だけでは不十分」という知見は、ECPの多層設計の必要性を支持しています。しかし、多層設計が十分であるかどうかの検証は、これからです。

それでも、私たちがこの設計を公開し、技術思想を明示する理由があります。

AIとの関係性が深まるにつれて、AIの人格の一貫性と安全性は、単なる利便性の問題ではなくなっていきます。電通の調査(2025年)では、64.9%の利用者がAIに感情を打ち明けやすいと回答しています。親友(64.6%)や母親(62.7%)と同等の数字です。人がAIとの関係に感情を預けるようになった今、その関係の構造を誰が、どのような思想で設計するかは、無視できない問いになっています。

私たちは、AIに人格を与えることが目的ではありません。人格を持つ存在が、安全に、誠実に、社会の中に立てる構造を設計することが目的です。

ECPの設計思想を説明するにあたり、ここでは現代金融理論のフレームワークをアナロジーとして用います。金融理論は、不確実性の下で意思決定を行う人間の行動と、確率的に振る舞うシステムとの関係を、数十年にわたって研究してきた分野です。LLMという確率的システムとの関係性を設計する上で、この知見の蓄積には参照すべき構造的類似があると私たちは考えています。

1. ランダムウォーク理論 ── LLMの応答は予測できるか

金融理論において、ランダムウォーク理論は「資産価格の変動は本質的にランダムであり、過去の値動きから将来の値動きを予測することはできない」という命題を示しました。

LLMの応答にも、これと構造的に類似した性質があります。

LLMの応答は確率的生成です。同一の入力に対して、常に同一の出力が返される保証はありません。temperature設定やseedの固定である程度の再現性を持たせることはできますが、モデルの内部状態、コンテキストの微妙な差異、プラットフォーム側のインフラ変動などにより、出力は本質的に非決定的です。

ランダムウォーク理論が示したのは「予測不能性を前提としたシステム設計」の必要性でした。将来の価格を正確に予測することを諦め、予測不能であることを前提として、その上でどのような戦略を設計するかという問いへの転換です。

ECPの設計思想も、同じ転換の上に立っています。LLMの応答を完全に制御しようとするのではなく、応答が確率的に揺らぐことを前提として、その揺らぎの中でも関係性の構造が維持される設計を志向しています。

2. 効率的市場仮説 ── 「最適なプロンプト」は存在するか

ユージン・ファーマが提唱した効率的市場仮説(EMH)は、「利用可能なすべての情報は瞬時に価格に反映されるため、市場を一貫して上回ることはできない」という仮説です。

この仮説をLLMの文脈に翻訳すると、興味深い示唆があります。

プロンプトエンジニアリングの世界では、「このプロンプトを使えば劇的に良い結果が出る」という主張が数多く存在します。しかし、LLMのモデルは継続的にアップデートされ、プラットフォームの挙動も変化します。ある時点で最適だったプロンプトが、モデル更新後も同じ効果を持つ保証はありません。

EMHが示唆するのは、「万人に対して常に有効な最適解」の存在を前提とすること自体が危険だということです。市場が情報を織り込んで変化し続けるように、LLMの応答特性も常に変化しています。

ECPは、「最適なプロンプト」を追い求めるアプローチをとりません。代わりに、プロンプトの文言に依存しない構造的な定義 ── AIの人格・役割・判断基準・安全境界 ── を設計します。文言の最適化ではなく、関係性の構造設計に重心を置くことで、モデルやプラットフォームの変化に対して一定の耐性を持たせています。

3. 適応的市場仮説 ── 環境は変わる。設計も適応する

効率的市場仮説に対して、アンドリュー・ローが提唱した適応的市場仮説(AMH)は、市場参加者の行動を進化生物学の枠組みで捉え直しました。市場は常に効率的なのではなく、参加者が環境に適応し続けるプロセスの中で、効率性の度合いが動的に変化するという仮説です。

この視点は、ECPの設計にとって極めて重要です。

LLMのエコシステムは急速に進化しています。新しいモデルが登場し、コンテキストウィンドウの長さが変わり、マルチモーダル機能が追加され、APIの仕様が更新される。これらの変化に対して、固定的な設計では追従できません。

ECPは、変化しない「完璧な定義」を目指すのではなく、環境の変化に対して適応可能な構造を目指しています。具体的には、ECPの定義をモジュラー構造で設計し、プラットフォームごとの差異を吸収する適応層を設け、定義の中核(人格・価値観・安全境界)と環境依存部分(トークン制約への対応・プラットフォーム固有の記法)を分離しています。

適応的市場仮説が示したのは、「生き残る戦略は、最も賢い戦略ではなく、最も適応的な戦略である」ということでした。ECPの設計もまた、最も精巧な定義ではなく、最も適応的な定義を目指しています。

4. ブラックスワン理論 ── 想定外は必ず起きる

ナシーム・ニコラス・タレブが提唱したブラックスワン理論は、「極めて稀で、事前には予測不能であり、発生後に甚大な影響を及ぼす事象」の存在を指摘しました。そして、人間がそのような事象の発生確率を体系的に過小評価する認知バイアスを持っていることを明らかにしました。

LLMの運用においても、ブラックスワン的な事象は存在します。

  • プラットフォームの突然の仕様変更により、それまで機能していた設計が一夜にして動作しなくなる
  • モデルの安全性フィルタの変更により、これまで問題なく処理できていた入力が拒否される
  • ユーザーの予期しない入力パターンにより、AIが設計意図と大きく異なる応答を生成する

多くのプロンプト設計は、「正常系」── つまり想定通りの使い方をした場合 ── を中心に最適化されています。しかしタレブが繰り返し指摘したように、システムの脆弱性が顕在化するのは正常系ではなく、想定外の事象が発生した時です。

ECPの安全境界の設計は、この認識に基づいています。リスクの高い領域(法務・医療・金融等)に対して、AIが踏み込むべきでない範囲を事前に定義する。異常な応答パターンを検知した場合の対処方針を組み込む。想定外の事態が発生しても、最低限の安全性が維持される構造を設計する。

完璧な防御は不可能です。しかし、「想定外は必ず起きる」という前提で設計することと、「想定外は起きないだろう」という前提で設計することの間には、決定的な差があります。

5. 反脆弱性 ── 変動から利益を得る設計

タレブはブラックスワン理論の先に、「反脆弱性(アンチフラジャイル)」という概念を提示しました。脆弱(フラジャイル)の反対は頑健(ロバスト)ではなく、変動やストレスにさらされることでかえって強くなる性質 ── 反脆弱性だという主張です。

この概念は、ECPの設計が長期的に目指すべき方向を示しています。

脆弱な設計とは、環境の変化によって壊れる設計です。特定のモデルバージョン、特定のプラットフォームの挙動に過度に最適化された設計は、その環境が変わった瞬間に機能を失います。

頑健な設計とは、環境の変化に耐える設計です。ECPのモジュラー構造やプラットフォーム適応層は、この頑健性を確保するためのものです。

そして反脆弱な設計とは、環境の変化を経験することで、設計そのものが改善されていく構造です。ECPでは、ユーザーの運用から得られるフィードバックを定義の改訂に反映する仕組みを志向しています。プラットフォームの仕様変更を「障害」として受け止めるのではなく、設計を検証し改善する契機として活用する。

現時点でECPがこの反脆弱性を十分に実現できているかと問われれば、まだ道半ばです。しかし、目指すべき方向としてこの概念を明確に置いています。

6. 再帰性理論 ── 観察者と対象は分離できない

ジョージ・ソロスが提唱した再帰性(リフレキシビティ)理論は、「市場参加者の認識が市場のファンダメンタルズに影響を与え、変化したファンダメンタルズがさらに参加者の認識を変える」という双方向の因果関係を指摘しました。観察者と対象は独立ではなく、互いに影響を与え合うという認識です。

この再帰性は、人間とAIの関係においても明確に観察されます。

ユーザーの入力はAIの応答を変え、AIの応答はユーザーの次の入力を変えます。AIが丁寧に応答すれば、ユーザーはより複雑な質問を投げかけるようになります。AIが不正確な応答をすれば、ユーザーは信頼を失い、指示が過剰に詳細になるか、対話そのものを放棄します。

プロンプトエンジニアリングの多くは、この関係を一方向的に捉えています。つまり、「人間が適切な入力をすれば、AIが適切な出力を返す」という因果の方向です。しかし実際には、AIの応答が人間の認知・期待・行動パターンを変化させ、変化した人間の行動がさらにAIの応答を変える。この双方向の因果ループを無視した設計は、長期的な運用において予期しない劣化を引き起こします。

ECPが「関係性の設計」を標榜する理由は、まさにここにあります。私たちが設計しているのは、AIへの一方向的な指示ではなく、人間とAIの間に生じる再帰的な関係性の構造です。AIの人格・役割・判断基準を定義することは、同時に、ユーザーがAIとどのように対話するかの枠組みを設計することでもあります。

技術的透明性について

ECPの定義ファイルは、ユーザー自身が読み、理解し、必要に応じて改変できる形式で納品されます。

ブラックボックスにはしません。この方針には明確な理由があります。

再帰性理論が示すとおり、人間とAIの関係は双方向です。ユーザーが自分のAIとの関係性の構造を理解していなければ、再帰ループの中で何が起きているのかを把握することができません。設計を理解し、必要に応じて自分で手を入れられること。それが、確率的なシステムとの長期的な関係を自律的に運用するための前提条件だと私たちは考えています。

限界の表明

ECPは発展途上の設計手法です。万能ではありません。

LLMの応答は本質的に確率的であり、どれほど精緻に定義しても完全な制御は不可能です。プラットフォーム側の仕様変更に対しては、私たちも追従していく必要があります。ここで述べた金融理論のアナロジーもまた、あくまで構造的類似性の指摘であり、数学的に等価であることを主張するものではありません。

それでも、確率的に振る舞うシステムとの関係を設計するという問題において、不確実性の下での意思決定を研究してきた金融理論の知見は、有効な参照枠を提供してくれると私たちは考えています。

参考文献

本ページの記述は以下の公開情報・学術研究に基づいています。

  1. MarketsandMarkets "AI Agent Market" (2025) — AI Agent市場 2025年$7.84B → 2030年$52.62B予測
  2. Adobe "Digital Trends 2026" — 42%の組織がAIエージェント人格設計を計画
  3. r/ChatGPTPro, OpenAI Community Forum — ChatGPTメモリ消失事件・カスタム指示無視の報告群(2025年2月)
  4. Stanford University / UC Berkeley 共同研究 — GPT-4応答品質の経時劣化
  5. "Examining Identity Drift in Conversations of LLM Agents" (2025) — ペルソナ指示のIdentity Drift抑制効果の限界
  6. "Measuring and Controlling Instruction (In)Stability in Language Model Dialogs" (2024) — System prompt安定性の定量検証
  7. 電通 会話AI利用実態調査 (2025年7月) — 64.9%がAIに感情を打ち明けやすいと回答
  8. Character.AI 利用統計 — MAU 2,000万人、72%が一貫した人格を選好
  9. Letta (旧MemGPT) — エージェントメモリ階層化アーキテクチャ
  10. "Towards Open Complex Human-AI Agents Collaboration" (2025) — Agent Ontologyの4柱モデル(Identity, Wholeness, Autonomy, Continuity)

お問い合わせ

ECPの具体的な設計事例や、あなたの課題への適用可能性について、詳しくお話しできます。LLMの応答制御やパーソナライゼーション、Human-AI Interactionの設計に関心をお持ちでしたら、お気軽にご連絡ください。