【2026】MIRASとは?Googleが挑む「忘れないAI」の仕組みとTitansとの関係を解説

AIの性能向上が進む一方で、従来の大規模言語モデル(LLM)では、長期的な文脈を保持できないという課題が共通していました。この忘却問題を設計レベルから解決しようとするのが、Google Researchが提唱したMIRASです。

本記事では、MIRASの基本構造から従来モデルとの違い、実務への影響までを整理し、AI開発の次の潮流を解説します。次世代AIのアーキテクチャ(基本構造)や、最新の技術動向に関心がある方は、ぜひ参考にしてください。

MIRASとは

MIRASとは

MIRAS(ミラス)とは、Google Researchが2024年末に発表した、AIに人間のような長期記憶を持たせ、従来のモデルが抱えていた忘却という課題を根本から解決するための新しい設計フレームワークです。

MIRASは、従来のTransformerモデル(現在の主流モデル)が苦手としていた、文脈の維持と記憶の更新を理論的に解決するために考案され、記憶プロセスを4つの要素で最適化している点が特徴です。まずは、MIRASがもたらす革新的な変化について、以下の3つの観点から技術的な仕組みを解説します。

  • AIの長期記憶を実現する設計理論
  • 従来の忘却問題を解決する仕組み
  • 人間のような経験蓄積の実現

MIRASの構造を理解することで、次世代AIにもたらす変革の本質が見えてきます。

AIの長期記憶を実現する設計理論

MIRASの核心は、AIの記憶プロセスを4つの数理的要素に分解し、モデル内部に統合されたシステムとして再定義した点にあります。MIRASでは、以下の4要素をフレームワークとして確立しました。

要素役割
Memory(書き込み)情報を圧縮し、ニューラルメモリへ格納する
Retention(保持)時間経過や重要度に応じて情報を取捨選択する
Associative bias(想起)文脈に必要な過去情報を関連度にもとづいて呼び出す
Sequence modeling(処理)蓄積した記憶をもとに次の文脈を生成する

このように記憶の機能を抽象化することで、開発者は記憶構造を論理的に設計できるようになります。つまり、MIRASは記憶するAIを実装するための厳密な技術仕様書といえます。

従来の忘却問題を解決する仕組み

MIRASは、情報の重要度を動的に選別することで、コンテキストウィンドウ(文脈の保持容量)制限による忘却を防ぎます。以下のメカニズムによって、機械的な削除ではなく、覚えるべき情報と忘れてよい情報の自律的な判断を実現します。

メカニズム役割
Surprise Metric(サプライズ指標)予想外の重要情報を検知し、優先的に記憶する
Forgetting Gate(忘却ゲート)価値が低下した情報を自律的に選別・削除する

MIRASを採用したAIモデルは、要点のみをニューラルメモリに凝縮するため、計算リソースを過度に消費することなく、長期的な文脈維持が可能になります。

人間のような経験蓄積の実現

MIRASの最大の特徴は、テストタイム・トレーニング(推論時の学習)により推論の最中にも記憶を更新し、経験を蓄積できる点です。以下の2つの学習プロセスを組み合わせることで、これまでは運用開始後に知識が固定化されていた制約を克服しています。

学習プロセス役割
静的な学習学習サーバー上で行われる事前の知識獲得
動的な学習対話や推論の最中に行われる記憶の書き換え

この設計により、MIRASは昨日の指示やプロジェクト固有のルールを経験として蓄積し、使い続けるほどに最適化されるAIシステムが構築可能になります。

MIRASとTitansの関係

Googleから発表されたMIRASとTitansは、密接に関係していますが、役割が異なります。ひと言で言えば、MIRASは脳の使い方の理論(フレームワーク)であり、Titansはその理論で作られた実際の脳の構造(アーキテクチャ)です。ここでは、混同されがちなMIRASとTitansの関係性について、以下の3つの視点で整理します。

  • MIRASは理論でTitansは実装
  • 設計思想を具現化したのがTitans
  • 学習と記憶を効率化するセット関係

MIRASとTitansの違いを把握したい方は、ぜひ参考にしてください。

MIRASは理論でTitansは実装

MIRASとTitansの違いは、概念か実体かです。

名称カテゴリ定義・役割
MIRAS理論(Framework)記憶の仕組みを数理的に定義した設計思想
Titans実装(Architecture)MIRASの理論を組み込み、実際に動作するAIモデル

理論体系であるMIRASを、実際に使える形に具現化した最初のモデルがTitansという位置付けになります。

設計思想を具現化したのがTitans

Titansは、MIRASの中核概念であるNeural Memoryを、従来のTransformer構造に融合させたハイブリッドなアーキテクチャです。内部に役割の異なる複数のメモリ構造を実装することで、高度な文脈処理を実現しています。

メモリ構造役割
Core直近の文脈を処理する短期記憶
Long-term Memory過去の重要情報を圧縮して保持する長期記憶
Persistent Memory学習済みの知識を安定して保持する永続記憶

MIRASが定義した記憶の分類をモジュール(構成部品)として組み込むことで、忘れないAIを実際に動作するシステムとして成立させています。

学習と記憶を効率化するセット関係

MIRASとTitansはセットで運用されることで、AIの学習効率と推論速度を向上させます。TitansはMIRASの論理を用い、すべてのデータを再計算するのではなく、記憶モジュールから必要な情報をピンポイントで引き出します。

担当効率化への貢献
MIRAS記憶を瞬時に検索するための数式を提供する
TitansMIRASの数式を実行し、一定の負荷で済む高速処理を行う

MIRASとTitansのセット関係により、100万トークンを超える超文脈でも、従来のモデルより少ないメモリと計算リソースでの処理が可能になります。

MIRASが解決するAIの課題

MIRASは、従来のLLMが構造的に抱えていた「記憶容量の物理的限界」を本質的に解決するために開発されました。ここでは、MIRASの導入によって、どのような技術的ボトルネックが解消されるのか、以下の3つの観点から解説します。

  • 長文入力による文脈消失の回避
  • 会話中断時の記憶リセット問題
  • 学習と推論の分断を解消

MIRASが構造的な課題を解決することで、AIは単なるチャットボットから、継続的な文脈を理解するパートナーへと進化します。

長文入力による文脈消失の回避

MIRASは、コンテキストウィンドウの限界による文章の断絶を回避します。従来のAIでは、容量上限に達すると冒頭の設定が失われる課題がありました。MIRASは、重要な文脈のみを要約・圧縮して保持することで、メモリ容量を圧迫することなく、論理破綻のない長文生成を実現します。

会話中断時の記憶リセット問題

MIRASは、セッション(会話)を切断すると記憶が失われるステートレス性の課題も解決します。記憶をセッションをまたいで保持できる構造へ再設計しているため、ブラウザを閉じても数日前の会話や過去のプロジェクト内容を自然に参照しながら、シームレスに対話を継続できます。

学習と推論の分断を解消

MIRASは最新情報を反映するために不可欠だった、高コストな再学習の頻度も下げます。MIRASは再学習を行わずに、運用中に内部状態を更新することで情報の鮮度を保てるため、エンジニアは定期的な再学習作業から解放され、低コストでの運用が可能になります。

MIRAS導入で実現するユースケース

MIRAS導入で実現するユースケース

MIRASの導入は、従来の一問一答型のチャットボットを、継続的な文脈を共有するパートナーへと進化させます。単に記憶力がよくなるだけでなく、ユーザーの意図を長期的に理解し、言外のニュアンスまで汲み取る高度な対話が可能です。具体的には、以下の3つの領域で、革新的な変化が期待されています。

  • 癖や好みを忘れないパーソナルアシスタント
  • 伏線や設定を守り抜く長編コンテンツ制作
  • 過去の履歴にもとづき提案するビジネスAI

それぞれ見ていきましょう。

癖や好みを忘れないパーソナルアシスタント

MIRAS搭載アシスタントは、過去の対話を経験として蓄積し、ユーザーの思考パターンや好みを踏まえた支援を行います。単なる応答ツールではなく、文脈を共有したパートナーとして振る舞う点が特徴です。

特徴従来のAIMIRAS搭載AI
指示頻度毎回前提条件の再入力が必要一度の指示で継続的に反映
コード生成一般的な記法で出力ユーザー固有の命名規則を再現
関係性常に初対面の対応使い込むほど文脈を共有

MIRASの導入により、プロンプト作成の手間をおさえながら、本質的なクリエイティブ作業に集中できる環境が実現します。

AIの能力を引き出す指示力を身に付けるなら

生成AIセミナーMIRASのような高度なAIであっても、その能力を最大限に引き出すには的確な指示が不可欠です。「思ったとおりの回答が来ない」と悩む前に、AIに意図を正確に伝える指示の出し方を習得しませんか。

業務効率を最大化したいなら、短期間でAIの基礎知識から応用レベルのスキルまでマスターできるセミナーへの参加をおすすめします。以下の生成AIセミナーは、生成AI活用術の基本から高度なスキルまで、網羅的に学べると人気です。

セミナー名生成AIセミナー
運営元GETT Proskill(ゲット プロスキル)
価格(税込)27,500円〜
開催期間2日間
受講形式対面(東京・名古屋・大阪)・eラーニング

伏線や設定を守り抜く長編コンテンツ制作

MIRASは、長編小説の執筆や大規模な仕様書の作成において、冒頭から結末まで一貫性を保った生成を実現します。物語や仕様書が長大になっても、論理破綻を起こすことなく設定を維持し続けます。

項目従来のAIMIRAS搭載AI
設定の維持容量を超えると初期設定が消える重要設定を長期記憶として保持
伏線の回収過去の記述を参照できず、未回収になる冒頭の伏線を終盤で正しく回収
キャラクター後半で口調や性格がブレる一貫した人格を維持

これにより、人間が都度設定をリマインドする工数が削減され、破綻のない高品質な長編コンテンツ制作が可能になります。

過去の履歴にもとづき提案するビジネスAI

ビジネスシーンにおいて、MIRASは単なる自動化ツールではなく、組織の過去の経緯を踏まえたコンサルタントのような役割を果たします。一般論ではなく、組織内の暗黙知や経緯を考慮した提案が可能になります。

シーン従来のビジネスAIMIRAS活用時のビジネスAI
トラブル対応ネット上の一般論を提示以前の類似案件の解決策を引用して提案
会議の補助その場の発言を記録するのみ前回の決定事項との矛盾を指摘
新人教育マニュアルどおりの回答過去の経緯や不文律も含めた回答

MIRASの活用により、属人化しやすい組織のナレッジを有効活用し、教育コストの削減やミスの再発防止が可能になります。

MIRASがAI開発に与える影響

MIRASの登場は、計算リソースの増強に依存していた従来の開発手法を根本から変える転換点となります。MIRASが開発現場にどのような変化をもたらすのか、以下の3つの観点から解説します。

  • 設計思想が処理から記憶へシフト
  • エージェント型AIの実用性が向上
  • 外部検索に頼らない知識定着

これらの変化は、AIエンジニアが意識すべき次世代の競争ルールとなります。順に解説します。

設計思想が処理から記憶へシフト

MIRASは、AI開発の競争軸をコンテキストウィンドウの拡大から記憶構造の最適化へと転換させます。従来のような計算リソースを増やすスケーリング手法から脱却し、MIRASは必要な情報を効率的に保持・検索する設計を重視しています。

比較項目従来のアプローチMIRASのアプローチ
スケーリング入力増加に比例して計算量が増大入力が増えても計算量は一定
リソース配分演算能力への投資検索・圧縮効率への投資
限界要素GPUメモリ容量記憶検索アルゴリズムの精度

今後は、どれだけ大規模なGPUを用意できるかではなく、いかに効率的な記憶設計を行えるかが、AIモデルの性能を左右する主要因になります。このように、AI開発は処理能力よりも、設計思想や指示の出し方がAIモデルの性能を左右する時代に移行しています。しかも、どれほどAIが進化しても、その能力を引き出すのは人間です。

時代に取り残されないために、実務で生成AIを活用するには、操作方法だけでなくAIがどのように理解し、判断するかを踏まえた使い方を知ることが重要です。特に、業務でAI導入を検討している方や、既存の活用に限界を感じている方は、生成AIセミナーのような短期間集中で効率よく学べる場も参考になるでしょう。

エージェント型AIの実用性が向上

MIRASは、複雑なタスクを自律的に遂行するエージェント型AIの実用性を大きく向上させます。永続的な記憶により長期プロジェクトにおいてもゴールを見失わず、一貫した行動を実現します。

項目従来のAIエージェントMIRAS搭載エージェント
タスク範囲単発のアクションが中心複数工程にまたがるプロジェクト
エラー耐性手順が増えると破綻しやすい最終ゴールを維持し修正が可能
実用性補助ツールにとどまる業務を任せられるレベル

この変化により、AIは単なる相談相手から、目標達成に向けて自律的に動き続ける実務レベルのエージェントへと進化します。

外部検索に頼らない知識定着

MIRASは、外部データベース(RAG)への依存度を下げ、モデル内部に知識を保持するアプローチを可能にします。情報を記憶として定着させることで、システムの複雑さや応答遅延といった構造上の制約を解消します。

項目従来のRAG(検索拡張)MIRAS(内部記憶)
知識の所在外部データベースを参照モデル内部のメモリに保持
処理フロー検索→読み込み→生成内部状態から直接出力
応答速度検索処理による遅延あり即座に応答可能

MIRASを採用したAIは、外部システムの構築・運用コストをおさえながら高速で自然な対話が可能になります。なお、RAGの仕組みや活用方法については、以下の記事で詳しく解説していますので、ぜひ参考にしてください。

【2026】RAGとは?生成AIの精度を高める仕組みと活用事例・おすすめツールをわかりやすく解説

MIRASの今後の展望

MIRASの研究成果は、単なる実験的な技術論にとどまりません。今後、Googleの製品エコシステムへの実装が進み、AIアーキテクチャの新たなデファクトスタンダードとなることが予想されます。MIRASは、以下の2つの方向での発展が期待されています。

  • Google製品への実装ロードマップ
  • 次世代AIの標準規格になる可能性

これらが実現すれば、ユーザーのAI利用体験はよりパーソナルで効率的なものへと変化します。それぞれ解説します。

Google製品への実装ロードマップ

MIRASの技術は、Googleが提供するGeminiなどのAIモデルや、各種アプリケーションへ段階的に統合されていくと考えられます。特に膨大な文脈を低コストで扱う特性は、クラウドだけでなく、スマートフォンなどの端末側での高度な処理を可能にします。

適用領域実現が期待される機能
Gemini(LLM)過去の対話を永続的に記憶するパーソナルAI
WorkSpaceプロジェクト全体の資料や経緯を理解した執筆・提案支援
Android(Pixel)ユーザーの行動パターンを端末内で学習し続けるOS

サーバーコストの制約で制限されていた「超長期記憶機能」が、一般ユーザーにも利用可能になると考えられます。現在提供されているGeminiの活用方法や、業務で成果を出すためのプロンプト設計については、以下の記事で詳しく解説しています。

【2026】Geminiプロンプトの秘訣!企業が知らないと損する活用術

次世代AIの標準規格になる可能性

MIRASは、現在主流のTransformerが抱える計算コストの課題を克服し、次世代アーキテクチャの標準規格となる可能性を秘めています。データ量に応じて計算負荷が増える従来型に対し、MIRASは記憶を活用することで効率的な処理を維持します。

世代アーキテクチャ特徴
現在Transformer主体高性能だが長文処理のコストが高い
次世代MIRAS(ハイブリッド)記憶と注意機構を併用し、軽量かつ高効率

将来的には、多くの大規模言語モデルに記憶モジュールが標準搭載され、AIモデルにおける学習と推論の境界が徐々に曖昧になっていくと考えられます。

MIRASについてまとめ

MIRASは、AI開発における長年の課題であった忘却を克服し、計算リソースの拡大に頼らない新たな進化の道筋を示しました。これまでの「その場限りの応答」から、「経験を蓄積する対話」への転換は、AIを単なるツールから文脈を理解するパートナーへと昇華させるものです。

忘れないAIが標準となるこれからの時代、その能力を最大限に引き出すには、人間側の指示出しスキルが重要になります。今後は、AIの仕組みを理解したうえで使いこなすスキルが、実務で差をつける時代になるでしょう。

【2026】MIRASとは?Googleが挑む「忘れないAI」の仕組みとTitansとの関係を解説
最新情報をチェックしよう!