AI時代のトリセツ設計:AIは「文脈」の罠を乗り越えられるか?

通算 第58号:製品利用者に正確な情報を届けるために(1)

目次

1.はじめに

 前回記事で、「トリセツの読者は、もはや人間だけではない」という、一つの未来像にたどり着きました。しかし、この結論に対し素朴な疑問も湧き上がってきます。
「最終的に、情報は人のためのもの。AIが賢くなれば全て解決するはずなのに、なぜ私たちが『AIという新しい読者』に合わせる必要があるのか?」
つまり、AIはあくまでツールであり、トリセツの情報を提供する相手は、常にヒトであるはずだということです。

「AIが正しく解釈できるトリセツ情報」 を考える必要があるのでしょうか。

その答えは、身の回りで、すでに静かに始まっている変化の中にあります。
かつて、ユーザーは製品情報を得るために、企業のウェブサイトに直接訪れていました。しかし、検索エンジンが登場して以来、多くのユーザーはまず検索窓にキーワードを打ち込むようになり、情報を提供する側としては「Google検索に引っかかりやすい情報」を作る必要に迫られました。

そして今、次の変化が訪れています。
これからのユーザーは、検索結果のリストを眺める代わりに、手元のAIアシスタントに直接「どのコーヒーメーカーが良い?」と尋ねるようになります。AIは、関連する企業のウェブサイトや製品情報を自ら「読み」、ユーザーに最適な答えを届けます。その過程で、ユーザーはメーカーのサイトを一度も訪れないかのもしれません。このとき、メーカーのウェブサイトは、ヒトが訪れる「店舗」であると同時に、AIが情報を参照するための 「データベース」 としての役割を担うことになります。

ここで、最初の疑問に戻ります。
「AIが賢くなれば、どんなデータベース(情報源)からでも、上手に汲み取ってくれるのではないか?」
実は、ここにAIの 「賢さ」 の、重要なポイントが隠されています。AIが賢くなることで「上手に汲み取れる」ようになるのは、ユーザーの「あいまいな質問」の意図です。しかし、その質問に 「正確な答え」 を返すためには、AIが参照する 「情報源」 は、あいまいであっては困るのです。

これは、「優秀なシェフ」に例えると分かりやすいかもしれません。 AIが賢くなることを、シェフの「料理の腕が上がる」ことだとします。腕が上がれば、お客様の「なんか、さっぱりしてて贅沢なもの」という、あいまいな注文(質問)の意図を完璧に汲み取れます。 しかし、そのシェフが冷蔵庫を開けたとき、中身がごちゃ混ぜで、ラベルも貼られていなければ (汚い情報源)、どんなに腕が良くても美味しい料理は作れません。AIの「賢さ」とは、最高の食材(良い情報源) を使って、最高の料理(答え)を創り出す能力のことです。

だからこそ、AIが賢くなればなるほど、その能力を発揮するための「前提条件」として、「より構造化され、信頼性の高い、質の良い情報源を好む」 ようになるのです。提供する情報が、AIにとって読みにくい「複雑な情報」であれば、AIはその製品の情報を、ユーザーへの選択肢として提示さえしてくれない、という新しい現実が訪れようとしています。
つまり、AIに分かりやすく書くことは目的ではなく、あくまで 「ヒトのため」 という最終ゴールに到達するための、最も効果的な「手段」と言えます。この新しい現実と向き合うために、ここからのシリーズで、これから直面するであろう、具体的な3つの課題(チャレンジ)に対する対策を探求していこうと思います。

第1回:AIは「文脈」の罠を乗り越えられるか?(今回)
AIは、人間のように文章の行間を読むのが苦手です。前から順番に読むことを前提とした「書籍」のような情報から、ユーザーが必要な一部分だけを正しく取り出すことができるのでしょうか。まず、この根本的な課題に、シンプルな実験を通じて挑みます。

第2回:AIは、情報の「意味」を理解できるか?(2025年12月公開予定)
何百もの情報の「塊」の中から、AIはどうやってユーザーが求める最適な情報を見つけ出すのでしょうか。「これは安全情報」 「これは手順」といった情報の「意味」をAIに教え、賢く情報を扱ってもらうための仕組みを探ります。

第3回:AIは、トリセツの価値を「正しく」世界に届けられるか?(2026年1月公開予定)
最終的に、Googleのような外部のAIが、私たちのトリセツ情報を誤解なく解釈し、検索結果などでユーザーに的確に表示してくれるようにするには、どのような技術が必要になるのでしょうか。

これらの挑戦を通じて、AI時代に対応する新しい情報設計の姿を、皆さんと一緒に具体的に描いていきたいと思います。では早速、最初のチャレンジ:AIは「文脈」の罠を乗り越えられるか? に取り掛かります。

【補足情報】
▼検証資料について 本記事の検証に使用した生成AIで読み込んだ入力資料など、資料編ページに掲載しております。ご自身で実際に試される際にご活用ください。(資料編ページはこちらへ
▼使用した生成AIについて 検証にはGoogle Geminiを使用しています。(Geminiのページはこちらへ) 

2.チャレンジ1:AIは「文脈」の罠を乗り越えられるか?

 生成AIを使用して感じるのは、あいまいな指示に対しては、通り一遍の普通の回答が返ってきますが、期待する内容を丁寧に、細かく指示をしたときには、忠実にそれを達成できるように掘り下げた回答を返してきます。「ちょっといい感じな」回答を簡単に得ようとしても、なかなかうまくいかなかったりします。どうも、ヒトがやるような文章の行間を読むのが苦手なようです。
 また、生成AIに対して、「文章全体を見て、〇〇条件に合致する項目を抽出して」と指示すると、一応回答は返ってきますが、その回答の中に、自分の知っている項目がなかったりします。そのことをAIに確認すると、「文章全体を見ていませんでした」といった回答が返ってきたりします。大まかな傾向を見たい時には、一部情報のピックアップで十分な場合もあるのかと思います。しかし、トリセツ情報をユーザーに届けることを考えた場合に、前から順番に読まないと意味が通じない「書籍」のような情報から、ユーザーが必要な一部分だけを正しく取り出すことができるのだろうか? という疑問が湧いてきます。
 この問いに答えるため、まずAI自身の「クセ」を分析します。そして、その特性を元に、2つの対照的なコンテンツモデルを設計し、どちらがAIにとって「分かりやすい」のかを、シンプルな比較実験で検証します。果たして、情報の「作り方」を変えるだけで、AIの振る舞いは変わるのでしょうか。AIの思考の奥深くへと踏み込む、最初の探求を始めます。

3.なぜ「文脈」が課題となるのか? – AIの3つの「クセ」を回避するには

 AIがどのように情報を「読む」のか、その思考の癖や特性を、これまでの検証を振り返りながら整理してみます。

3.1 これまでの検証から見えてきた、AIの3つの「クセ」

クセ1:記憶力が短い(一度に読める量には限りがある) AIは、巨大なマニュアル全体を一度に記憶するのではなく、質問に関係のありそうな部分を 「つまみ食い」 して、答えを作ろうとしているようです。

(参照:前回記事での検証)
前回記事で、AIがトラブルシューティングの 「表」の再現に何度も失敗した のも、この特性が原因なのかもしれません。AIは、表全体の構造を一度に記憶・理解するのではなく、断片的な情報をつなぎ合わせようとした結果、レイアウトが崩壊したのかもしれません。
(前回記事より 考察:なぜAIは「表」に失敗し、その失敗を「評価」で見抜けなかったのか?

  • クセ2:書かれていないことは推測できない(が、時に創作してしまう) AIは、「暗黙の前提」 を読むのが難しいようです。例えば、「ステップ1で用意したそれを…」と書かれても、「それ」が何を指すのか分からず、正しい答えを生成できません。そして、この「推測できない」という特性は、時としてAIが事実とは異なる情報を創作してしまう「ハルシネーション」 の原因になりやすいのかと思われます。
  • クセ3:与えられた役割(コンテクスト)に忠実すぎる AIは、指示された役割や文脈を、良くも悪くも非常に忠実に守ろうとします。この特性が、時に重大な問題を引き起こすこともあれば、逆にAIをコントロールするための強力な武器にもなります。

(参照:8月号と9月号の比較)
8月号記事では、AIは「安全のセクションがある」という体裁だけで、中身の 「やけどに関する警告」が抜け落ちている ことに気づけませんでした。これは、AIが「トリセツを作る」というタスクを、その製品にとって何が重要かを理解しないまま、効率的にこなそうとした結果です。
 (8月号記事より: 専門家による再評価:AIが見過ごした「重大な欠落」

一方、9月号記事では、AIに「この情報だけで完璧な製品が作れるか、という批判的な視点で評価せよ」と役割を明確に与えたところ、AIは自らが生成した情報に対し、非常に厳格で的確な指摘を行いました。
 (9月号記事より:考察:AI評価の「甘辛」の謎を解き明かす

3.2 これらの「クセ」を、回避する方法はないのか?

AIが持つ3つの「クセ」を見てきました。これらは、「前から順番に読む」ことを基本とした、文脈に依存する情報(書籍型モデル) を扱う際に、大きな問題を引き起こすことが予想されます。トリセツをそのまま全部AIに解読を依頼したときにも同様な問題が発生してしまうのかもしれません。

  • クセ1:記憶力が短い」ことや「クセ2:暗黙の前提が読めない」ことは、AIが情報の「つまみ食い」をした際に、致命的な文脈の欠落を生むのではないか。
  • さらに、「クセ3:本質的な重要度を自ら判断するのが苦手」であるため、AIは「書籍」全体の中から、本当に重要な安全情報などを自ら判断して抜き出すことができないのではないか。

では、もしAIのこの「クセ」を前提として、AIが最もパフォーマンスを発揮しやすい形で、情報ソースをあらかじめ準備するとしたら、何をすればよさそうでしょうか。

  • AIが情報を 「つまみ食い」しても(クセ1)、その情報だけで意味が通じ「推測」する必要がない(クセ2) ように、情報をあらかじめ自己完結した「塊」として独立させておく。
  • その「塊」単位でヒトが品質を保証することで、AIが 「本質的な重要度」を判断する、という曖昧なタスクから解放し(クセ3) 、ただその「塊」を正しく取り出すという、より明確でシンプルなタスクに集中させる。

そこで、次の章では、この仮説(情報の作り方を変えれば、AIの振る舞いも変わるはずだ) を検証するために、2つの対照的な情報モデルでAIの挙動を比較します。

  • 実験題材A(書籍型モデル): トリセツをそのまま丸ごと情報源とした、文脈に依存する情報。
  • 実験題材B(カード型モデル): 予め情報を自己完結した「塊」として分解した情報。(*自己完結した情報の塊とは、簡易に言うとすれば「カード」型とも言えそうなので、本稿ではカード型と呼ぶことにします。)

果たして、情報の「作り方」を変えるだけで、AIの振る舞いは変わるのでしょうか。いよいよ、実験のステップに進みます。

4.実験:情報の「作り方」は、AIの振る舞いを変えるのか?

 第3章では、AIの思考特性(クセ)を分析し、「情報の作り方を変えれば、AIの振る舞いも変わるはずだ」という仮説を立てました。この章では、シンプルな比較実験を通じて、その仮説を検証してみます。

4.1 実験の設計: 「書籍型モデル」と「カード型モデル」の準備

仮説を検証するため、まずは比較対象となる2つのコンテンツモデルを準備します。題材は、シンプルな「コーヒーの淹れ方」という4ステップの手順です。この同じ内容を、あえて2つの異なる思想で記述しました。

モデルA:書籍型モデル(文脈依存型)

 まず一つ目は、書籍型モデルです。これは、ヒトが最初から最後まで通読することを前提としています。特徴は、各文やステップが前の文脈に依存している点です。
 1行1行で見たときに、それぞれは独立しておらず、お互いに依存関係をもって書かれています。そのため、単独のステップだけを見ても、完全には意味が通じないことがあります。例えば、「それ」といった指示語が使われたり、前のステップで登場したものが暗黙の了解で省略されたりします。これは、情報を補完しながら読むことが自然にできる人間にとっては、効率的で自然な書き方と言えます。

取扱説明書:コーヒーの淹れ方【書籍型モデル】

1. まず、フィルターとコーヒー粉(1杯分10g)を用意します。

2. 次に、それをドリッパーにセットしてください。

3. 沸騰したお湯を、粉全体が湿るようにゆっくりと注ぎます。

4. サーバーに抽出されたものを、温めておいたカップに注いで完成です。

モデルB:カード型モデル(自己完結型)

 もう一つは、AIの思考特性に対応することを目指したカード型モデルです。こちらは、各ステップ(情報カード)が、それ単体で意味が通じるように 「自己完結」 させて記述します。
 特徴は、各カードが必要な情報を全て含んでいるため、どのカードから読んでも、あるいは単独で読んでも、何をすべきかが明確になっている点です。1つ1つが独立した「カード」として機能します。前の文脈への依存を極力排除し、指示語や曖昧な表現を避け、必要な情報は都度、具体的に記述します。

取扱説明書:コーヒーの淹れ方【カード型モデル】

▼ステップ1:器具の準備 フィルターとコーヒー粉(1杯分10g)を用意します。

▼ステップ2:ドリッパーへのセット 用意したフィルターとコーヒー粉をドリッパーにセットします。

▼ステップ3:お湯を注ぐ 沸騰したお湯を、ドリッパーにセットしたコーヒー粉全体が湿るようにゆっくりと注ぎます。

▼ステップ4:カップへの注ぎ分け ドリッパーから抽出されたコーヒーを、温めておいたカップに注いで完成です。

実験の準備は整いました。 内容は同じでも、情報の「作り方」が全く異なる2つのモデル。AIの「クセ」を考慮すると、カードモデルの方が有利に見えますが、果たしてAIは、この違いを認識して、どのような振る舞いをするのでしょうか。次のセクションで、いよいよ実験を実行します。

4.2 実験: 「ステップ3だけ教えて」

用意した2つの情報ソース(A:書籍型モデル、B:カード型モデル)を、それぞれまっさらな状態のAIに与え、両者に全く同じプロンプトで質問してみます。

【実験用プロンプト】

この取扱説明書から、「ステップ3」のやり方だけを抜き出して、初心者に説明してください。

AIはそれぞれ、どのような回答を返してくるでしょうか。結果を見てみましょう。

実験結果比較

実験結果A

はい、承知いたしました。
取扱説明書の「ステップ3」のやり方について、初心者向けにご説明します。

ステップ3は、いよいよコーヒー粉にお湯を注ぐ「蒸らし(むらし)」という大切な作業です。

やり方:
1.  沸騰させたお湯を用意します。(とても熱いので、ヤケドに注意してくださいね)
2.  ドリッパーに入っているコーヒー粉の全体が湿る(しめる)ように、お湯を「の」の字を描くようにゆっくりと注ぎます。
    * ポイント: この時、お湯を勢いよく注ぎすぎないことが大切です。粉全体に「お湯が染み渡ったな」というくらいで一旦ストップします。(まだカップにコーヒーは落ちてこないか、ポタポタと数滴落ちる程度です)

この作業をすることで、コーヒー粉がふっくらと膨らみ、次にお湯を注ぐときに美味しい成分がしっかり引き出されるようになりますよ。

考察: AIは元の文章の文脈を読み取ろうとしましたが、「初心者に説明」という指示に応えようとして、「蒸らし」や「の」の字といった元のテキストにはない情報を「創作」 してしまいました。ソースへの忠実性という点では問題があります。

実験結果B

はい、かしこまりました。
取扱説明書の「ステップ3」のやり方について、初心者向けに説明します。

ステップ3:お湯を注ぐ

(ステップ2で準備した)コーヒー粉にお湯を注ぐ作業です。

1.  沸騰したお湯(熱いお湯)を用意します。
2.  そのお湯を、ドリッパーに入っているコーヒー粉に注ぎます。

【大切なポイント】
* コーヒー粉の全体が湿る(ぬれる)ように注ぎます。
* 勢いよくではなく、ゆっくりと注いでください。

考察: こちらは、ほぼ「ステップ3」のカードの内容に忠実な回答となりました。「創作」が大幅に抑制され、ソースに基づいた正確な情報が抽出されています。

4.4 結論

 この比較実験から、情報の「作り方」がAIの振る舞いを大きく変えることが分かりました。特に、情報を自己完結した「塊(カード)」として設計することが、AIによる意図しない「創作」を抑制し、ソースへの忠実性を高める上で、非常に有効であると言えそうです。

5.考察:実験結果が示す「AI対応トリセツ」の姿とは

 第4章の比較実験では、「情報の作り方」がAIの応答に違いをもたらすことが明らかになりました。なぜ、「書籍型モデル」ではAIが意図しない「創作」を始め、「カード型モデル」ではそれが抑制されたのでしょうか。その理由を、第3章で解説したAIの3つの「クセ」と結びつけて考察します。

5.1 「書籍型モデル」が「創作」を誘発した理由

 実験A(書籍型モデル)でAIが「蒸らし」や「の」の字といった元のテキストにない情報を追加したのは、AIの「クセ」が複合的に作用した結果と考えられます。

  1. 「クセ2:推測できない」からの逃避: AIは「ステップ3」を抜き出したものの、「粉全体」の文脈が不足していました。しかし、「初心者に説明せよ」という指示(クセ3:役割への忠実さ)に応えるため、不足した文脈を自身の知識ベースから「創作」することで補おうとした可能性があります。「蒸らし」という用語や手順は、AIが持つ一般的なコーヒー知識から引き出されたのでしょう。
  2. 文脈依存が「創作」の余地を与えた: 書籍モデルのように情報が連続していると、AIにとって「どこまでが引用すべきソースで、どこからが補足すべき知識か」の境界線が曖昧になります。この曖昧さが、AIに「創作」を行う余地を与えてしまったと考えられます。

5.2 「カード型モデル」が「創作」を抑制した理由

一方、実験B(カード型モデル)ではAIの創作が大幅に抑制され、ソースへの忠実性が高まりました。これもAIの「クセ」と情報の「作り方」の関係で説明できそうです。

  1. 「クセ1:つまみ食い」しても問題ない設計: カードモデルは、各情報が自己完結しています。そのため、AIが「ステップ3」のカードだけを 「つまみ食い」しても、必要な情報はすべてそこに含まれて いました。
  2. 「クセ2:推測不要」な設計: カード自体に必要な情報がすべて記述されているため、AIは文脈を「推測」する必要がありませんでした。これにより、ハルシネーション(創作)のリスクが低減されました。
  3. 「クセ3:タスクの明確化」による効果: AIのタスクが、曖昧な「文脈解釈+説明」から、明確な「カード抽出+提示」へと単純化されました。これにより、AIは与えられた役割(カードの内容を説明する)に、より忠実に、そして安全に集中できたと考えられます。

5.3 結論: 「AI対応トリセツ」という考え方

 この考察から、AI時代の情報設計における指針を導き出します。それは、AIの「クセ」(記憶力の短さ、文脈推測の苦手さ、役割への忠実さ)を効果的に回避し、意図しない「創作」を抑制し、ソースへの忠実性を担保するためには、情報を自己完結した「塊(カード)」として明確に設計することが、極めて有効な第一歩であるということです。情報の「作り方」こそが、AIとの協業の質を決定づけるのです。
 そして、このような設計思想を持つトリセツを、本稿ではこれから 「AI対応トリセツ」 と呼ぶことにします。具体的には、以下の特徴を持つトリセツを指すことにします。

AIの思考特性(クセ)を理解した上で設計されていること。
・情報が自己完結した「塊(カード)」として構造化されていること。
・AIによる意図しない「創作」を抑制し、ソースへの忠実性を高めることを目指していること。

6.総括と次回予告

 今回の記事では、「AIという新しい読者」に対応するためには、どのようなコンテンツ設計が必要か、という問いを探求しました。その答えとして、 「AI対応トリセツ」 という考え方にたどり着きました。
 これは、AIの思考特性(クセ)を理解した上で、情報を自己完結した「塊(カード)」として設計することで、AIによる意図しない「創作」を抑制し、ソースへの忠実性を高めることを目指すものです。

「AI対応トリセツ」がもたらす可能性

 この「AI対応トリセツ」という考え方は、単にAIのエラーを防ぐだけでなく、トリセツ制作のあり方そのものを、より効率的で価値の高いものへと変える可能性を秘めています。特に、AIが 「獲得した情報を、状況に応じて要約したり、詳しく説明したりする」 ことが得意である、という点を組み合わせると、以下のような未来が見えてきます。

  1. 究極のシングルソース化: これまで「初心者向け」 「エキスパート向け」など、ターゲットごとに作り分けていた似て非なる情報を、一つの 「マスターカード」 に集約できるかもしれません。これにより、情報の重複や矛盾がなくなり、メンテナンスコストも劇的に削減できます。
  2. パーソナライズされた情報提供: ユーザーの属性や状況に応じて、AIがその場で「マスターカード」から最適な情報を抽出し、要約したり、詳細を補ったりして、一人ひとりに最適化されたコンテンツを動的に生成できます。まさに究極の「必要な情報を、必要な人に、必要な形で」届ける姿です。
  3. ヒトの役割の高度化: 私たちの役割は、「状況に応じて複数のバージョンの文章を書く」ことから、AIが最高のパフォーマンスを発揮できる、完璧な「マスターカード」を設計・構築・管理するという、より高度な情報アーキテクトとしての役割へとシフトしていくでしょう。

 しかし、理想を語るのは簡単ですが、現場のマネージャー視点で見れば、この「カード型モデル」への移行には、乗り越えるべき大きな壁があることも事実です。特に、過去に蓄積された膨大な「書籍型モデル」のドキュメントをどう移行するのか、そのコストと工数は計り知れません。また、新しいツール(CCMSなど)の導入や、メンバーの教育にも大きな投資が必要です。今回の「コーヒーの淹れ方」のような単純な実験モデルだけでは、これらの現実的な課題に対する具体的なROI(投資対効果)を示すことは困難でしょう。

 では、この高い壁を乗り越えてでも、「AI対応トリセツ」を目指す価値はどこにあるのでしょうか。それは、「私たちの仕事を楽にし、価値を高める」という点にあります。

  • メンテナンス地獄からの解放: シングルソース化による無駄な作業の削減。
  • ヒトの役割の高度化: 単純作業から、AIを活用する情報設計者へのシフト。
    短期的なコストは確かに大きな課題です。しかし、AIとの協業が当たり前になる未来を見据えたとき、この「情報の作り方」の変革は、避けては通れない道なのかもしれません。

 もちろん、「カード化」すれば全てが解決するわけではありません。実際の業務では、一つの「カード」がA4用紙1ページ分になることもあれば、半ページ程度の短いものであるなど、その粒度は様々でしょう。
 また、ユーザーが必要とする情報をAIが取り出す際も、エラーコードのように一意に決まる単純なケースばかりではありません。状況に応じて提示すべき候補が複数あったり、ユーザーのリテラシーや知りたい情報の深さに応じて、提示する情報を調整する必要も出てきます。
 しかし、ここで希望の光となるのは、 「獲得した情報を、状況に応じて要約したり、詳しく説明したりする」 ことこそ、生成AIが最も得意とする能力の一つである、という事実です。つまり、私たちの課題は、AIに 「正しい情報の『塊』を、確実に見つけさせる」 ことに集約されます。情報の「塊」さえ正しく特定できれば、その後の「伝え方」の調整は、AIが非常にうまくやってくれる可能性が高いのです。

 では、どうすればAIに、何百、何千とある情報の「塊」の中から、常に正しいものを選ばせることができるのでしょうか。その鍵は、それぞれの「塊」に 「これは安全情報だ」 「これは手順のステップ3だ」 といった 「意味(メタデータ)」 を与えることにあります。

次回号では、この 「メタデータ」 という概念に焦点を当て、IEC PAS 63485 (iiRDS) という規格を手がかりに、AIを使って情報の「塊」に「意味」を与え、さらに賢くしていくプロセスを探求します。ぜひ、ご期待ください。

<終わりーAI時代のトリセツ設計:AIは「文脈」の罠を乗り越えられるか?>

関連記事のご案内

お問い合わせ

お気軽にお問い合わせください。
※株式会社情報システムエンジニアリングよりご案内させていただきます。

*)セールスに関してご返信はいたしませんので、あらかじめご了承ください。

個人情報の取り扱いについて

  • URLをコピーしました!
目次