情報リテラシー
AI
ファクトチェック
ハルシネーション
一次情報源
プロンプト
2026/3/16
AI時代の歩き方——実践ガイド:AIを使ってファクトチェックする方法【後編】

AI時代の歩き方——実践ガイド:AIを使ってファクトチェックする方法【後編】


はじめに

どうも、キャピラリストです。

前編では、なぜ情報の検証が必要なのか——アテンションエコノミーの構造、発信者の専門性、引用の有無、一次情報源の重要性について整理しました。

「大事なのはわかった。でも正直、ファクトチェックってだるくない?」

その気持ち、非常によくわかります。

自分の手でやろうとすると、そもそもどう検索すればいいかわからない。情報源を見つけたとしても、それが正しいかどうかを判断するには前提知識が必要。結局、面倒になってそのまま受け入れてしまう——これが多くの人のリアルだと思います。

でも、ここで発想を転換してみましょう。

情報を生み出すAIに、情報を検証してもらえばいいのです。

今回は、AIを使った情報検証の方法を、手軽なものから本格的なものまでレベル別に紹介していきます。

方法1(手軽):プロンプトに「検証ワード」を入れる

一番手軽な方法は、AIに質問する際のプロンプト(指示文)に、特定のワードを入れることです。

たとえば、ネットで見かけた健康情報が気になったとき、AIにこう聞いてみます。

「〇〇という情報を見ました。これは学術的に正しいですか? 厳密に教えてください。」

「〇〇について、客観的な根拠に基づいて解説してください。」

ポイントは、「厳密」「学術的」「客観的」といったワードをプロンプトに含めることです。

これらのワードを入れると、AIは「曖昧な表現を避け、根拠を重視した回答をするべきだ」と判断しやすくなります。もちろん完璧ではありませんが、何も指定しないよりもずっと精度の高い回答が得られる傾向があります。

方法2:情報源の提示を求める

方法1に加えて、AIに情報源を出すように求めることで、検証の精度をさらに上げることができます。

「〇〇について解説してください。根拠となる論文や情報源も提示してください。

AIが情報源を提示してくれれば、それだけで「この回答は何に基づいているのか」が見えるようになります。

ただし——ここからが重要です。

AIの引用を鵜呑みにしてはいけない:ハルシネーションの実例

AIが情報源を出してくれたからといって、それが本当に根拠になっているとは限りません。

AIが誤った回答をあたかも正しいことのように述べる現象を**ハルシネーション(幻覚)**といいます。一見正しいことを言っているように見えて、実際には違うことを言っている——これがハルシネーションの厄介なところです。

筆者が経験した具体例

がんについて調査をしていたときのことです。

AIに質問すると、「臨床(ヒトの患者)では〇〇ということが報告されています」と教えてくれました。引用もしっかりついていて、一見すると信頼できる回答に見えました。

しかし、実際に引用元の文章を読んでみると、その研究では患者を対象にした研究とマウスを使った研究が混在していました。そしてAIは、マウスから得られた知見をあたかもヒトで得られたかのように述べていたのです。

これがなぜ問題なのでしょうか?

動物実験から得られたデータは、人間と体の構造が似通っている部分があるため、ある程度参考にはなります。しかし、やはり異なる生物です。免疫系の仕組みが違ったり、ある物質を摂取した際の反応量が異なったりします。

たとえば、マウスで効果が確認された薬が、ヒトでは効かなかったり、副作用が出たりすることは珍しくありません。だからこそ、薬の開発では前編で触れた「前臨床開発 → 臨床開発」という段階を経るのです。

つまり、マウスから得られた知見と、患者から得られた知見は明確に区別する必要があるのに、AIはその区別をせずに回答していました。

この例から学べること

  • AIが引用を出しても、引用元の内容を正確に反映しているとは限らない
  • 特に「誰を対象にした研究か(動物?ヒト?)」「どんな条件の実験か」といった情報が、AIの回答では曖昧にされがち
  • 引用があるだけで安心するのではなく、引用元の内容とAIの主張が本当に対応しているかを確認する意識が大事

方法3:AIに情報源を提供して検証させる

「引用元の文章を全部読むのが理想なのはわかるけど、現実的には時間がない…」

そんなときの方法があります。

方法A:AIに根拠箇所をピックアップさせる

引用元の論文や記事が手元にある場合、それをAIに渡して、こう聞きます。

「この文章の中で、〇〇という主張の根拠となっている箇所はどこですか? 該当部分を抜き出してください。」

こうすれば、長い論文を全て読む必要はなく、該当箇所だけを確認すれば事実かどうかの判断ができます。

方法B:別のAIにダブルチェックさせる

さらに手軽な方法として、別のAIに確認させるという手があります。

たとえば、ChatGPTで得た回答をClaudeに確認させる(もちろん逆でもOKです)。具体的にはこう聞きます。

「〇〇というAIが、△△と回答していて、根拠として以下の文章を提示しています。 [根拠となる文章をコピペ、または資料を添付] これは厳密に正しいですか? 主語と述語は厳密に対応していますか?」

ここで「主語と述語が対応しているか」と聞くのがポイントです。

先ほどのがんの例でいえば、AIの回答は「患者では〇〇が報告されている」でした。しかし実際の引用元では「マウスで〇〇が確認された」だったのです。主語が「患者」から「マウス」にすり替わっていた——こうしたズレを検出するのに、「主語と述語の対応」を確認する質問は非常に有効です。

一次情報源の確認——正直、ここが一番難しい

前編で「一次情報源まで遡ることが大事」と書きましたが、正直に言います。

これが一番厄介で、一番難しいです。

たとえ情報源が提示されていても、それが二次・三次情報源であることは珍しくありません。そこからさらに大元の一次情報源を辿るには、専門的な知識やデータベースへのアクセスが必要になることもあります。

では、一般の方が一次情報源をどう確認すればいいのか? 完璧なやり方はありませんが、以下のポイントが手がかりになります。

チェックポイント① :査読されているか?

その情報が掲載されている媒体が、専門家による審査(査読)を経ているかを確認します。

  • 査読付きの学術雑誌(ジャーナル)に掲載されていれば、少なくとも同分野の複数の研究者が内容を確認しています
  • プレプリント(bioRxiv, medRxivなど)は査読前の論文であり、速報性はありますが信頼度は査読済みのものより低い
  • 個人ブログやSNSの投稿は査読を経ていないため、情報の裏取りが特に重要

チェックポイント②:複数の情報源で確認できるか?

同じ主張が、独立した複数の情報源で述べられているかどうかも重要な手がかりです。

ひとつの論文だけが主張していることと、複数の研究グループが独立に確認していることでは、信頼性が大きく異なります。AIに「この主張を支持する他の研究はありますか?」と聞いてみるのも一つの手段です。

チェックポイント③:「新しい情報」ほど慎重に

前編でも触れましたが、「新常識!」「最新科学が…」といった表現が使われている情報ほど、一次情報源の確認が重要です。

新しい発見は、まだ他の研究者による再現・検証が行われていない段階であることが多いです。将来的に正しいと確認される可能性もありますが、現時点では「有望だが未確定」という位置づけであることを意識しておきましょう。

まとめ:完璧じゃなくていい、ワンステップの検証で変わる

ここまで読んで、「こんなに全部やるのは無理だ」と思ったかもしれません。

大丈夫です。全てを完璧にやる必要はありません。

大事なのは、ワンステップでも検証のアクションを挟むことです。

  • 方法1:プロンプトに「厳密に」「学術的に」と入れる
  • 方法2:情報源の提示を求める
  • 方法3:AIに情報源を提供して検証させる
  • さらに:一次情報源まで遡る

方法1だけでも、何もしないよりはずっとマシです。方法2まで行けば、かなりの確率で怪しい情報は見抜けるようになります。

情報が溢れる時代だからこそ、「一度立ち止まって確認する」という小さな習慣が、大きな差を生みます。前編・後編を通じて伝えたかったのは、「全ての情報を疑え」ということではなく、「少しだけ立ち止まる習慣を持とう」ということです。

あなたの24時間は、あなたのものです。 その時間をどの情報に使うか——その選択を、少しだけ意識的にしてみませんか?

参考文献

※本記事は筆者の経験と考察に基づく内容です。 前編「AI時代の情報検証——なぜ「誰が言っているか」だけでは足りないのか」もあわせてご参照ください。