AIは「何を使うか」で結果が変わる時代へ 〜論文検索で感じたAIの使い分けの重要性〜
臨床医学研究室の三田です。
皆さんは普段、AIを使っていますか?
スマホで何かを調べた時にはAIによる結果が最初に表示されますし、文章作成やイラスト作成で使ったりしている方も多いのではないでしょうか。
一括りにAIといっても、数えきれないほどのモデルが存在し、どれを使用するかで結果が変わることをご存じでしょうか。例えば下の画像はAIに描かせた競走馬の絵ですが、このように同じテーマのイラストを描かせても使うモデルによって結果が変わります。
このようなモデルによる結果の違いはイラストだけに留まりません。
~AIによって格段に効率化した論文検索~
私がAIを使用するなかで特にモデルの違いを感じるのは論文検索です(作成ではないですよ)。
論文検索においてもAIはとても便利で、あまり知識のない研究分野について浅く広く調べる時にはとても使い勝手がよいと感じます。
大衆向けのGeminiやChat GPTに「○○の病気に対して△△の治療方法を検証している論文を探して」のような指示を出すと結果がすぐに返ってきます。
しかしAIは時々、存在しない論文を“それっぽく”作ってしまうことがあるのです・・・。
例えばAIが出した結果には、
- 論文タイトル
- 著者名
- 雑誌名
- 発行年
まで自然に提示されるため、一見すると本当に存在する論文のように見えます。
しかし、実際にその引用先を検索してみると、その論文自体が存在しないことがしばしばあるのです。
AI分野では、この現象を「ハルシネーション(hallucination)」と呼びます。
つまり、AIがもっともらしい誤情報を生成してしまう現象です。
これでは正しい情報源になかなかたどり着くことができません。
ここで重要なのが、「AIモデルの使い分け」です。
例えば一般的な対話AIは、文章作成、要約、アイデア出しなどが得意です。
一方で論文検索では、
- 論文検索に特化したAI
- 参照データベースが限定されているAI
- 出典を明示するAI
が既に利用可能となっており、論文データベースに掲載されている論文に基づく情報検索が非常に効率的にできるようになっています。
そのため、「AI」と一括りに考えるのではなく、用途に応じて適切なモデルを選ぶことが重要となっています。
適切なAI選択ができれば、誤情報を減らしつつ情報整理を効率化してファクトチェックにかかる時間を短縮することができます。
AIは非常に便利なツールですが、「どのAIを何に使うか」を意識することが、これからますます重要になっていくと感じています。
AI選びも競馬のように能力だけでなく“適性”を見極めることが大事ですね!

