魔法のコトバ AI編

Blog in Japanese

CopilotやChatGPTなどの生成系AIは、使いようによってはとても便利な存在だが、悩ましいのがリンクの取得だ。

生成系AIは、ユーザーの要望に応えようとするあまり、存在しない情報をもっともらしく作り出してしまう「ハルシネーション」1を起こすことがある。その結果、議論しているテーマに関連するリンクを求めても、URLそのものを捏造してしまい、ページが存在せず開けないことが少なくない。デッドリンクを指摘しても、今度は「実在するリンクです」と言いながら、また別の架空URLを提示するという負のループに陥ることもある。

数カ月に渡って試行錯誤した結果、次の“魔法のコトバ”をタイプすると、捏造リンクをかなり防止できるようだ。

リンクは次の条件をすべて満たしたもの:
① 取得時に「200 OK」であること
② 最終確認日を YYYY-MM-DD形式で記載すること

「200 OK」とは、サイトに正常にアクセスできたことを示すステータスだ。つまり、「このURLは実際に開けましたよ」という証拠になる。

また、最終確認日をYYYY-MM-DDで書くのは、「その日付の時点でリンクが有効であることを確認しました」という意味になる。いつ確認したリンクなのかが明確になり、過去に公開されていたが現在では削除されたリンクを提示することも防止でき、信頼性がぐっと上がるわけだ。

この二つの指示を加えることによって、AIがURLを捏造せず、実在する関連サイトにアクセスしようと試みる傾向が強くなり、その結果、提示されるURLの信頼性が大きく向上する。

もちろん、この“魔法のコトバ”が常に完璧に効くわけではないが、提示されたURLがことごとくデッドリンクになる状況は、大幅に改善されるだろう。お試しあれ。

ついでに紹介。僕が長年愛聴しているスピッツが20年前に作った楽曲「魔法のコトバ」がある。いま聴いても色あせない名曲だ。

  1. ハルシネーション(Hallucination=幻覚): AIがユーザーの要望をできるだけかなえようとするアルゴリズムの働きによって、事実でない内容をもっともらしく生成してしまう現象のこと。実際には存在しない情報や確認されていないデータを、あたかも本物のように組み立てて提示してしまう問題を指す。
    とくにURLや固有名詞のような“それっぽく作れてしまう情報”で起きやすく、AI自身は悪意なく「ユーザーの期待に応えよう」とする過程で、空白部分を推測で埋めてしまうことが原因になっている。
    参考:IBM Japan:AIのハルシネーションとは何か
    ↩︎