ChatGPTの有用性とハルシネーションのリスク
OpenAI社によって開発されたChatGPTは、2022年11月に公開され、その高い技術性能によって世界中で爆発的に広がった。ChatGPTの作業領域は幅広く、テキスト生成や質問応答、プログラミングヘルプ、言語学習、創作支援、ビジネスコミュニケーション、情報検索などが可能だ。
「(ChatGPTのベースとなった)GPT-3が出たのは2020年だが、当時プログラマーにとっては『これが新しい形のプログラミングの在り方だ』『これはプロンプトプログラム、プロンプトエンジニアリングである』と非常に話題になった。とはいえ、GPT-3に対して、次の言葉を予測させるための独り言を書ける人はほとんどいなかった。ChatGPTはこれに対して、コンピュータに対して質問するという対話型のインターフェースにすることで、誰でも使えるようにした。このギャップを埋めたところが非常に大きい」とところてん氏は語る。
ChatGPTが世界で爆発的に広がった結果、以前のAIにはなかった新しい分野を切り開いた。「AIへ依頼する」「質問に回答する」「対話しながら思考を深める」といった用途だ。そして単語や会話の予測能力が極まった結果、AGI(汎用人工知能)と言われるほどの高い能力を獲得するに至ったという。
ところてん氏は一方で、ChatGPTが「高確率で間違っている、ハルシネーションを含んだ結果を返す」ことのリスクを指摘する。ハルシネーションとは幻覚、つまり、AIが事実とは異なる情報を生成する現象のことだ。例えばChatGPTに「横浜でおすすめの中華料理屋を教えてください」と尋ねると、5つの回答を得られるが、このうち4つは実在しない店舗というから驚きだ。
なぜこのようなことが起こるのか。ところてん氏によると、「ChatGPTのベースとなったGPTは次の単語を予測するAIであり、事実を答えるAIではない。この点がミソで、つまりここに並ぶべきは中華料理屋っぽい名前であれば何でもいい。事実に基づいているかどうかではなく、繋がりやすいかどうかを答えているに過ぎない。だから存在しないお店の名前ができあがってくる」ということだ。なお講演当時の最新バージョンであるGPT-4は、裏側で検索する機能が追加されており、実際の店舗情報が出力されるようになっている。
さらに言えば、ChatGPTは「常識」はあるが「知識」はないという。常識的に物事を考えられるが、個別具体に関する知識はないため、個別具体的な物事についてたずねるとほぼ確実にハルシネーションが発生するのである。
「だから検索だと思って使うと絶対に失敗する。一方でChatGPTは演繹性や機能性、抽象化能力が高いので、議論のパートナーとして使うとものすごくパワフルに機能する」とところてん氏は語る。
「常識」を備え、抽象度の高い事柄や一般論であればかなり正確な回答が得られるのは大きなメリットだというのが、ところてん氏の見立てだ。またChatGPTを利用する際には、「必要に応じてAdvanced Data Analysisやプラグインを適切に使って、ハルシネーションを抑制していく必要がある」とも付け加えた。