小池: ChatGPTってどういう仕組みなんでしょうか。
新妻巧朗さん:
ChatGPTは「言語モデル」と呼ばれる種類のAIです。言語モデルは、ある単語の次にどんな単語が来るかを推測し続けることで文章を作っていきます。
例えば「日本の首都は」と入れると、次の単語としてもっともらしいものとして「東京」という単語を返してくれるんです。すると「日本の首都は東京」という文ができるので、さらに「です」という言葉を補完することでだんだん文章が出来上がっていきます。
ChatGPTはそれを会話風に実現している言語モデルなんです。
瀬戸:どうやって後ろの言葉を推測しているんですか?
ChatGPTを含めた言語モデルは、インターネット上から集めてきた莫大な量の文章を使って、「この単語が出てきたら次にこの単語が来るのかな?」という予測をひたすら繰り返すことによって文章を書く能力を獲得しています。
逆に言うと、確率で繋いで文章を出しているで、事実とは違う情報が出てきてしまうこともあるんですよ。
小池:確かに!僕の好きな生物学について突っ込んだ話をしてみたことがありますが、スラスラと嘘をつくんです。あれも確率的に繋げているから起こってしまうことなんですね。
恐らくChatGPTは知識を獲得しているのではなくて、集めたデータの中から確率的に繋いで出てきた文章を返しているので、スラスラと嘘をついているように見える会話文が出てきてしまうんです。
出てきた文章をそのまま鵜呑みにするのではなくて、一旦本当かなって疑いながら調べてみるっていうのは結構重要です。
小池:ChatGPTは確率で単語を繋げていくAIだということでしたが、これって人間の言葉を理解していると言えるんでしょうか?
そこは研究者の中でも意見が分かれているところで、「言語モデルは言葉を理解している」というタイトルの論文もあれば、一方で「言語モデルは言葉を一切理解していない」という論文もあります。
僕自身は、部分的に理解しているところはあるけれど、総合的に見た時には人間のように理解しているとは言えないんじゃないかと思っています。
小池:人間と同じ理解ではないんですね。
本編は、「中国語の部屋」という哲学の思考実験の例を通じて、ChatGPTの言語の理解について新妻さんの考えを伺いました!
さらには俵万智さんも唸った短歌生成AIや、新聞の見出しを考えるAIなど、新聞社ならではの研究のやりがいについても深掘りします。