地球惑星科学専攻(地球物理学教室)・教授 向川 均

 
画像
mukougawa

 世間では、Chat GPTに代表される生成人工知能(AI)の話題で喧しい。私は、この分野の門外漢でAIの一般利用者に過ぎないが、最近、些末な事柄についてのAIとのやり取りで、不覚にも感情を揺さぶられてしまった。

 それは、自宅の光回線プロバイダ利用代金を、契約期間を変更することで月額500円軽減しようと目論み、プロバイダのウェブサイトで推奨される「AIサポート」に問い合わせたことで始まった。まず、「AIサポート」に契約期間の変更が可能か入力すると、AIは数秒後に自然な日本語で「変更可能です。メッセージサポートから手続きください」と期待通りの回答を表示した。そこで勇躍、ウェブサイトで「メッセージサポート」の在処を探したが見つからない。仕方なく、代わりに見つけた電話サポートに同じ質問をすると、人間と思われるオペレータは「契約変更はできません。AIの回答は間違っていたようですが担当外なので関知しません」と回答するではないか。念のため「AIサポート」に問い直してみると、AIは「申し訳ございませんが、AIサポートで提供した情報が間違っていた可能性があります」と他人事のように「無責任な」回答を表示した。そのときハッと、AIは「平気」で出鱈目な回答をすることを今更ながら思い出した。

 現状、生成AIにはこのように有りもしない間違った情報を作り出してしまう「幻覚(ハルシネーション)」という致命的な問題があるという(岡野原, 2023)。にも拘わらず、AIが生成する言語は全く自然であるため、やり取りを重ねると、次第にAIが人格を持つ人間であるかのように勝手に思い込んでしまう。このためAIの出鱈目な回答に、憤懣やるかたない気分となったのであろう。それにしても人類は厄介な「隣人」を生成してしまったようである。AIとのやり取りで、「まず疑え」という理学研究の基本姿勢の重要性を再認識した。

 ちなみに、この文章の作成に生成AIなどは利用していません。

参考文献
岡野原大輔, 2023:大規模言語モデルは新たな知能か -ChatGPTが変えた世界. 岩波書店.