
対話型の人工知能(AI)「ChatGPT(チャットGPT)」が注目されている。質問を投げかけると自然な受け答えをし、ユーザーの指示に応じて多彩な文章を書くことができ、要約もできる。ただ万能かと思いきや、拍子抜けするような珍回答をすることも。
その理由について、人工知能学会会長も務めたAI研究の第一人者、松原仁・東京大学教授は「AIが人間のように言葉を理解しているわけではないから」だと言う。言葉を理解していないのに対話ができるとは、どういうことなのか。詳しく聞いた。
――長年AIを研究されてきた松原さんは、ChatGPTの登場をどう受け止めていますか。
ウソも含めて、「もっともらしいこと」を言う能力が、ぬきんでているな、と思いました。
わたしは将棋が好きなので、ChatGPTに「将棋とは何か」と尋ねてみました。「将棋は日本のゲームで、チェスとルールが似ていて……」と、おおむね正しい回答をくれたのですが、途中「白と黒の駒をつかう」と言ったんです。
――白黒は、囲碁かチェスでは……。
そうなんです。他のゲームの情報がまじってしまったようなのです。これは誤りに気づきやすい例ですが、さも自分で見てきたかのように回答するので、無条件に信じてしまう人もいるのではないでしょうか。
――なぜこのようなミスが起きるのでしょうか。
ChatGPTがおかした「誤り」を入り口に、松原教授が言語処理AIの仕組みを解説します。米国では学生がリポート作成にChatGPTを使ったことが議論を呼んでいますが、松原教授は使ってもいいのではないか、とも話します。後半ではその理由や、AIと比較して見えてきた「人間ならではの営み」について、語っていただきました。
これはChatGPTなどの…
からの記事と詳細
https://ift.tt/NK5as8o
ビジネス
Bagikan Berita Ini
0 Response to "ChatGPTの珍回答なぜ 研究者が考えるAIと人のギリギリの差:朝日新聞デジタル - 朝日新聞デジタル"
Posting Komentar