ChatGPTの普及で改めて暴露される「動物化」【仲正昌樹】
「ChatGPTとどう付き合っていくのか」問題の前にその特性を学べ
「ChatGPT」は、インターネット登場以来の衝撃をもって受け止められている一方、期待より不安や危惧の声が日増しに大きくなっている。イタリアでは一時的にGPT-4の使用を禁止。フランスやドイツまで追随する動きだ。「GPT-4問題の下では全くレベルが異なる問題が語られていることを認識し論点整理する必要がある」と指摘するのが仲正昌樹氏だ。ChatGPTの進化のスピードに目を奪われ、浮き足立っている今こそ、必読すべき仲正氏の最新論考を公開。
■ChatGPTは人間に取って替わり得るものとなるか
GPT-4に関連して、日本の文科省や教育関係の知識人たちは、ChatGPTの性能の向上と普及によって、子供や学生が宿題など出された課題で、ChatGPTに頼り切ってしまって、学力が低下すること、勉強する習慣が身に付かなくなることへの懸念を表明している。
私の大学でも、同僚たちが自分たちの従業や国会でのChatGPTの応用の是非を――冗談交じりに――話題にするようになった。何が問題なのか。
宿題や論文にChatGPTの是非を論じる際に、三つの異なった次元の問題があることを把握しておく必要がある:
① ChatGPTには、本当に人間以上の作文能力があり、人間に取って替わることができるのか
② ChatGPTを当たり前のように利用し続けることによって、それを使う人間の作文能力と読解能力はどうなるのか
③ GPTによる作文を利用したものを、自分の文章として宿題や論文に利用することに倫理的・法的問題はないのか
①について現時点での答えはシンプルである。前回の記事でも述べたように、ChatGPTは、ネット上で見つかるサンプルを基にして、文法的、情報的にかなり正確な文章を作ることができるが、適切なサンプルがどうしても見つからなかったら、一番それに近そうな文を“サンプル”にして、形だけもっともらしい文章を作ることになる。“人間”であれば、ためらってそのまま書き進められなくなるような状況でも、聞かれている内容と関係が薄い、場合によっては、漢字表記が似ているだけの“仮のサンプル”に基づいて、そのまま強引に作文してしまう。文章が整っているのに、内容がデタラメなので、異様な感じがする。
もっともこれは、ツイッターやブログなど、ネット上で知ったかぶりの発言をして、“論争”に加わる、自称論客たちについても言えることだ。内容的には、ネット上のいろんな情報をつぎはぎしてきただけのデタラメなのだが、口調・文体だけは、大学教授、それも有名大学の大先生の講義のような偉そうな調子だと、気持ちが悪くなる。デタラメな内容が、幼児のような拙い文章で書きなぐられているだけなら、内容と形式が見合っているので、そこまでの不快感はない。幼児の戯言のようにしか聞こえないからだ。形だけは立派だと、形式と内容のアンバランスのせいで、どういう“人間”が書いているのか想像できない、という不気味さと、形だけは立派に見えるせいで、真に受けてしまう人が一定数いるかもしれない、という不安が合わさって、落ち着かない気分にさせられる。
最初からAIが書いたと分かっていると、そういう不快感はない。人間ではないと分かっているし、今のところ特定の個人に悪意を持つ可能性はないので、腹は立たない。ChatGPTには、法的に問題になったり、ストレートに争いに繋がったりしそうな表現は回避する傾向があるようなので、その意味では、デタラメな内容を、敬語とか専門用語を使って形だけは一応整った文で書く、自称論客たちよりは――不快感のなさや、他人を攻撃することがないという点で――はるかに「まし」だ。