ChatGPT などAI開発は停止すべき!? 「シンギュラリティ」の何が脅威なのか【仲正昌樹】
■フェイク・ニュースとプロバイダーと“AI倫理専門家”たち
GPT-4が従来の言語モデルより遥かに巧みに人間を真似ることができるようになれば、フェイク・ニュースや扇動的プロパガンダの影響が深刻化する可能性はある。しかし、(少なくとも私たちの知っている現在の)AIには、人間を騙して、操ろうとする動機はない。AIが巧みなフェイク・ニュースが作るとしたら、それをやらせている人間がいる。人間の作文だろうが、AIの作文だろうが、そういうものがネットの中でチェックされないで流布していることが問題なのだから、まずは、プロバイダーであるツイッターやFacebookが改善努力すべきであり、AIのフェイク製造能力を問題にするのは、本末転倒している。
欧米の政府が気にしているのは、それらとは違って、セキュリティやプライバシーの問題、つまりGPT-4がどこから情報を取得しているかという問題だ。これも確かに重要だが、AIの表現能力とは直接関係がない、むしろTik tokなどのセキュリティ・クリアランスと同じ系統の問題だと思われる。「シンギュラリティ」と関係しているかのように報道されると、議論が混乱する。
自民党のAI国家戦略も、冒頭からChatGPTによる社会の急速な変化に言及しているが、あまりシンギュラリティへの危機感のようなものは強調していない。今度こそ世界的トレンドに乗り遅れないにしよう、という経済政策的な視点が前面に出ている。とにかく勉強しましょう、というだけなので、さほど面白みはない。
国会で「シンギュラリティ」の倫理をめぐって政府への質問がなされ、どういう知的裏付けがあるのか分からない“AI倫理専門家”たちが、最先端の知識人としてマスコミやネットに跋扈する状況を想像すると憂鬱になる。無駄で、恐らくは有害な“チャット”を必要以上に増やさないためには、「GPT-4問題」のタイトルの下で、全くレベルが異なる問題が語られていることを認識し、論点整理する必要があるだろう。
文:仲正昌樹