巷を賑わせている、チャット形式で会話するAIのChatGPT。なんでも会話の答えがなんとも人間のようなんだとか。


とある大学教授が自分の代わりにレビューレポートの文章を書かせてみたり、いろいろお楽しみの研究者も多いようだ。つい最近もChatGPTが著者に入っている論文が出版されるなど、そういう系の話題性重視の研究者界隈で注目を集めてる。


大学時代の友人をベースにした日本人の分野の違う友人たちが思ったことをワイワイ言い合うチャットルームに自分も参加している。その中の研究者仲間の1人がChatGPTの話題を振ることに。


普段は価値観が合う仲間たちのチャットルームの意見はバッツリと二つに割れた。1つはすげー技術でまじですごいすぐいろんな場所に取り入れるべきだというポジティブな意見。もう1つは、それっぽい回答ができるだけの技術で、レポートの代筆をさせたり論文の代筆をさせたりただ人間が堕落するためのツールで歓迎するべきではないというもの。


もちろん僕は後者。ここでは反AI派と呼ぼう。研究やアルゴリズムで高度な知性のようなものを出せたのは面白いことだ。だが、一般公開してレポートの代筆や課題の解決のチートツールとしての使用が進むと、人間全体の知性が失われていく。行き着く先に待ってるのは何をするにもChatGPTにお伺いを立てないと意見や行動ができない人類なんじゃないかとすら思う。


一方で便利で親AI派は、そんなものを使わないといけないような人間はそもそもお荷物だというのである。いやー、なんて過激な…

例えばだけど、レポートや読書感想文があったときに、それが自分の思いを見つめ直し表現する機会として重要なのであって、その時点でのその人材の優劣で語るのはおかしい。


ドイツの新鋭の哲学者である、マルクスガブリエルが言っていた記憶に残っている言葉がある。ドイツの憲法はHuman Dignity(人間的な尊厳)を不可侵のものとしておいている。そうでなければ、あらゆるものは暴走しかねないというものだ。


AIの発展も、尊厳を奪いかねないことを指摘したい。例えば将棋のAI解析、いかに藤井聡太でも敵わない最強AIを使って、プロの手を素人が評価するようなことが起こってる。AI推奨の手を刺さなかった瞬間に、この棋士もここまでか…とか恥ずかしげもなくTwitterに書き込む。流石にこんなこと起こるくらいなら将棋ソフトなんか無くて良かったと僕は思っている。今のプロ棋士は本当にしんどそうである。


これは、研究者も全く関係ない話ではない。例えばAIがもう少し進歩して研究手法がAuto化された実験環境を考える。そうすると、旧時代的な研究者が脳みそで考えてる時間にAIとオートメイトの実験結果で論文を出しまくる人に蹂躙される。我々がライフワークにしたかった問いを勝手に解析にかけて、こうするんだよと新参者もしくは全くの素人が横槍を入れてくるかもしれない。


そしてそのうち、合成できないような化合物で夢の物性を達成したとか言い出して、AIの予想だから正しい、と現実で起こるかわからない計算と現実の境界が溶け始める。


AIで遊ぶのはいい、だがツールではあってそれ以上ではない。あまり期待しすぎたり、著者にしちゃダメだよとScienceのエディトリアルも出てる。皆さんは親AI派?反AI派?それとももう思考をやめてる(カーズ)派?