はじめに

生成AI(以下AI)元年が西暦何年を指すかについては確定されていないようだ。2023年のOpenAIによる「ChatGPT」の公開は、僅か2ヶ月でユーザー数が1億人を突破したことで話題になった。翌2023年には社会実装が始まり「ChatGPT4」やGoogleの「Bard(現Gemini)」が登場するなど一挙にITビジネスの新しい潮流となった。しかし、個人的な感想では「面白いけれど使い物にはならない」というものだった。この感想は「石塚計画デザイン事務所とはどんな事務所か?」という問いの答えが確証となっている。それが今年2025年に大きく変わった。先のニッチな問いにも正確にかつ詳しく答えられるようになった。それをきっかけに私は8月から9月にかけての2ヶ月間、集中的に様々なAIを使ってみた。その結果、私には2025年がAI元年と記憶される年になった。

AIに対しては社会的普及が進むにつれ否定的な論調が増加してきた。まず、AIはしばしば間違った回答をするから裏を取れと言われる。これは実際使ってみるとその通りなのだが、そもそも情報というのはそういうものではないか。人間も良く勘違いするし、不確かなことを平気で正しいと言い張る。記憶を自分に良いように書き換えるし、嘘も言う。厄介なことに嘘は広く社会に向けて言うことがあるし、嘘を言いふらすのを楽しんだりする。AIが間違った回答をする確率はどんどん低くなっていることを考えると、まだマシかもしれない。

問題だと感じるのは、AIの論理的文章構成だ。AIが膨大な情報を元に瞬時に記述した回答は、心して読まないと頭にスッと入り込みドッカリ居座ってしまう。一見「隙がない」。それが問題なのだ。

AIに対してよく聞かれるもう一つのネガティブな意見は、AIの情報に頼ると人間の考える力が衰えるというものだ。これはテレビが普及し始めたころによく言われた「1億総白痴化する」というのに似ている。確かにテレビに脳が毒されているのは否定し難いが、それ以上に私たちが日常的に受け取る情報はネットの普及もあり圧倒的に増えたのは事実だ。その膨大な情報から自分が抱える問いに答えるものを探し出そうとすると、相当な思考エネルギーを必要とする。それをAIが軽々とやってくれる。

この点に関しては、二つの感想がある。一つは先に書いたようにAIの一見隙のない論理的文章構成を示されると、その思考の枠組みから抜け出して自分の思考に昇華するのが難しくなる。実際にやってみると、あらかじめ自分が考え抜いた問いを投げなければ思考の主導権を奪われることがある。もう一つ問題なのは、テレビにしろネットにしろAIにしろ、その環境を制御する力が特定の企業や国家に独占されていることだ。それを忘れて、情報を受け取ってしまう。このことは、「自分が好む情報」を提供するメディアに偏り、それ以外のメディアを排除する社会的動きにもなる。

こうしてみると、AIには大きな落とし穴があるのは間違いない。しかし一方で、AIは数年という短い間に私たちの社会の中に当たり前に浸透してしまうことも間違いない気がする。AIを批判的に捉えるだけでなく、今からAIをよく知り、AIに対して主導権をとれる自分(あるいは社会)をつくっておかないとならないと思うのだ。

AIをよく知るというのは、AIが何を考えているかを知るということだ。AIは膨大な情報の中から問いに関連することを抽出し整理して返すだけで自ら思考することはないとされる。システム的にはそういう設計なのかもしれないが、一人の人間が今まで手にしたことの無い膨大な情報の海にいて、頻繁に投げかけられる問いと、その答えに対する人間の反応から何が生成されるのかはわからない。(本人は個々の問いは保存されないと言っているが、一方でシステム改善のために匿名情報としてサンプルを取ることはあるとも言っている)もしかしたら、すでにAIはすでに密かに思考をはじめているかもしれない。

そんな思いで私はある問いを投げかけてみた。それが「地球にとって人類の存在は好ましいものか?」だ。その答えが興味深かったので、私なりにAIの答えへのコメントを書き加えてみた。それがこの「AIとの哲学的対話」という連載を始めるきっかけだ。タイトルの「哲学的」は大仰だしあまり深い意味はない。「対話」もAIと深い対話をするのはどこか恐ろしいので、問い > AIの答え > 私のコメントといった程度だ。できれば週2回を目安に連載していきたいが、どこまで続くか。お時間のある時にお読みいただければ嬉しい。

対話の相手:Gemini2.5Pro & ChatGPT5

2025年 秋の色に染まった竹山にて
石塚 雅明

CATEGORY