人工知能は意識を持つか

人工知能は意識を持つだろうか。例えば自然言語処理のAIは人間に似せようとしている。確かにchatgptの生成した文章を読んでいると人間が書いた文章と区別がつかない。googleで「AIが意識を持つようになった」と発言したエンジニアが解雇されたという。アルファ碁の打つ手を見てそこに「意図」を感じたという人もいる。これからさらに技術が発展すれば少なくとも意識を持っているように見えるようにはなるはずである。しかし結論から言うとAIは意識を持たないはずである。

AIは人間に似せることを目指して作られているのであって意識を持つように開発されていない。たとえて言えば海のCGをVRで作ったとする。3D映像だ。海にとても似ており視覚や触覚まで海を忠実に再現したとする。さらに技術が進んで本当の海より本当の海っぽくできたとする。人によってはそのCGに本当の海の本質を感じたという人も現れるかもしれない。しかしそのCGを本当の海とは呼べないはずである。本当の海はH2Oという水分子からできているが、CGは水分子からできていないからである。

別の比喩を挙げよう。手品をきわめた人がいる。その人の手品を見ていると我々手品をまったく知らない人間は、その手品師を超能力者だと思う。しかし手品師がやっていることは種も仕掛けもあるのであって、決して超能力者ではない。

AIが意識を持つと言うのは海のCGを本当の海だと言い、手品師を超能力者と言うのと同じである。AIは人間に似せて作られている。しかし意識は持たない。意識を持つことを目指して設計されていない。計算しているだけなのである。

次のような意見もあるかもしれない。意識を持つように見えれば意識を持つと言ってもいいのではないか。我々は他人が意識を持っているかどうかも確信をもって検証できない。AIもそれと同じだというわけである。我々は自分自身が意識を持っていることは完全に確信できる。そして他人も同様に意識を持っていると信じている。しかし他人の意識の存在は確かに検証できない。

そのような主張をする人は「意識を持つ」という言葉の定義を書き換えようとしているのである。
定義1:「意識を持つ」=「自分が持っているのと同じ意識を本当に持っている」
定義2:「意識を持つ」=「自分が持っているのと同じ意識を持っているように見える」

「意識を持つ」という言葉の定義に関し、普通は定義1を使っているが、AIの登場で定義2が出現するのである。定義2を使う人は海のCGに関しても「このCGは海そのものだ」と言うかもしれない。

ここで言葉の定義について少し論じておきたい。例えば「生きている」という言葉である。我々は自分が生きていると思っている。犬も生きていると思う。カエルも生きている。蟻も生きている。しかしミジンコはどうだろうか。ウイルスはどうだろうか。ウイルスは明らかに微妙である。

ヴィトゲンシュタインはこれは言葉の使い方の問題だという。「生きている」という言葉をウイルスまであてはめて広く定義すればウイルスは生きているし、「生きている」という言葉をウイルスにあてはめずに狭く定義すれば、ウイルスは生きていないとなる。「ウイルスが生きているか」という問題は「生きている」という言葉の使い方の問題なのだという。

同様に「AIが意識を持つか」という問いも「意識を持つ」という言葉の使い方の問題だという指摘も一定の意味がある。

では言葉の定義はどのように変えても問題ないのだろうか。そうとは限らない。言葉は確かにいろんな定義が可能である。大事なのはその言葉をそのように定義することで物事の本質がもっとも立ち現れてくる仕方で定義することである。

定義1:「意識を持つ」=「自分が持っているのと同じ意識を本当に持っている」
定義2:「意識を持つ」=「自分が持っているのと同じ意識を持っているように見える」

定義2では、他人が自分と同じような意識を持つかどうかはどうせ不可知なのだから、自分と同じような意識を持つかは他人に関してもAIに関しても不問に付す、という考えである。定義1では確かに他人が意識を持つかどうかは最終的には不可知でも、本当に意識が存在するか可能な限り検証すべきであって、事実としては確かに完全な検証は困難でも、少なくとも概念としては「本当に意識を持っているもの」と「意識を持っているように見えるもの」は区別されなければならない、という考えである。

恐らく定義1のほうが物事の本質がよりよく立ち現れてくる定義である。定義2では本当に意識を持っているか否かの概念的区別さえもが放棄されてしまう。

海のCGというアナロジーでAIを解説した。AIは我々にとって未知の現象である。それをCGなどの既知の現象にたとえることで分かりやすくなる。例えばAIをインターネットの出現にたとえたり、画像生成AIをカメラの出現にたとえたりできる。そうすることで未知のAIという現象とインターネットやカメラという既知の現象との共通点が浮き彫りになり、未知の現象を部分的に理解できる。

アナロジーによる説明は二つの特徴がある。
①共通点が浮き彫りになり分かりやすくなる。
②論点がずれる。

AIをインターネットの出現に喩えるが、AIはもしかしたらインターネットの出現よりインパクトが大きいかもしれない。もしくはインパクトの質が違うかもしれない。画像生成AIの出現はカメラの出現のときのインパクトの大きさや質が違うかもしれない。しかしその比喩を聞いた人は「そうかAIの出現はインターネットの出現と同じなんだ」「画像生成AIの出現はカメラの出現と同じなんだ」と思ってしまう。論点がずれるのだ。比喩の分かりやすさに眩惑されて、論点がずれる。

イーロン・マスクに次の言葉がある。

思考のフレームワークとして適しているのは物理学だと思っている。つまり第一原理からの推論だ。
私が言いたいのは、物事を根本的な真理に到達するまで煮詰め、そこから推論するということ。類推による推論とは対照的だ。
私たちは人生のほとんどの場面で、類推による推論を使って物事を進めている。それは本質的に他人がやっていることを、多少の違いはあるにせよ真似しているに過ぎない。そうしなければ、安心して1日を乗り切ることができないのだろう。
でも何か新しいことを始めようと思ったら、物理学のアプローチを使う必要がある。
どうすれば常識をくつがえすような新たな発見ができるのか、その方法を物理学がこれまで示してきたんだ。
「TED Talk」番組 2013年2月27日

イーロン・マスクは大学で物理学と経営学を専攻している。彼が言っていることは、AIに関して論じる時もアナロジーという類推は便利だし、一定の真実を示してくれるが、最終的にはAIの本質にもとづいて議論を進めなくてはならないということだろう。海のCGなど他の現象との比較も実際分かりやすいので重要である。しかし最終的にはAI自体の本質に基づくべき。「物事を根本的な真理に到達するまで煮詰め、そこから推論する」のが重要なのだ。今までにない現象は今までに生じた現象により類推できるとは限らない。ということでAIの本質、意識の本質にもとづいて議論を進める。

我々は自分自身が意識を持つことは直接的に感じ取れる。デカルトの「我思う故に我有り」である。我々は外界を認識していると思っているが、実は夢を見ているだけかもしれない。神に騙されて幻覚を見ているだけかもしれない。しかしそうだとしても夢を見ている主体である自分は存在しているはずだし、神に騙されている自分は存在しているはずである。

我々は自分自身が意識を持つと知っている。そしてそれを他人にも当てはめる。他人も意識を持っていると信じている。

①自分に意識があると知っている。
②他人にも自分と同じ意識を生み出すはずの生物学的器官である脳がある
③他人の顔、声、言葉、行動から自分と同じ意図や感情、理性を感じる。

我々には最初に①の体験がある。自分自身に意識があるという直接的体験。そして②と③という根拠にもとづいて他人にも意識があると信じる。自分の腕を強くつねると「痛い」と思う。だから、他人の腕をつねってその人が痛そうな顔をすると「痛いんだな」と思う。自分が持っている感情や感覚を他人も持っていると思う。

我々に倫理を要請してくるのは他人の顔だという人もいる。他人の喜んでいる顔、他人の悲しんでいる顔、他人の幸福そうな顔、他人の不幸そうな顔、他人の安心している顔、他人の恐怖する顔、他人の真剣な顔、他人の笑っている顔、他人の尊敬する顔、他人の軽蔑する顔、他人の顔こそが倫理を要請してくるものであり倫理の本質だという人もいる。もちろん他人の声や他人の言葉、他人の行動からも我々は他人のもつ人間性を感じ、他人にも意識があると信じるに至る。

AIの技術が進歩すれば③は完全にクリアするはずである。本当の人間より人間らしいAIも出現するだろう。しかしAIには②の要素がない。生物学的な器官である脳を持たない。人間の脳は脳細胞からできている。脳細胞も物質である。しかしその物質から高次元の「意識」というものが創発する。少なくとも自分自身においては「意識」が創発していると完全な確信をもって感じ取ることができる。他人も脳という器官をもっていて、更にその顔や言葉などから他人も自分と同じように意識を持っているのだと信じる。

しかしAIには生物学的器官である脳がない。0と1の羅列から意識が創発するとは考えられない。少なくとも自然界には存在しない。もしAIに意識が存在すると言えるようになるとすれば、恐らく人間の意識の発生の秘密が解き明かされ、それがコンピュータのハードの上に実現される技術が開発された後の話である。現在のAIに関しては意識は無いと言うのが結論になる。

■5/20追記。

AIに知性や感情などの人間性、意識を感じるというのはよく分かる。我々に倫理を要請してくるのは他人の顔だと述べた。これから人工知能が発達すれば、人間より人間らしい顔の表情で我々と会話する人工知能が出てくるだろう。我々は普段相手が意識を持っているかを判断する時、③の根拠で判断し②の根拠で判断しない。いちいちこの人は脳を持っているかを確かめず、顔や声の表情で判断する。だから恐らく我々はそのような人工知能は人間性や意識を持っていると感じるはずだ。

というより、人工知能が登場する以前からそれに類することはすでに存在している。アニメなどの特定の作品がものすごく好きで何十回もその作品を見るという人はそれなりの数いるだろう。アニメのキャラは大好きであってもこの世には実在しないと理性では理解している。しかし感情では大好きなアニメのキャラは存在すると感じている人はそれなりの数いるかもしれない。

将来的にはアニメのキャラたちと自由に会話ができるようになるに違いない。大好きなキャラが「商品を買って」とお願いしてきたら断れるだろうか。私は断れる(笑)。

そのようなAIのキャラに感情では人間性や意識を感じたとしても、理性においてはAIには意識がないのだということをしっかりと理解していなければならない。その理解がないといろいろ問題が生じてきそうではある。


■上部の画像はガウディ

■このページを良いと思った方、
↓のどちらかを押してください。



作成日:2023/5/18