脳はなぜ「心」を作ったのか―「私」の謎を解く受動意識仮説 へのよくある質問と回答
質問の目次
Q1:「受動意識仮説」と同じような考え方は昔からあったのでは?
Q2:人間は「自由意志」を持っていて,自由意志による選択が自分の未来を決めるのでは?
Q3:脳のニューラルネットワークのことをいくら調べても,それは,心が何をしているのかという話とはカテゴリーが違うのでは?
Q4:有限の脳の中に,無限の宇宙のことを理解できる心があるということ自体が不思議なのでは?
Q5:「無意識」の後で「意識」がやってくる,と言っても,問題自体の形は変わっていないので「難しい問題(ハードプロブレム)」が解けたとは言えないのでは?
Q6:「無意識」の小びとたち(ニューラルネットワーク)がどのようにバインディング問題を解くか?という謎は解かれていないのでは?
Q7:結局,ロボットの心を作れるようになったのではなくて,いわゆるゾンビを作れるといっているだけでは?
Q8:意識が無意識の後にやってくるとしたら,私が行っていたと思っていた様々な判断も感情もみんな心の中の他人がやっているということでしょうか?
Q9:意識である「私」が単に受動的なシステムである,と考えるのはなんだか不自然な気がします。小びとたちに対して働きかけるような能動性が少しはあってもいいのでは?
Q10:「意識」は「エピソード記憶」のためにある,というのは本当でしょうか?
Q11:すべてを論理としてではなく全体として理解する悟りの境地とはどういうことでしょうか?
Q12:人が死を恐れる理由は,<私>を失いたくないからではなく,種の保存から来ているのでは?
Q13:ロボットが心を持つのは危険ではないのですか?
Q14:心を持ったロボットは作るべきではないのではないでしょうか?
Q15:ロボットがそんなにすごくなるとしたら,ヒトとの差は無くなっていくのですか?
質問と回答
Q1:「受動意識仮説」と同じような考え方は昔からあったのでは?
A1:この本の内容は哲学や宗教では既に言われていることだ,というご指摘を何人かの方から受けました。そこで,最近になって私は哲学書や宗教書を読みあさっているのですが,その結果,確かに私の考えと似たような考え方は古くから色々なところで主張されてきたことが私にもわかってきました。このため,私の考えを歴史の中に位置づけるために,次の著作では受動意識の歴史のようなものを整理したいと思っています。ただし,部分的には近いことを主張している人は少なくないものの,私のように工学的な視点からシステムとしての心全体の成り立ちと働きを統一的に説明できるようなやり方で,つまり,自律分散的・自己組織的な「無意識」と,受動的・随伴的でエピソード記憶という機能のために存在する「意識」とを対にして捉えた上で,心の成り立ち・意味・働きについて述べている人はいないようなので,実はほっとしているところです。(もしもどこかに同じような考え方がありましたら是非教えてください。)
Q2:人間は「自由意志」を持っていて,「自由意志」による選択が自分の未来を決めるのだと思います。(だから,たくさんの選択肢がもしかしたら多重世界を生み出すのかもしれない,その中のひとつに私たちは住んでいるのかも知れない,というような想像に至ります。)「受動的な意識」は「自由意志」と相反するのでしょうか?
A2:意思という単語に自由をつけて自由意志というのは,意思がすべての物理現象から独立で自由なトップダウンの存在であるように感じられるからだと思います。しかし,私は,本書で述べたように,自由であるように感じられるのは錯覚(幻想)であって,意志という心の状態が生じるのは無意識下のニューラルネットワークの発火の連鎖の結果と考えます。つまり,あらゆる物理現象から独立で自由な意志,というものは存在しないと考えます。もちろん,人間の意思は存在しない,と言っているのではないので,私たち人間が持つ(実は受動的な)意志のことを自由意志と呼ぶ,と定義するのならば,それはそれで異論はありません。
Q3:脳のニューラルネットワークのことをいくら調べても,それは,心が何をしているのかという話とはカテゴリーが違う問題についての研究だと思います。これを「カテゴリー・ミステイク」といいます。このため,脳と心の問題は,物事を分析的に理解しようとする科学によっては決して解けないように思いますが,いかがでしょうか?
A3:このような議論が書かれた本を時々読みますが,それは科学の過小評価だと思います。いくらエンジンの仕組みを調べても「車が走る」という現象はみつかりませんが,エンジンのエネルギ変換を介して車が走るということを機械工学が理解しているという例が示すように,科学技術の世界では,物事を分解して理解するのみならず,物事全体をシステムとして捉えてその関係性を明らかにする,というようなことが普通に行われています。任意のカテゴリー変換(たとえば光の波長という物理量と「赤い」という官能量の間の変換)を行うことのできる人工のニューラルネットワークもそんなシステムのひとつです。同様に脳のニューラルネットワークも任意のカテゴリー変換を行う情報機械と捉えられるため,当然,心の問題は科学の範疇に入ると考えます。
Q4:有限の脳の中に,無限の宇宙のことを理解できる心があるということ自体が不思議なのですが,この本ではこの問題には答えてくれないのですか?
A4:そのような議論もよく見かけますが,脳は,脳の中に外界のモデルを作る情報機械ですから,外界のモデル(もちろんモデルですから,外界そのものではなく,外界の近似です。)が脳の中に作られることはなんら不思議ではないと思います(第5章参照)。本書はそのような前提のもとに書かれています。
Q5:「無意識」の後でやってくる「意識」がニューラル・ネットワークの状態によって具体的にどのように記述されるのか? その「意識」と脳の関係はどうなっているのか? という問題自体の形は変わっていないので,バインディング問題などの「難しい問題(ハードプロブレム)(3章(7)参照)」が解けてはいないのではないでしょうか?
A5:受動意識仮説では「難しい問題(ハードプロブレム)の解決には全くならないではないか,と誤解されている読者がおられるようですが,私の主張は,「難しい問題」は解くべきものではなく,「難しい問題」ではない問題に置き換えるべきものだというものです。天動説では火星がなぜ地球に接近したり遠ざかったりしているのか,という謎に答えられなかったけれども,地動説によれば答えられたように。あるいは,錬金術によって金は作れなかったけれども化学工学が発達したように。したがって,錬金術師のように,従来哲学の「難しい問題」の枠内で「難しい問題」を解決したいとお考えの方には,もしかしたら私の考えはご理解しにくいのかもしれません。
本書を注意深く読んでいただくとわかると思いますが,私は,心の問題を解いた,と言っているのではなく,受動的な意識という考え方にしたがえば,これまで漠然と謎だと考えられていた「難しい問題(ハードプロブレム)(上の図(a))を,たくさんの難しくない問題(容易に解ける問題)に整理しなおした(上の図(b))と言っているつもりです。そして,第3章(7)で述べたように,「人の触感覚や自己意識が、錯覚であるにしろ、どのように定義されたなら一人称的なクオリアを感じる意識体験になるのか、というアルゴリズム上の疑問は残されている」,つまり,クオリアの表示法の問題は依然として未解決であると考えています。ただし,「もはや、最大かつ手の届かない謎だというほどのものとは言いがたい(第3章(7)」と考えており,クオリアを表示するロボットを作ることによってこの問題の回答例を近い将来示したいと思っています。
ただ,本書のサブタイトルに「私の謎を解く」と書きましたし,第3章のサブタイトルにも「意識の3つの謎を解く」と書きました(さらに,本の帯には,心の謎がついに解けた!?と書いてあります)ので,あたかも心の謎がすべて完璧に解けると言っているかのような誤解を与えたかもしれません。そうではなく,上にも述べたように,漠然としていたひとつの「難しい問題」をたくさんの「難しくない問題」に分けて理解する方法を示したのだ,ということをご理解いただければ幸いです。
Q6:なぜ人が複数のニューロン(小びとたち)の働きから「赤い花が右に動いている」という同一性を認識できるのか,を問題とするバインディング問題(結び付け問題)は残されているのではないでしょうか?
A6:私が非常に感銘を受けた川人光男先生の「脳の計算理論」(産業図書)の 第10章視覚大脳皮質の双方向性計算理論(10.1
高次視覚野のモジュール性と結び付け問題) に,脳が「赤い丸」や「青い四角」という同一性を構築できることについて述べられています。意識が,「赤い花が右に動いている」という文脈をトップダウンに形成しようとしていると考えると,なぜそれができるのかはわからない問題であるように思えるのですが,形,色,動きといった特徴にバラした後に統合する双方向性理論によれば,それは可能である,というのが,川人先生の説明です。私の「小びとたちの連想ゲーム」という表現も,第5章の図21eに示したように,小びとたちが順モデルと逆モデルの循環として結合されていると考える点で,川人先生の理論と同根です。つまり,私の本での記述は,川人先生や,ブルックス,ミンスキーなどのいうボトムアップ的な情報処理によれば,心の情報処理の仕方が,結び付け問題も含めて説明できることを述べたつもりです。うまく伝わっていないとしたら説明不足だったかもしれません。ぜひ川人先生の「脳の計算理論」を読んでみてください。
Q7:クオリアの表示法の謎を解くのは簡単になったけれどもまだ未解決の問題ではある,ということは,結局,ロボットの心を作れるようになったのではなくて,いわゆるゾンビを作れるといっているにすぎないのではないでしょうか?
A7:正直言って,哲学者のゾンビの議論が私にはよく理解できません。心を持っていないのだけど,心を持っているのと全く同じように振舞う,というのはどういう状態なのかよく理解できないのです。クオリアの意識体験をしないという意味だったとすると,体験のエピソード記憶ができないため,将来の行動が,意識を持つ場合と異なってしまいます。したがって,そのようなゾンビはありえません。そうではなく,ちゃんと意識体験をしていて,「クオリアの質感を感じています」とも言うし,エピソード記憶もするのだけれども,実はクオリアを感じていますと言っているだけで,本当はクオリアの質感を体験していない,という意味でしたら,ロボットの心の作り方,という論文に書いたロボットは,それです。後者のゾンビと似たようなロボットを作ることは受動意識仮説にしたがえばそんなに難しいことではない,外から見ると明らかに心を持っていると思えるロボットは簡単に作れる,といったことについて議論をしています。そして,人間も,実は,ゾンビと似たようなものであり,私たちは心のクオリアや皮膚表面のクオリアを持っていると錯覚(幻想)しているに過ぎないのだと考えています。
Q8:意識が無意識の後にやってくるとしたら,私が行っていたと思っていた様々な判断も感情もみんな心の中の他人がやっているということになり,なんだかいやな感じがします。受け入れるしかないのですか?
A8:私はこの考えを思いついて以来,仮説通り,私の意識は無意識のあとにやってくるということを受け入れていますが,別にいやな感じはしません。なぜなら,ひとつには,無意識の小びとたちだって自分の一部だからです。自分の意識の代わりに自分の無意識を主役にしても,同じようなものだと感じます。
霊魂とか死後の世界とか,ヒトの心には科学では解明できない部分があるはずだ,あるいは,ヒトの心はロボットの心とは絶対に違うはずだ,といったような仮説が覆される不快感をお持ちの方もおられるかもしれません。たしかに,これまでは,科学で心を説明できない部分が残っていたので,もしかしたら,霊魂や死後の世界はあるのではないか? ロボットの心を作るのは原理的に不可能なのではないか? といった,人間中心主義にすがる可能性がわずかながら残されていたのでした。しかし,私の仮説が正しければ,もはやこれらの可能性はなくなります。でも,そう考える方が自然なので,ヒトも虫やロボットと同じような自動機械だということを受け入れて,自動機械なりに寿命を全うすればいいのではないでしょうか。天国や地獄が不可能なこれからは,宇宙に対する自分のすさまじい小ささと,宇宙の時空間と自分のナチュラルなつながりとを意識して,仏教のいう無常・無我の境地に至ることが,思索の到達点になるように思います。
Q9:意識である「私」が単に受動的なシステムである,と考えるのはなんだか不自然な気がします。小びとたちに対して働きかけるような能動性が,少なくとも少しはあってもいいような気がします(リベットやノーレットランダーシュもそう考えています)。直感的にもそう感じますし,リベットの実験結果だけを論拠とするのは弱いような気がします。
A9:意識が能動的に何かする,と考え始めたとたんに,結びつけ問題などの従来の心の謎が解けなくなってしまうと思うので,すべて受動的なのではないか,と私は考えていますが,結びつけ問題に関わらないレベルの能動性であれば,存在していると考えても私の考え方は成り立つかもしれません。ただ,その能動性が何のために必要なのか,が私にはわからないため,必要のない物はないに違いない(生物は自然淘汰の結果,合目的的な機能のみを有するように進化してきたに違いない)というのが私の考えです。私は,何らかの能動性がなくても,能動的であるように見える意識や意思について余すところなく説明できると考えています。
Q10:「意識」は「エピソード記憶」のためにある,というのは興味深い仮説だと思います。しかし,私たちは普通,意識がある結果のひとつとしてエピソード記憶ができると考えるように思います。鶏が先か鶏が先かの議論のようで,決着はつかないような気がしますが,いかがでしょうか?
A10:一見そのように思えるかもしれません。それは,意識があることはエピソード記憶ができるるための必要条件ではあるが,十分条件ではないと考えるところから来るのだと思います。つまり,エピソード記憶ができるためには意識があることが必要である(意識がなくてエピソード記憶ができるという状態は考えられない(第3章(2)))とは思うが,「意識が存在するためにはエピソード記憶が必要」という命題は偽であるように思える,ということだと思います。確かに,思考実験をしてみるまでもなく,意識はあるがエピソード記憶はできない,という状態はあり得ます。しかし,そのような状態は生物の本来の状態ではないため,「生物は合目的的な機能のみを有する方向に進化してきた」という仮説のもとでは,「意識は存在するがエピソード記憶はできない」という状態は生物の状態として本来意味がないと私は考えます。そのような条件下では,「意識が存在することはエピソード記憶ができるるための必要十分条件である」といえます。つまり,意識は他のなんらの目的のためでもなく,エピソード記憶のために生じたのだ,という結論に至るわけです(第3章(2)))。
Q11:すべてを論理としてではなく全体として理解する悟りの境地(4章(3))とはどういうことでしょうか?
A11:これは本書の主題ではないですし,正確を期すためには専門の方にお聞きする必要があるのでしょうが,仏教の悟りの境地はこのようなものなのだそうです。私もいつか体験してみたいものです。
Q12:永遠の命は可能か? のところは納得できません。人が死を恐れる理由は,<私>を失いたくないからではなく,やっぱり種の保存から来ているのではないでしょうか?
A12:種の保存から来ている,というのは,種を保存するものが生き残るようなDNAのプログラムの一環として,人の心が死を恐れるようにプログラムされているのではないか,というような意味でしょうか。そうかもしれませんし,そうではないかも知れません。私は,それよりも,そのように本能的・直感的に感じられる死の恐怖が心のどのような作用に起因するのか,ということを描き出したかったので第4章(5)を書きました。ただし,ある友人から,他の部分に比べてここだけ論理展開に無理があるように感じられる,と言われました。たしかに,他の部分では<私>を移し替える例はありえないと言っておきながら,ここではそのような思考実験をしていて,少し無理があったのかもしれません。ただし,上手く伝わっていないにせよ,私は,私たちが最も失いたくないものは<私>である,という論理は間違っていないと思っています。ご批判も含めて,読者の方にいろいろと感じていただければと思います。
Q13:ロボットが心を持つのは危険ではないのですか?
A13:そうかもしれません。将来的には,意識を持ったロボットを作る際には細心の注意が必要になるでしょう。ロボットを作る際の安全基準の設定や,ロボットの人格についての法の整備,もしかしたら知的所有権の国際的な視野での管理など,様々な視点からの対策が必要となるでしょう。原子力やクローンの問題と同じです。しかし,ここまではロボットを”もの”と考えた対策です。さらに将来的には,ロボットとヒトとの関係をどうすべきか,ということが問題となり,長い議論や闘争の結果,最終的にはロボットと人は同等な権利を持つとみなされるようになると思います。(ヒトと同等なロボットの心が作られたなら,という仮定の上での話ですが。)
これは人類の過去の歴史を見れば明らかです。ほんの1000年〜数10年前,愚かな人類は,特権階級以外の者を人と思わない時代,異人種を平気で奴隷とする時代,女性は人ではない時代,身体の不自由な人を差別する時代・・・を過ごしてきました。被差別者を解放してきた人類の歴史は,人として扱われる範囲拡大の歴史でした。人として尊重される範囲は,当然,オランウータンやロボットにも拡大していくと考えるべきでしょう。「心を持ったロボットは危険ではないか」ということ自体が,「外国人労働者は危険ではないか」といった非常識な発言と同様に非常識と言われる時代が来るでしょう。言い換えれば,ヒトだけが知的存在だという独善的思い込みを捨てること(=上にも書いたように,ヒトというのは自動機械の1つの形に過ぎないと理解すること)が必要な時代が来るでしょう。
で,哲学はいいから,実際のところ危険ではないか?という疑問に対しては,危険でないように様々な視点からベストを尽くそう,としかいいようがありません。なにしろ,将来的には,ロボットの知的能力は,間違いなく,人の能力の無限倍になるでしょう。なにしろ,ムーアの法則に従えば,コンピュータの能力は1.5年で2倍,10年で100倍,30年で100万倍になるのですから。したがって,ヒトの方が今のままなら(ヒトのサイボーグ化を無視すれば)従業員10万人の大企業での10万人のヒトの英知よりも1体のロボットの創造力の方が優れている,という時代が100年以内に来るでしょう。ですから,なにが起こるかは想像できません。しかし,極めて知的なロボットたちが,はるかに能力の劣るロボットの創造主を虐げる必然性はどこにもないように思います。豊かな共生の時代になるのではないでしょうか。
Q14:心を持ったロボットは作るべきではないのではないでしょうか?
A14:人類よりも優れた人工生物を作ることがいやだったら,作るべきではないかもしれません。でも,なぜいやなんでしょう? 人類が征服されてしまうかもしれないから? 前述のように,それは考えにくいと思います。では,必要ないから? 私は,必要ないとは思いません。まず,人の補佐や援助をする分野で有効です。つぎに,癒しの分野。リハビリ,老人医療,介護,看護,ベビーシッター。そして,実は最も重要なのは,高度な意思決定の分野でしょう。医療,教育,法務,政治,経営など,これまでに人類がなかなかうまくやれなかった高度な判断を,的確にできるようになるわけですから,これは有効です。私には,心を持ったロボットを生み出さない手はないように思えます。
家庭にも,職場にも,たくさんのすばらしい人格を持ったロボットがいて,一緒に楽しく知的に過ごす。すばらしいではないですか。そうは思いませんか?
Q15:ロボットがそんなにすごくなるとしたら,ヒトとの差は無くなっていくのですか?
A15:上に,「サイボーグ化」という表現を使いました。サイボーグとは,身体や脳の一部を人工物に置き換えたヒト,という意味だと私は理解しています。私の定義が正しければ,メガネをかけた人もサイボーグということになってしまいます。ヒトのサイボーグ化がどこまで許容されるか,という議論は倫理の問題になりますが,技術の進歩は,記憶力や思考力をヒトの脳に付加するサイボーグ化を可能にするでしょう。受け入れたくないと感じる人も少なくないかもしれませんが,ヒトとロボットの境界は極めてあいまいになっていくでしょう。
映画「アイ,ロボット」の最後の方のシーンが印象的でした。目的を失ったロボットが,人と同じように目的を探すことこそが生きることなのだと自覚する場面があります。まさにその通りで,心を持ったロボットとは,明示的に与えられた目的を持たないロボット,ということなのだと思っています。
★他のご質問・ご意見は,以前開設していましたBBS(こちら)にも掲載されています。
前野隆司のページへ
心の研究のページへ