僕はウナギだ

「僕はウナギだ」と言っても、ウナギが口をきいているわけでもなく、自分がウナギであるという妄想にとらわれているわけでもない。「僕は天丼にするが君は何にする?」「僕はウナギだ」こう書けば、人間には正確にこの文の意味を知ることができる。

シャンクと言う人は、これを理解できるAIを作ろうとしていた。そうすると、文法(「僕」が主語で「ウナギだ」が述語)を理解するだけでは駄目だということがわかった。つまり、人間は言葉を理解する時に自分の内部に蓄えられたデータベースを参照しているということを発見したのだ。そして、シャンクはとりあえずレストランで注文できるだけのデータベースを作った。

英語には「僕はウナギだ」みたいな変な表現はないが、それでもこれは思ったより大変な作業だったそうだ。この研究のことは10年以上前に読んだのだが、その後、これがどうなったかは知らない。こういうデータベースをたくさん作って蓄積していけば、「一般常識のあるAI」ができるはずだったのだが・・・。

それで、俺は思うのだが、何とかしてこういう文脈データベースの容量を定量的に論じることはできないだろうか?日常会話の背後にはとんでもない量の「文脈」があって、この文を理解するためには最低何ギガバイトのデータベースが必要だ、なんてことをつきつめていけば、日常会話が不可能であることが証明できるのではないか。つまり、ニューロンの容量と処理速度では追いつかない膨大な情報が会話の背後にあると俺はにらんでいる。

何が言いたいかと言うと、日常会話は言葉(音声)のチャンネルと同時にテレパシーのチャンネルで情報がやりとりされている。音声チャンネルの回線速度だけでは会話がなりたたない。別のチャンネルを想定しないと会話というものは不可能だ。こんな理論構成で、テレパシーの存在を間接的に証明できないかということ。