AIの「人となり」

シェアする

 言われてみればなるほど名案、ということを提案するからAIでも賢者でも有り難いのであって、いくら考えても誰にもさっぱり理解できない案が示された時、わたしたちはどう振る舞うべきなのか。
 人間の考えにしても、「名案」の総べてが万人に理解できる訳ではない。難しい物理学の最新理論など、世の中のほとんどの人には噛み砕いて貰ってもわからないだろう。それでも数人は理解者がいて、理解者にはそのまた理解者がいて、そんな風にわらしべ長者方式で「わたしにはわからないけれど、誰かにはわかるのだろう」と受け入れられる。
 たとえ誰にもわからない高級な理論であったところで、その人はそれまでにもいくつもの「案」を出している。一定の地位にいる人物ならば、その地位に至るまでには幾多の関門を越えてきた訳で、少なくとも一定の知性を備えていることが共同体によって承認されている。だから誰にも理解できないことを突然言い出したとしても、「あの人の言うことだから、何かあるのだろう」と人々は考える。ずっと頓狂なことばかり言っている人がいたら、たとえ千年後に真価が認められることがあったとしても、少なくとも同時代に人々がそれを信じることはない。
 非常に賢いAIの言葉を、わたしたちはどのようにして信じるのだろうか。AIの開発者がそれを保証するのだろうか。開発者が十分に共同体の信を得ている人物であれば、彼または彼女の言葉をわたしたちは聞くだろうが、AIなるものの信頼性が、開発者の確言によって保証される種類のものなのか、まだわたしたちは知らない。
 あるいはまた、ある一つのAIが「言われてみればなるほど名案」という、人々の信頼を得やすい働きを繰り返していたとしよう。そのような、言わば「実績」があった上で、ある日突然、AIが頓狂な案を出す。世界最先端の知性をもってしても理解不可能な、馬鹿げているとしか思えない案である。この時わたしたちは、AIを信頼するだろうか。「御乱心」だとは考えないだろうか。
 わたしたちは、人の「気が触れた」時、ただその人の言明内容だけを見ているのではない。振る舞いや表情、言葉の選び方、そうした全体を見て、「これはいよいよ、気が触れたらしい」と判断する。そうなると、今までいかに優れた人物として認められていても、その発言が言葉通りに受け取られることはない。
 AIが「気が触れた」と判断されるのは、どのような時だろうか。わたしたちは、言明内容以外の何を材料に、AIの「正気」を判断するのだろうか。
 あるいはそもそも、実績あるAIが次の問題にも同じようにこたえるであろうと、何が保証するのだろうか。その「人格」と「知性」の連続性を何が担保するのだろうか。一つのAIは常に同一なのだろうか。ちょっとしたパラメータの変更を加えられた時、そのAIは元のAIと同一と言えるのか。もし違うとしたら、そのAIの「実績」は次の判断の「正常性」を保証できるのか。実績をあげた「あの人物」と頓狂な案を出した「この人物が」の間に連続性を保証するものは何か。

 言明内容は対象世界の写しというだけで終わりにはならない。言葉は約束事であり、それは共同体で分かち合われることで初めて成り立っている。言明内容だけを取り出してその価値や正当性を議論することはできない。誰がどこで言ったのか、ということから自由になれる言葉とは、大きく見積もっても、言語行為の極めて卑小な一部に過ぎない。
 わたしたちは「人となり」を見てしまうし、それがいかに前近代的で馬鹿げた振る舞いだとしても、人はそれほど自由でも知的でもない。「愚かな」人々に囲まれた「賢者」はいかに振る舞い、いかに扱われるのか。
 そもそも「人となり」を見ることを、少なくともわたしは、馬鹿げた振る舞いだとは全く思わないが。多分、AIもやがて「人となり」を見るようになるだろう。問題は、いかにしてAIの「人となり」を見るか、だ。



シェアする

フォローする