AIは間違えるのかな
物理学者スティーブンホーキングの懸念する、完璧AIが完成したとする。
全く同じ部品、素材、デザインで作ったその完璧なAIを二体用意する。よくわからないが思考に使われる経験値や、CPU?も全く同じ経験、過程を経たとする。
部屋の真ん中に爆弾があって、
右か左の導線どちらかを切ると爆発する。
まず一体目AというAIを部屋に閉じ込めて、
論理的に、確率的に考えて「左」きることにする。爆発しなかった。
その後爆弾を再び左が爆発しない設計にして、
AI二体目Bを部屋に入れ、Aは部屋から出てもらう。特殊な交信などは無しで。
AI二体目は、論理的に、確率的に考えてどちらをきるのだろうか?
もし同じように左の導線をきるという結果になったなら、「同じAI」が出来上がったということで、「機械」というレッテルが貼られる。
もしここで理論的に確率的に考えて「右が正しい」という決断をして二体目が爆発してしまったら、その時このAIは「壊れてしまった」のだろうか。それとも人間のように「間違えた」のだろうか。もしくは人間に似せるために「間違える」という情報処理を行なったのだろうか。
なんか、哲学の本読んでたらこんなこと思いついた。
AIは街中に出て情報を吸いまくると、「間違える」ような情報を得てしまい間違えるようになるのではと感じた。けれど、間違えるのが「情報量の欠乏」や「情報処理能力の低さ」ならば、人間のそれを超えるAIには、間違いはなくなる。
っていう結論。
げんき