げんきのブログ

YoutuBlog書いてます「youtube」×「blog」

AIは間違えるのかな

物理学者スティーブンホーキングの懸念する、完璧AIが完成したとする。

 

全く同じ部品、素材、デザインで作ったその完璧なAIを二体用意する。よくわからないが思考に使われる経験値や、CPU?も全く同じ経験、過程を経たとする。

 

部屋の真ん中に爆弾があって、

右か左の導線どちらかを切ると爆発する。

 

まず一体目AというAIを部屋に閉じ込めて、

論理的に、確率的に考えて「左」きることにする。爆発しなかった。

 

その後爆弾を再び左が爆発しない設計にして、

AI二体目Bを部屋に入れ、Aは部屋から出てもらう。特殊な交信などは無しで。

 

AI二体目は、論理的に、確率的に考えてどちらをきるのだろうか?

 

もし同じように左の導線をきるという結果になったなら、「同じAI」が出来上がったということで、「機械」というレッテルが貼られる。

 

もしここで理論的に確率的に考えて「右が正しい」という決断をして二体目が爆発してしまったら、その時このAIは「壊れてしまった」のだろうか。それとも人間のように「間違えた」のだろうか。もしくは人間に似せるために「間違える」という情報処理を行なったのだろうか。

 

なんか、哲学の本読んでたらこんなこと思いついた。

 

AIは街中に出て情報を吸いまくると、「間違える」ような情報を得てしまい間違えるようになるのではと感じた。けれど、間違えるのが「情報量の欠乏」や「情報処理能力の低さ」ならば、人間のそれを超えるAIには、間違いはなくなる。

 

っていう結論。

 

 

 

 

げんき