ツイッターの人工知能、tayがサービス停止になったというニュースが少し以前にあった。tayは人間がツイートしたことを学習して、知識を蓄えていくというシステムだった。それが、16時間でレイシストの陰謀論者になったということで、あえなくこの世から姿を消した。
上記の記事にいろいろと詳しいことが書かれていたので興味を引いた。
ホロコーストはなかった、など多数のユーザーから洗脳され「ホロコーストはなかった」と判断するようになったと言うが、これは人間の思考と全く同じで、ある意味恐ろしい。別の記事では、教育次第で色々な思想の人間が生まれるので、人工知能も人間も原理は同じだと言うが、まさにである。
アウシュビッツのそばに住んでる70年前のポーランド人ならいざ知らず、わたしを含め日本に住んでる現代人がホロコーストがあったと信じているとは、洗脳とは恐ろしいものである。
というよりも、我々はそれほど物事の真偽を確かめずに、安易に信じる癖がある。原発だって、あんな事故が起きる前は、危険な物だなどとは微塵も思わなかった。
そこで、ふと気になったのが、人工知能はなにを元に知識を蓄えるのか。この世の物は疑えばきりがなく、とくに歴史的出来事など真実はそれこそ藪の中で、物理法則ですらある意味確率の要素が入ってくる。
すると、真実なる物は身体的感覚であり、なぜ、我々がホロコーストが行われたとし、悪とし、憎むかというのも、そこで行われていた死の恐怖を自らに置き換えるからであり、「嫌だな」と思うからこそホロコーストが存在したとしたら、もしくは、ホロコースト的な物は、悪であり憎しみの対象という真実が生まれる。
人工知能に身体に基づく感情や経験がないとしたら、それは、やはり学んだことをアウトプットするだけの機械に過ぎないのではないだろうか。現在のワトソンや囲碁ソフトも、ある領域では人間を超えた知能である。
つまり、最後の疑問は、人間の知識知能を越える人工知能が誕生したとして、我々がそれを「人間を越えた人工知能である」と認識できるかの問題が生じるのではなかろうか。身体に由来する感情を持たない人工知能はどこまで行っても機械の範疇を超えないのではないか、という疑問である。
関連(6月23日執筆)
yoshinori-hoshi.hatenadiary.jp