自動化の怖さ(覚書)

自動化についていろんなことを話している人がいるのだけど。複雑系の自動化はいかに恐ろしいかというのをよく表しているなというのがハイフリークエンシートレードのはなし。

youtu.be

5年間で18000回(1日10回)、突然の価格高騰や暴落(ハイスピードブラックスワン)がおこっているらしいのだけど。これが自動車のハンドルやアクセルだったらと思うと。かりに緊急停止ボタンがついていたとしても。。。

ポイントはこれが複雑系なこと。非線形で動く、複数の自律エージェントが、環境からフィードバックを受けながら動く。これだけで予測不能になる条件が満たされているように思うが。例えば人間もまさに、非線形で動き、複数の自律した個々が、環境とインタラクションしているわけだけれども。

なので、一方的にリスクを拒否するのではなく。こういうリスクがある前提で、世の中がそれを受け止めるためのフレームワークが必要なのだろうと思う。それは単に自動運転の保険の責任がメーカにあるのかドライバにあるのかなんていう表面的な話ではなくて。とりあえずかなりテストしたから大丈夫なんだけど、万に一つ暴走が起こるかもしれないというものへの許容の仕方や、そのための正規分布ではない場合の保険であったり。

逆にいうと、この超自動化時代の製品保証のあり方は相当な可能性があると思う。