本書「はじめに」に書かれているように、畑村洋太郎さんが「失敗学」というものを提唱し「失敗学のすすめ」という本を出版したのは約20年前の2000年のことでした。
それは多くの人に大きな影響を与えたのですが、それで失敗を繰り返さなくなり事故や災害が減ったかというとそういう手ごたえを感じられない人も多そうです。
私たちは本当に科学技術の失敗から学べているのか。
もしかしたら上手く行っていない部分があるのか。
そういった問題について、著者は工学系大学の授業を通じて学生と共に考えました。
そこで分かってきた点をまとめ、さらに読者の考えを深めようというものです。
「失敗から学ぶ」ということが起きた事例は有名なものがいくつかあります。
アメリカワシントン州のタコマ橋が完成のわずか4か月後に落ちた事故で、それまでは知られていなかった空気力学的なフラッター現象という動きが分かり、その後の橋の設計に活かされるようになりました。
イギリスのデハビラント社のジェット旅客機、「コメット」の連続墜落事故で、金属疲労が極めて短時間で起きる現象が解析されました。
しかし、一方では同じような事故を繰り返す例もあります。
また、「事故に学んだ対策」のはずが、それが逆に作用して事故につながった例もあります。
例えば中華航空機が名古屋空港に着陸する寸前に墜落した事故は、自動運転からの解除の方法をパイロットが習熟していなかったことが直接の原因でした。
しかし、これもパイロットが非常時にどのような行動を取るかということを正確には反映していなかった自動運転の設計の問題とも言えます。
この自動運転の設計思想には、さらに20年前のアメリカイースタン航空のマイアミでの事故が影響を与えていました。
ここでは乗員が意図しないまま自動運転を解除してしまい、それに誰も気づかないまま下降して墜落しました。
これで、「乗員に簡単に自動制御解除をさせない方が良い」と考えたことが、名古屋の事故の遠因とも言えます。
1979年の映画「チャイナシンドローム」では原発のメルトダウンが描かれましたが、多くの専門家はこのような事故は起きるはずがないと考えました。
しかし、そのわずか12日後にスリーマイル島の原発でメルトダウンは起きました。
原発のような超大型の装置の場合はありとあらゆるところに防護が施されていますが、それでも事故が起きるのはヒューマン・ファクターつまり人間のミスのせいなのでしょうか。
アメリカの組織社会学者のペローは、巨大技術では失敗を防ぐことはできないと主張しました。
簡単な工程では不具合が起きてもそれを止めて対処すれば大丈夫です。
これを直線的なシステム(linear system)と分類します。
しかし、原発や航空機のような複雑なシステムではそれぞれがあまりにも固く結びついており、どれか一つが不具合を起こすとそれが瞬く間に波及して破局に至ることもあります。
こういった複雑なシステム(complex system)では事故が起きる方が「ノーマル」であると考えたのでした。
ペローはさらにこのような複雑なシステムでありさらにその事故が破局をもたらすような技術は使わない方が良いと極言しました。
1986年に打ち上げられたスペースシャトル、チャレンジャー号は打ち上げの73秒後に爆発しました。
この原因は固体燃料ブースターの接合部分のOリングが低温で硬化し破壊したためでした。
この事故の原因はタコマ橋のように未知の現象ではありませんでした。
このブースターの製造元であるサイオコール社の技術者、R・ボイジョリーが以前から指摘して、この事故の前にも打ち上げ日が非常に気温が低下することを知った彼は会社を通じてNASAに打ち上げ中止を申し入れたことを証言しました。
しかし、NASA側はそれを一蹴し打ち上げを実施して事故になったのでした。
それでは、これを指摘したボイジョリーが正義の使者で、NASAの担当者が悪玉なのでしょうか。
実は、以前からこの指摘を受けてNASA側も何度もリスクを調査し、様々な検討を重ねていました。
それで大丈夫と判断して打ち上げ実施となったにも関わらず、前日になってまた蒸し返したということです。
ただし、このような経緯はあくまでも「組織の論理」であり、第三者の眼から見ればかえってその方が非常識に映ります。
こういった事例は社会の多くのところで見られ、「第三者委員会」や「社外取締役」といったものを取り入れるようにはなってきています。
このような大規模になった巨大技術では、個人が関わるのはごく一部でしかなく、そこでのちょっとしたミスが全体を破壊するような事故につながりかねません。
そのちょっとしたミスというものは、確かにヒューマン・エラーと見られます。
しかし、それを犯した当事者を糾弾し、罰を課すことでは再発は防げません。
1997年に日本航空のMD-11型機が名古屋空港着陸の前に乱気流に巻き込まれ、パイロットはそれを修正しようとして操作をしたものの自動操縦装置の働きとぶつかってかえって乱高下がひどくなり、客室乗務員の一人が天井などに激突して死亡するという事故が起きました。
自動操縦装置の操作に十分に習熟していなかったというのが航空事故調査委員会によって事故の原因と見なされました。
しかし人ひとりが亡くなっているということで、パイロットは訴追され刑事裁判になりましたが、結局無罪となりました。
この刑事裁判については、他のパイロットからも強い疑問が出されました。
装置の動作についての疑問も大きい中、パイロットの技量だけに事故の原因を求め、その責任を負わせようというのは間違いではないかというものです。
ところが、無罪となると今度は死亡した被害者の遺族が不満を訴えます。
何か事故が起き、死亡したり大けがを負う被害者が出るとその原因を求め責任者に罪を与えるという社会正義の要請があります。
それが直接の担当者の責任でなければ、会社の責任者の責任を追及しなければ終わりません。
これは、航空分野の事故の場合にはかなり大きな問題となります。
最初にあげた「コメット」事故の場合のように、新たな知見が得られそれが機体の安全向上につながるということもあるために、原因究明に重きを置いて調査するためには、事故の責任を追及することは逆に作用する可能性があります。
責任者に十分に知り得たことを証言させるためには、免責も必要になります。
これは自動車事故の場合には大きく異なり、ほとんどの場合は運転者のミスと見なされ個人が処罰されるということになりがちですが、この中にも構造的な問題点が隠されていることも多々あるようです。
2005年のJR西日本の福知山線での列車事故はその「組織の罪」が大きくクローズアップされたものでした。
事故の直接原因はスピード制限をはるかに越える速度でカーブに進入し曲がり切れずに脱線転覆したということで、運転士の操作によるものでしたが、そこにJR側の多くの問題点がありました。
運転士の列車遅延に対する非常に重い罰則規定があることや、ATSの設置が事故発生現場で遅れていたことなど、会社の体制の不備を問われましたが、経営陣に対する刑事訴追はいずれも無罪となりました。
遺族や被害者などはそれについて大きな不満を持ちましたが、日本の刑法では業務上過失致死傷罪について、会社や法人組織そのものを訴追する規定がありません。
あくまでも組織の中の個人のについてのみ訴追できるため、その行動がはっきりしている場合はあまりありません。
2011年に起きた東日本大震災、そしてそれによる福島原発事故は「想定外」という言葉が広く使われたように、「失敗」というものの見方から変えざるをえないものでした。
畑村の定義によれば「失敗」とは私たちが「はじめに定めた目的を達成できないこと」を示します。
つまりある「想定」をし、その範囲内で困った事態が起きないようにすることでした。
しかし、そこで「想定外」の事態が起きてそれにより事故が発生したらどうするのか。
これは「失敗した」とも言えない状態です。
ここで出てきた考え方が「レジリエンス・エンジニアリング」というものです。
レジリエンスとは、弾性力とか回復力といった意味ですが、「想定」の内か外かに関わらずに安全を高めようというものです。
これまでは「想定内」の外乱に対して100%の安全を維持することを目的としていましたが、「想定外」になるととたんに対応ができなくなりました。
どんな事態になってもなんとか被害を最小に抑え回復力を付けようというものです。
これにはやはり「臨機応変」ということができるような人間力といったものが必要になるようです。
何かが起きてからではなく起きる前に何とかしなければならないのでしょうが、そこには「2.5人称の見方」を勧められています。
「2.5人称」とは、自分(1人称)や近い人(2人称)の見方と、全く関係のない専門家(3人称)の見方の中間で考える必要があるということです。
そのような専門家を養成していくということでしょう。
なかなか深い内容の話で、細かく記録しておかないと忘れそうなので長文になってしまいました。