Washington State Universityの電子工学部で工学的な倫理観について、というセミナーを何年も実施している。セミナーは、スペースシャトル「チャレンジャー」爆発のビデオと、Morton Thiokol社のエンジニアRoger Boisjoly氏が言うように、そこに至るまでの質問から始めることにしている。
Boisjoly氏は、シャトル用の固体燃料ロケット・ブースターの接合部シールが燃え尽きたこと、寒冷な天候が問題を悪化させたことを示すデータを調査した。チャレンジャーは、史上初の宇宙授業計画(Teacher in Space:NASAのプロジェクト)の教師を乗せて発射される予定だったが、天候は推奨される最低温度マイナス1℃を大きく下回っていた。Boisjoly氏は、計画および雇用主(固体燃料ロケット・ブースターのメーカーMorton Thiokol)に多大な影響が出ることを承知で発射の延期を強く求めた。彼の警告を無視して発射は強行され、結果は皆が知るとおりである。
▼ Roger Boisjoly 氏の調査詳細はこちら
http://www.onlineethics.org/Resources/Cases/RB-intro.aspx
Boisjoly氏は自分が正しいと思うことをした。工学的倫理における教訓、それはキャリアの中で学生に決して直面してほしくないと願う教訓である。次に、インテル社の過去の企業研修コースから多くのシナリオを学生に読ませた(もちろんインテルの許可は取ってある)。シナリオを渡し、問題となる倫理観についての考えを尋ねた。これはやるべきことか、あるいはやってはいけないことなのか? インテル社による回答を明かす前に、結果的に貴重な議論ができた。「正解」のいくつかは予想よりはるかにリベラルなものだったので、驚いた学生もいた。一方で、XYZ社の株式会社を買うつもりだと誰かが第三者に話すのをふと耳にした場合のシナリオは、インテル社がその会社に投資するつもりだと聞いたことがあるという理由により、かなりの数の大学生が考えつくことにもかかわらず、ただ1つの正解しかなかった。
このようなシナリオは、キャリア中に生じるかもしれない疑問について、どのように対応すべきかと合わせて重要なガイダンスを与えるために作成されたものである。 IEEE発行、2017年9月の「The Institute」誌のP.5に、IEEEの理事会が2017年6月25日に承認したIEEEの倫理コードへの変更が掲載されている。最初の変更は倫理コードの1番目で、安全性、健康、公衆の福祉と矛盾しない決定を強化することである。2番目の変更は倫理コードの5番目で、ここでの新しい表現は「技術性能の理解を促進すること。その理解は、自律システムに起因する結果など、個人および社会全体、用途や社会的な意味合いにまで及ぶこと」である。「自律システムに起因する結果」というこの新しい文言が肝心な部分で、具体的に言うと、これが次の質問へとつながるのである。
2017年8月にワシントンDCで開催された2017 IEEE International Symposium on EMC/SIPIの会期中、フェローエンジニアと議論した中で新しい疑問が出てきた。簡単に回答は出ないが、非常に現実的でプロジェクトに関わる人々が取り組むべき問題である。路上に完全自動運転の車があると思って欲しい。この種の乗り物を将来的に実用化するには信じられないほど多くのハードウェアとソフトウェアが必要だ。それらはまわりの環境を認識できなければならない。またA地点からB地点まで交通法規を守ってナビゲートする必要がある。事故を最小限にするため、他の車両も避けなければならない。燃料レベル(液体燃料あるいは電池)を認識し、然るべき施設へ向かって燃料補給や再充電をし、乗客を乗せたまま路肩で動けなくなったりしないようにする必要がある。だが、取り組むべき重要な課題もある。
1942年にアイザック・アシモフが短編「Runaround」で書いたThree Laws of Robotics(ロボット工学3原則)について以下にWikipediaより引用する。
https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
『 ロボット3原則(「3原則」または「アシモフ法」と略すことが多い)は、SF作家アイザック・アシモフが考案したルールである。ロボットは人間を傷つけたり、活動していない間に人間が危害を受けたりしてはいけない。
1. ロボットは、上記の原則1と矛盾しない限り人間の命令に従わねばならない。
2. ロボットは、上記の原則1と2に矛盾しない限り、自身の存在を保護しなければならない。』
この「原則」はフィクションの短編中で書かれたものだが、ロボットを制御するソフトウェアを開発するにあたって、なかなかよい出発点である。人々は、ロボットが人間にとって安全なものであってほしいと願う。自分のことだけ考えているロボットなど欲しくないのである。
この3原則の1番目を見ると、自律走行車の制御用ソフトを開発するエンジニアの倫理的ジレンマの核心がわかる。自律走行車は、人々や品物を輸送する目的で設計されたロボットである。そこで次のような疑問が生まれる。「歩行者か乗客のどちらかを死なせなくてはならないという状況に陥ったとしたら、車両のプログラムはどうすれば良いのか?」例えば、車がブラインドカーブを回ると歩行者が道路の真ん中に立っていたとする。車両がアシモフの原則に従ってプログラムされている場合、原則1により車が歩行者を傷つけてはいけないので歩行者との衝突を避けるために全力を尽くす。時間があるならストップするためにブレーキをかけるだろうし、スペースがある場合は回り込んで歩行者を避けるだろう。
だが、止まる時間がなかったら? あるいは乗客を傷つけることなく歩行者を避けて回り込む余地がなかったら? その場合、車両のプログラミングは、歩行者か乗客のどちらを死傷させるべきか選択しなくてはならなくなる。
誰を死なせるのか?という倫理的な疑問が残る。これは自律走行車のソフトを設計する際に考えるべき問題である。熟考するには容易な疑問ではないが、自律走行車の操作ソフト設計者が対処しなくてはならないことである。正解についての意見を述べるつもりはないし、もちろん「正しい」回答は、歩行者か客の1人かという観点次第で変わるものだ。「正しい」回答とは何なのか? 機器の周囲に波及する深刻な問題があるかもしれないソフトを設計する次の機会があれば、この件についてしっかり考えてもらいたい。
2017年9月15日 by Ghery Pettit