zunda’sblog ズンダのブログ

zunda’s blog  ズンダのブログ

読書好きな弱者男性の管理人ズンダが古典、小説、批評文、経済、実用書、ガジェット、ゲームを中心に紹介するブログです。ご覧ください。Amazonのアソシエイトとして、当メディアは適格販売により収入を得ています。

第三回目 『AI倫理』(中公新書ラクレ)

 

f:id:zunnda:20190910134423p:plain

イラスト屋

第三回目 『AI倫理』

 『AI倫理』(中公新書ラクレ)をとりあげるのもこれが三回目となりました。
 これが最終回です。

 

 

 

 
 この記事では、「AIに対して人はどうつきあっていくべきなのか」を考える『AI倫理』の詳細について紹介していきます。

 前回までの記事は以下です。

 

zunnda.hatenablog.com

zunnda.hatenablog.com

 

 

 

 他律であるAIに『倫理』を求めるのはなぜなのか

 責任を取る必要性はないが、しかし……


 ここまでで、AIは自律しておらず、もともと道徳や倫理を問うことはおかしいという話をしてきました。
 生物ではない機械であるAIは所詮、プログラムの産物でしかなく、自律していないためにAIに責任を問うても意味がないということですね。

 しかしながら、AIは我々の社会に組み込まれ、誤作動などを引き起こすことは間違いなくあるでしょう。

 その際、責任を負わなくていいはずがない。

 
 
 そういうわけで、AIと付き合っていくために考えられたのが『AI倫理』なのです。

 

 欧米の近代倫理思想からAI倫理を考えよう

 

 ではAIとどういうふうにしてつきあっていくべきなのか。

 ここで西垣氏がいうのは西洋近代の倫理を考える上でかかせない次の四つの思想です。
 
 

 ・功利主義
 ・自由平等主義
 ・自由至上主義
 ・共同体主義

 

 

 この四つの思想はそれぞれ特徴があります。

 簡単にまとめます。

 

 

 

功利主義 
 多数の人々の幸せを優先し、少数の人たちには我慢してもらうという考え。

 ・自由平等主義
 人間はみな平等であり、貧富の格差をすくなくし、人権を守るという考え。

 ・自由至上主義
 人は何ものにも支配されてはならない。個人が望んでいるのであれば、臓器売買も売春もして構わない。
  
 ・共同体主義
 人には家族や地域共同体がある。その中に存在する道徳倫理に価値をおくべし。
 自由至上主義と対立関係にある。反面、古くさい道徳や伝統に縛られる恐れもある

 

 
 この4つのうち、どれが皆さんはお好きですか?
 色々あるでしょうが、自由平等主義などはバランスがとれていて、受け取りやすいのではないでしょうか。

 

 N-LUCモデルというAI倫理

 

 実際、西垣氏も「自由平等主義」を大前提として、他の二つ(共同体主義功利主義)の長所を合わせた倫理が最も優れた倫理思想ではないかと述べておられます。

 

 これを

 

「NーLUC Nishigaki Model of Liberal Utilitarianism for Commuities モデル」と名付けておられます。

 

 N‐LUCの中身をみてみましょう。

 

 自由平等主義は社会形成にあたって必要条件であるが、これだけだと社会規範の姿がみえてこない。
 
 そこでまず、功利主義の「効用関数=構成メンバーの幸福の量的総和」を取り入れる。
 効用関数は個人の幸福の度合いを計算し、政策に反映させるものだが、AIは計量化の作業が得意なのでうってつけである。
 

 

 すなわち次のように西垣氏はまとめておられます。

 

 

 個人の人権尊重という自由主義的な制約のもとで、社会(共同体)にとっての効用関数の評価値を参照しつつ、功利主義的に社会規範をさだめる、というのが本書で提案するNーLUCモデルのアプローチである。

 

 

 ここで大事なのはAIはデータの分析やシミュレーションなどに役立つが、疑似人格をもつAIエージェントとして参画することはない、という点です。道徳的主体ではないのです。

 

 ここでわかるのは次のことです。

 

 

 

人間が主
AIが従

 

人間>AIという関係でなければならない

 

 

 

 このAI倫理では人格をもつ個人や集団は外見や作動が人間に似ているだけのAIには「自由意志も認められない。責任も問われない」という考え方です。


 西垣氏はこれを人間中心主義(human-oriented thought)と呼んでおります。

 

 人間とAIは異なり、AIが世の中を支配し人間に害をなすのであれば、研究自体がもはやいらない。人間がやはりAIを利用するかたちでなければならない、との思いからです。

 

 AI倫理とはロボットとの関わり方である

 

 現在のAI研究は深層学習をはじめ、第三次AIブームの核心が統計処理であることから、誤った出力を実行する可能性があるといわれています。


 それゆえ、現場のエンジニアの負担はとてつもなく重いものになってしまう。
 
 AI倫理とはこういった事態において、AIのおかす誤作動といかにしてつきあっていくかを考えたものなのです。

 

 西垣氏は提案しています。

 

 「AIシステムのサプライヤー(メーカ)と一般ユーザーとの中間に第三者として独立した監視機関を設置。監視機関にはAIはじめ情報通信技術の内実に通じた理系の専門家が参加するが、公共哲学をふまえて人間のためのAI活用を論じることができる人文系の研究者も参加する。この人々がAI社会の規範をリードすればよい。N-LUCモデルはそのアプローチの一つである」と。

 

 

 終わりに
 
 

 

 今回の本は中公新書ラクレから出版されたものですが、いかがだったでしょうか。
 

 ラクレにしては非常に重厚な本で、テレビでとりあげられるAIについての楽観的な報道を徹底的に否定すると同時に、人間社会がAIにとってかわられるのではなく、AIを従えるかたちで、我々の生活を豊かにしていく方法を考察していかなければならない、というのが西垣氏の考え方です。

 

 そのために、「AI倫理」を考えておかねばならないわけですね。

 

 私も読んでいる途中で気がついたというか、副題では

人工知能は『責任』をとれるのか」とかいてあるのですが、その部分はサラッとかかれているだけで大文字で書かれているわけではありません。
 
 第二章、第三章を読んでいると、ネオ・サイバティクスの観点からみれば、

 

 生物ではないAIは他律存在でしかないので、責任をとりようがない、

 

 というのが答えだとわかります。

 

 この本は「理論編」と「実践編」とにわかれています。

 

 私ズンダは一回目で「実践編」の自動運転について紹介し、二回目と三回目とで「理論編」を紹介しました。

 

 今、この本の紹介をし終わった後であらためて「実践編」を読むと、さらに深く読み込めるようになったと感じています。

 

 そういう点では第一回目を最後に読むのが、このブログの読者の方々にとってはいいのかもしれません。
 

 私の反省点です。

 

 また西垣氏は他にも著作があるので、この本のNーLUCモデルについてもっと知りたい方はどうぞおよみください。