2017年1月30日月曜日

「落とし穴」は浅い?日経「AIと世界~理想社会の落とし穴」

苦しい展開になりそうな連載が30日に日本経済新聞朝刊1面で始まった。「AIと世界~気がつけばそこに」という連載の第1回は「理想社会の落とし穴 公平とは何か」。色々とツッコミどころが多い記事になっている。「理想社会の落とし穴」と見出しに付けているが、記事を読む限り「落とし穴」は大したものではなさそうだ。

ブルージュ(ベルギー) ※写真と本文は無関係です
記事の前半を見た上で、問題点を指摘したい。

【日経の記事】

フィリピン・マニラ市のカジノ。「帰りの航空代金がなくなっちゃう」「泳いで帰るしかないわね」。ルーレットで負け続けた韓国人男性客と地元の女性ディーラーのやりとりが笑いを誘った。

ここで働くディーラーや顧客は、ある最新技術が導入されたことをまだ知らない。天井を見上げると50センチごとにぎっしりカメラが並ぶ。単なる監視カメラではない。不正を犯しそうな人を事前に見つけるシステムだ。

大麻中毒や、万引きをする人など約10万人の画像データを解析。顔や体の細かい揺れから怪しい人物を特定する。1日10人程度にシステムは反応している。本人には知らせないまま重点監視の対象とした女性もいる

同様のシステムは世界の空港やイベント会場でも採用が進むが、問題も浮上している。米国のあるシステムでは過去のデータなどから“公平”に分析すると、白人よりも黒人を怪しいと判断する比率が高いのだ

人工知能(AI)の法整備に詳しい慶応大学の新保史生教授は「犯罪者は生まれつき決まっているとの学説もある。そんな考えをもとにしたシステムは深刻な人権侵害を起こす」と言う。悪いことをしていないのにある日突然、AIに犯罪予備軍と認定され、周囲から白い目で見られる。犯罪が減ったとしても、それは理想の社会なのか。


◎知らせないのが当然では?

まず「本人には知らせないまま重点監視の対象とした女性もいる」との説明が引っかかった。この書き方だと「ほとんどの人には重点監視の対象になっていることを知らせている(例外となった女性もいる)」と受け取れる。だが、従業員はともかく、まだ問題を起こしていない顧客に「あなたは重点監視の対象ですよ」と警告するだろうか。知らせないのが当然だとすれば、「本人には知らせないまま重点監視の対象とした女性もいる」と強調されても困る。


◎何が「問題」?

過去のデータなどから“公平”に分析すると、白人よりも黒人を怪しいと判断する比率が高い」ことの何が問題なのか。「世界の空港やイベント会場」で「犯罪予備軍」を正しく検知できるシステムがあるとしよう。そのシステムを使って、黒人と白人の参加者が半々のイベントで「犯罪予備軍」を割り出したら90%は黒人だった場合、何か問題があるだろうか。

怪しい人を会場から追い出すといった措置を取るならば別だが、参加者には気付かれずに監視するのであれば、黒人比率が高くても大きな問題はないはずだ。「このイベントの参加者の中で怪しい人を選んだところ、90%は黒人でした」と発表するわけでもないだろう。

悪いことをしていないのにある日突然、AIに犯罪予備軍と認定され、周囲から白い目で見られる」のは困った話だが、「不正を犯しそうな人を事前に見つけるシステム」ができたからと言って、記事で言うような心配する必要はなさそうな気がする。

従来も、監視カメラを使って人の目で怪しそうな人の目星を付けることはできたし、やってきた。だからと言って、「ある日突然、犯罪予備軍と認定され、周囲から白い目で見られる」といった社会問題は起きていない。人の目がAIに代わると、なぜ急に問題になるのか謎だ。

記事の後半部分はさらに辛い。

【日経の記事】

企業も同様の問題に直面する。日立ソリューションズは2月、休職する可能性が高い社員をAIで割り出すシステムを発売する。業務の様子や残業時間から判断。管理者に警告を出し、業務を分散させるなどして休職の防止に生かす

プロジェクトを率いる山本重樹本部長が頭を悩ませたのが個人を特定するかどうか。休職の可能性がありと上司に知られれば人事評価に影響が出かねないからだ。「個人の不利にならないように使うこと」という項目を契約に盛り込み、休職しそうな人数だけを伝えることにした。休職を防ぐ効果は限られてしまうだけにジレンマも感じる。


◎ショボすぎる事例

この日立ソリューションズの話はかなりショボい。「AIはすごい力を持つがリスクもある諸刃の剣だ」とこの記事では伝えたいはずだ。しかし、「休職する可能性が高い社員をAIで割り出すシステム」は大した力を発揮しそうもない。

大分県立日田高校(日田市) ※写真と本文は無関係です
日経の別の記事によると、このシステムは「残業時間や有給休暇取得日数に加え、最近上司が変わったか、などの要素も加味した上で分析する」らしい。つまり、大したデータ分析はしてくれない。

会話、運動、食事、睡眠といった個人の様々なデータをAIが総合的に分析して休職する可能性を割り出すのならば、「休職の可能性が高い人」と認定された時にショックもある。しかし、「残業時間や有給休暇取得日数」「最近上司が変わったか」は一緒に働いている上司でも簡単に分かる。その上で本人の様子も職場で直に見ているのだから、AIより判断材料は豊富だ。日立ソリューションズのシステムが下す判断は、精度の低い参考情報の域を出そうもない。

記事の終盤には、どう理解したらいいのか分からない話も出てくる。

【日経の記事】


AIと人間の共存へ向け、あらゆる分野でAIをどう使うかのルール作りが必要になる。出遅れたのが将棋の世界だ。

昨年、三浦弘行九段が対局中にスマホでソフトを使ったと疑われた。その後の調査で「不正の証拠はない」と結論づけられた。辞任を決めた日本将棋連盟の谷川浩司会長は「ソフトが急速に力をつける中、規定を整えるのが遅れた」と悔やむ。

2020年の東京大会を控えるパラリンピック。「レギュレーションを作らないと」。日本パラ陸上競技連盟の三井利仁理事長は言う。義足や車いすに特段の規制はないが、AIを使った人だけ際限なく記録が伸びる可能性もある。

AI自体は公平でも人間の使い方次第では不公平になる。AIでどんな社会をつくるのか、問われているのは人間だ。


◎なぜ「パラリンピック」限定?

上記の「パラリンピック」の話がよく分からない。まず、AIを使って「義足や車いす」の性能を上げるとはどういうことか。AIと将棋の関係は分かるが、AIを使った「義足や車いす」のイメージが湧かない。しかも、それは「際限なく記録が伸びる可能性もある」ものらしい(眉唾な感じはするが…)。

用具の開発にAIを活用するという話ならば、規制は無理だろう。記事では、競技中に用具を通じてAIの助けを受ける状況を念頭に置いているのだと思うが、肝心の「どうやって助けてくれるのか」に触れていない。

さらに言うと、仮にAIを使った「義足や車いす」が問題ならば、規制が必要なのは「パラリンピック」に限らないはずだ。オリンピック競技のスキーやカヌーでも対策が求められる。スキーやカヌーは既にAIの使用に関する規制が既にあるのかもしれないが、これまた記事では何も教えてくれない。

連載の第1回でこの内容だ。第2回目以降、大したことのない事例を基に「AIで世界が変わる」とか「革命が起きる」といった大げさな話に仕立ててきそうで怖い。前途多難だ。


※記事の評価はD(問題あり)

0 件のコメント:

コメントを投稿