2020年09月16日
最先端技術
研究員
米村 大介
日本危機管理学会は2020年9月5日、「新たな技術に関する企業倫理と内部統制的活動に関する考察」をテーマに据え、AI・DX・セキュリティー研究部会の今年度初会合を開催した。ウェブ会議システムを活用した初のリモート開催。報告者の佐藤誠氏(筑波大学ビジネス科学研究科博士後期課程)が、企業が人工知能(AI)を活用したサービスを展開する際に起こり得るリスクや、その統制について研究成果を発表した。
発表中の佐藤誠氏
(写真)筆者
この中で佐藤氏は、企業がAIのリスク管理を行う上では、「利用者の感覚」を中心に据えるべきだと主張した。例えば、AIの定義は学術的視点からだけでなく、「市民の感覚」を考慮しなければ、利用者と話がかみ合わなくなるからだという。
また 、人権・プライバシー侵害リスクに十分注意しながら、AIを社会に役立てていく上では、「人権」「公共の福祉」「損害」と「利益」の天秤を意識しながらAIの利用を統制しなければならないと指摘した。
AIによる人権・プライバシー侵害リスクの特徴として、SNSなどを通じた拡散が懸念されるため、佐藤氏は「市民の目線」を考慮することが重要だと強調した。このため、従来の内部統制の手法に加え、工学・社会調査・危機管理といった学術横断的な視点の重要性を訴えた。
ここで筆者が思い出したのが、独立行政法人情報通信研究機構(NICT)が2014年に大阪パークシティで計画した実験である。これは、商業施設で災害発生時の避難誘導が必要になる場合、監視カメラを利用した「顔認証」で人の流れを確認するという試みだ。
ところがこの実験前、「個人を監視する社会につながりかねない」といった批判が沸き起こった。このため、急きょNICTは実験計画の内容を第三者委員会に検証してもらった。その結果、法律には抵触しておらず、個人を特定できない実験との判断を得た。
しかし、「市民の目線」からは「気持ち悪い実験」というイメージが出来上がってしまい、NICTは予定した不特定多数を対象にした実験を中止した。それから6年経った今も、個人が特定されるデジタルサービスにおいては同様のリスクを払拭できない 。
また、企業がデジタルトランスフォーメーション(DX)志向を強める中、一部の人が不快感を抱くだけでサービスが立ちいかなくなる事態も増える。今後、「人も企業も安心できる」デジタルサービスには、人の気持ちを配慮する仕組みが求められよう。
(提供)佐藤誠氏
発表後の質疑応答・意見交換では、「AIによる意思決定はだれが責任をとるのか」「AIの問題にはアルゴリズム単体のほか、社会の文化・倫理との相性という問題もあるのでは」といった指摘がなされた。これに対して佐藤氏は、AIには内部監査の必要性もあるほか、AIの活用には地域の文化・法律への理解が求められるなどと応じた。
一般社団法人・日本危機管理学会の活動や入会に関心のある方はホームページを御参照ください(https://crmsj.org/)。
米村 大介