AIと説明責任

 自分が病気になったとしてAI(人工知能)と医師の診断のどちらを信頼するかと問われたら、大半は医師と答えるのではないか-。AIに詳しい電機大手・富士通(東京都)の松本国一氏(49)の見方は、大方の人も共感できる常識的なものだった。先ごろ、講演で大田高校(大田市)に訪れたところを取材した。AIに対する人間優位の常識にほっとする一方、その常識が覆される日も遠くないと感じた▼松本氏によると、AIに対する世間の信頼感がいまひとつなのは、「答えは出せるが、その理由を説明できないから」という。答えは人間よりはるかに早く、かつ正確に出せるが、どうしてその答えに至ったかのプロセスはブラックボックス▼勉強の方は超秀才ながら、何を考えているのか分からない。そんな頭でっかちのAIに自分の命を預けるとなると、人々が不安を感じるのは当然だが、最近はAI側でも説明能力を付ける技術開発が進んでいる▼膨大なデータを解析、学習しながら「特徴」「関連性」「組み合わせ」の3要素に着目することで、答えに至った理由と根拠を示せるようになったという▼そう説明されてもこちらにはちんぷんかんぷんだが、「ご指摘は当たらない」「全く問題ない」と答えつつ、その理由を問うと、「プロセスの説明は差し控えたい」と問答をぶち切りにする。どこかの首相にもAI最前線の説明責任を習わせたい。(前)

2020年11月14日 無断転載禁止