AI機械学習のバイアスを可視化する、米マイクロソフトとお茶の水女子大が組んだ

  • 2
  • 2
お茶の水女子大はジェンダーに注目した研究で存在感を見せる(同大提供)

お茶の水女子大学大学院人間文化創成科学研究科の伊藤貴之教授は米マイクロソフトと共同で、人工知能(AI)の機械学習で起こる偏り(バイアス)を可視化するシステムを提案した。学習に使うデータと結果を、複数の可視化要素を組み合わせて分析。映画のコンテンツ推薦システムで、ユーザーの鑑賞履歴と推薦結果を比較することで、偏りを明らかにした。

コンテンツ推薦システムに機械学習の結果を活用する場合、学習のデータやモデルに含まれる偏りにより、不公平な結果を導く問題がある。例えば属性が偏ったデータからの推薦結果では、多様なコンテンツに触れる機会が失われるという。

今回、伊藤教授とマイクロソフトリサーチアジア(中国・北京)は、機械学習に伴う偏りを視覚的に捉える技術に取り組んだ。マイクロソフトの推薦システムによる約3900本の映画(アクション、SF、恋愛、コメディーなどのジャンル)と、6000人超のユーザー属性(性別、年齢、職業など)で分析した。

このオープンデータによる推薦結果では、女性や子どもなどの少数派や、視聴数が少ない人は、多数派と異なり好みと推薦結果が大きくずれた。また恋愛ものに特化した女性ユーザー層がいる一方、アクションをよく見るユーザーは男女とも恋愛ものを含め多様なジャンルを鑑賞するなど、さまざまな傾向が分かった。

同大は4月にジェンダード・イノベーション研究所を設立した。AIによる性差のバイアスを、心理学や工学で見るなど異分野融合の研究が進みそうだ。

関連記事:性差視点で研究開発、注目集まる「ジェンダード・イノベーション」の有望分野

日刊工業新聞 2022年6月2日

COMMENT

山本佳世子
編集局科学技術部
論説委員兼編集委員

AIの機械学習は最適と思われる解を導くために、過去の蓄積を学んでいく。そのため社会の偏見や偏った対応を助長することになることが問題になっている。「一般社会で皆、そうだった」といった偏見を踏襲することは以前からあったが、良識ある社会人(家庭内でも職場でも)が「いや、それは一面的なものですよ」「科学的な調査では、こんな風な結果が出ているんですよ」など注意を促し、バランスがとられていたのだ、という。こういう場面で科学的なエビデンスを示す高度な役目は、人文・社会科学の研究者らに期待されるものであり、それをAIに活用するのが望ましいだろう。今回の研究成果は情報系の研究者によるものだが、人文・社会科学系の専門家はぜひ、遠巻きにして技術を批判するのではなく渦中に飛び込んで、理工系とは異なる研究活動の重要性を実社会で示してほしい。

関連する記事はこちら

特集

このサイトでは、アクセス状況の把握や広告配信などのためにクッキー(Cookie)を使用しています。オプトアウトを含むクッキーの設定や使用の詳細についてはプライバシーポリシーページをご覧ください。

閉じる