ひろひろ48 さんの日記
2021
5月
9
(日)
12:04
本文
数学の定理に差別があるとは思わない。物理の法則に差別があるとは思えない。でも、ちょっと考えると、工学的に発明、開発された製品には、差別はないのだろうか??スイッチひとつにしても、その取り付けた位置、高さ、大きさ、色など多くは男性の健常者を前提に設計されている。それ以外のこともあるかな。コンピュータはスマホ、情報関連、ソフトにも、あるのかもしれない。で、先日の朝刊の記事「視点」に重要なことが書かれていたので、紹介します。
AI差別とジェンダー、120位の日本 もっと議論を:by 小嶋麻友美(社会部)
金融や物流、創薬などさまざまな領域で活用が広がる人工知能(AI)。その「倫理」を巡る議論が絶えない。
去年からごたつくのはITの巨人、米グーグルだ。AIの公正さ、信頼性を追求する「倫理的AI」部門の共同リーダー、ティムニット・ゲブル氏が12月に解雇された。大規模な言語処理のシステムにひそむバイアス(偏り)を指摘した研究論文が会社側の「かん」に障ったとされる。
ゲブル氏はエチオピア出身で、AI研究の第一線で活躍する黒人女性としても知られている。グーグルに入社する前の2018年の共同研究「ジェンダー・シェーズ」では、IBMなどが開発した顔認識の技術が、白人男性ではほぼ正確なのに、黒人女性では制度が低いという実態をあぶり出した。
AIは、学習した膨大なデータを基に高度な判断をする。AIに与えたデータセットや開発者の構成そのものが、白人の男性に偏っていたことを示唆するこの研究は、業界に衝撃をもたらした。IT各社が人材の多様性を意識し、「公平性」「透明性」などAIを正しく扱うための紳士原則を定める動きを後押しすることになった。
AIを駆使した検索ビジネスで稼ぐグーグルにとって、AI倫理に関する専門部署を構え、その第一人者であるゲブル氏を登用することは、企業として社会的責任でもあったはず。結局、「倫理」は見せ掛けだったのか。そう思わざるを得ない。
ゲブル氏は解雇される前から、グーグル社内の人種差別、女性差別についてためらいなく語ってきた。グーグルを批判し数千人の署名が集まり、退職者も相次ぐなど、疑念、反発は今も社内外でくすぶっている。
日本はどうか。政府は「人間中心のAI社会原則」を掲げ、企業でもAIの倫理原則を設定、製品開発に生かす動きは広がっている。
ただ、ジェンダーに関して見れば、日本のIT業界は欧米に増して多様性に欠け、男性が圧倒的に多い。ジェンダーギャップ指数は世界で120位。政治家の発言などを見ても、まだ社会は女性差別に鈍感なのだと感じる。
東京大学とソフトバンクが昨年立ち上げたAIの研究事業「ビヨンドAI」で、ジェンダー平等たマイノリティーの権利を軸に研究を進める林香里・東大大学院教授は「グーグルで起きたような構造的な問題がまだ日本では表面化していない。今ある女性差別の構造にも目が届いていないのでは」と危惧する。
AIの判断過程はブラックボックスだ。コンピュータも開発者も説明できない。無意識のまま開発されれば、社会の差別構造は温存され、強化されかねない。
いくら倫理原則を求めたところで、実践しなければ意味がないことをグーグルの一見がよく示している。日本ではもっと議論が必要だ。
<引用以上>
コンピュータのソフト、特にAIなどは、物理法則をつかった応用でなく、言語とか、社会、人間の経験をデーター化、そのビッグデータから欲しい結果を導き出す。そのデータの選択、パラメータのせっていなどで、差別的要素が盛り込まれてしまうのだろう。こういう応用面では、コンピュータの出す結果を無批判に受け取ってしまうことは、恐いことかもしれない。
AI差別とジェンダー、120位の日本 もっと議論を:by 小嶋麻友美(社会部)
金融や物流、創薬などさまざまな領域で活用が広がる人工知能(AI)。その「倫理」を巡る議論が絶えない。
去年からごたつくのはITの巨人、米グーグルだ。AIの公正さ、信頼性を追求する「倫理的AI」部門の共同リーダー、ティムニット・ゲブル氏が12月に解雇された。大規模な言語処理のシステムにひそむバイアス(偏り)を指摘した研究論文が会社側の「かん」に障ったとされる。
ゲブル氏はエチオピア出身で、AI研究の第一線で活躍する黒人女性としても知られている。グーグルに入社する前の2018年の共同研究「ジェンダー・シェーズ」では、IBMなどが開発した顔認識の技術が、白人男性ではほぼ正確なのに、黒人女性では制度が低いという実態をあぶり出した。
AIは、学習した膨大なデータを基に高度な判断をする。AIに与えたデータセットや開発者の構成そのものが、白人の男性に偏っていたことを示唆するこの研究は、業界に衝撃をもたらした。IT各社が人材の多様性を意識し、「公平性」「透明性」などAIを正しく扱うための紳士原則を定める動きを後押しすることになった。
AIを駆使した検索ビジネスで稼ぐグーグルにとって、AI倫理に関する専門部署を構え、その第一人者であるゲブル氏を登用することは、企業として社会的責任でもあったはず。結局、「倫理」は見せ掛けだったのか。そう思わざるを得ない。
ゲブル氏は解雇される前から、グーグル社内の人種差別、女性差別についてためらいなく語ってきた。グーグルを批判し数千人の署名が集まり、退職者も相次ぐなど、疑念、反発は今も社内外でくすぶっている。
日本はどうか。政府は「人間中心のAI社会原則」を掲げ、企業でもAIの倫理原則を設定、製品開発に生かす動きは広がっている。
ただ、ジェンダーに関して見れば、日本のIT業界は欧米に増して多様性に欠け、男性が圧倒的に多い。ジェンダーギャップ指数は世界で120位。政治家の発言などを見ても、まだ社会は女性差別に鈍感なのだと感じる。
東京大学とソフトバンクが昨年立ち上げたAIの研究事業「ビヨンドAI」で、ジェンダー平等たマイノリティーの権利を軸に研究を進める林香里・東大大学院教授は「グーグルで起きたような構造的な問題がまだ日本では表面化していない。今ある女性差別の構造にも目が届いていないのでは」と危惧する。
AIの判断過程はブラックボックスだ。コンピュータも開発者も説明できない。無意識のまま開発されれば、社会の差別構造は温存され、強化されかねない。
いくら倫理原則を求めたところで、実践しなければ意味がないことをグーグルの一見がよく示している。日本ではもっと議論が必要だ。
<引用以上>
コンピュータのソフト、特にAIなどは、物理法則をつかった応用でなく、言語とか、社会、人間の経験をデーター化、そのビッグデータから欲しい結果を導き出す。そのデータの選択、パラメータのせっていなどで、差別的要素が盛り込まれてしまうのだろう。こういう応用面では、コンピュータの出す結果を無批判に受け取ってしまうことは、恐いことかもしれない。
閲覧(1871)
コメントを書く |
---|
コメントを書くにはログインが必要です。 |