アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で [884040186]
■ このスレッドは過去ログ倉庫に格納されています
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コムAMZN.Oが期待を込めて進めてきたAI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、運用を取りやめる結果になった。
事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの開発に従事してきた。
そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の応募者を明示し、われわれが彼らを採用する」と話した。
ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。
逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。
アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、最終的に昨年初めにチームは解散したという。
また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って実際の採用を決定してはいない。
アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。
キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の一部に組み込まれるとの見方を示した。
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN >>1
採用側からすれば、新技術を用いて採用の網を広げるとともに、採用担当者の主観的な意見への依存を減らすのは長年の夢だ。ただカーネギーメロン大学で機械学習を教えているNihar Shah氏は、課題はまだ多いと指摘。「アルゴリズムの公平性や説明性をどうやって担保するかに向けた道のりはなお遠い」と述べた。
一方でアマゾンの先を行く企業もある。
ソルトレークシティー近くの新興企業ハイアビューのケビン・パーカー最高経営責任者(CEO)は、採用の自動化で企業はこれまで長らく頼ってきた同じ採用ネットワークを超えた領域を目にすることができると主張する。ハイアビューでは履歴書で判断する比率を下げるためにビデオ面接を通じた応募者の言動や表情を分析。顧客にはユニリーバULVR.Lやヒルトンなどが名を連ねている。
ゴールドマン・サックスGS.Nは独自の履歴書分析システムを立ち上げ、応募者に「最もふさわしい」部門をマッチングさせようとしており、マイクロソフトMSFT.O傘下のリンクトインも、職種ごとの応募者を適性に基づいて採用側が評価できる仕組みが導入された。 AIに喰わせるデータ次第ってコトか。
日本版のWikipediaを食わせちゃダーメ(>_<) 学習データが偏っていれば偏りを学習する
どうにもならんな データ検証した結果
感情抜きで技術職には男性選ぶべきとでたのが差別で欠陥とな?? 男性が採用されまくるから
女性は落としといてやろうと忖度するわけだな
人間かな? ネット上から学習させるなと
いい加減ちゃんと育てろ最初から >>9
むしろAIは純粋に正しい結果を出しているまである 欠陥じゃなくて正当な評価だろ
AIを冷遇する人間がおかしいの 内容読んだらAIが極めて真っ当に仕事した結果っていう 学習データがインターネットならそうなるのは当然
AIが高く評価した人物は不採用にするとうまく使えるのかも embeddingの女性っぽさを含む部分に重み付けするとか男性っぽいところをランダムに女性っぽいものにするとか女性のデータをアップサンプリングするとかして学習データの不均衡解消すればいいんじゃねとか思うけどそう単純じゃないか コンピューターって合理化するための物だから差別的になるのは当たり前なんだよね >>13
正解とされる過去のデータに偏りがあるならその偏りに沿ってしまうってだけの話でしょ
AIは過去のデータ参照してそれに近しいもの選んでるに過ぎないんだし本当に業務遂行能力を見分けられるなんて思ってんならそれは買い被りもいいところ。今あるAIが何かを見誤ってる ■ このスレッドは過去ログ倉庫に格納されています