2ちゃんねる ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

【国際】銀行のAIが「女性に限って申し込みを断る」 AI専門家が指摘、人間の差別や偏見がアルゴリズムに反映されるとき

1 :泥ン ★:2018/01/05(金) 02:23:37.35 ID:CAP_USER9.net
https://assets.media-platform.com/gizmodo/dist/images/2017/12/20/searcH_2017_1220-1-w960.jpg

機械も偏見も、元をたどれば人間が作ったもの。

AIがどんなに早く進化し、どれほど私たちの生活に馴染もうと、開発者である人間の現実社会にある差別や偏見を乗り越えることはできない…。そう説くのは、Microsoft研究者でAIの社会的影響を研究する機関AI Nowの共同創設者、Kate Crawford(ケイト・クロフォード)氏。

先日行なわれた機械学習の国際会議NIPS(Neural Information Processing System Conference)で、アルゴリズムの偏見がもたらす多様な問題をテーマにした基調講演で登壇した彼女のスピーチが反響を呼んでいます。一体どんな内容だったのでしょうか。

「偏見」は機械学習において数学的に定義づけられており、サンプリング時に推定との誤差や特定の人々を過剰/過小評価している点から反映されています。あまり議論されてきませんでしたが、特定の人々に対する機械学習の偏見、差別的効果(disparate impact)は多様な問題をはらんでいます。彼女はこうした危険性を配分型(allocative harm)と象徴型(representational harm)の2種類に分類しました。

Kate Crawford: The Trouble with Bias (NIPS 2017 keynote)
https://www.youtube.com/watch?v=ggzWIipKraM

「配分型の危険とは、システムがある機会やリソースを特定の人たちに対して不公平に扱うこと」だと彼女は指摘しています。

たとえば、AIがなんらかの判断する(住宅ローンの申し込みなど)とき、誤差でもわざとでも特定のグループを拒否したとします。彼女は銀行のAIが「女性に限って申し込みを断る」といった例をあげたほか、危険度を測るAIが黒人犯罪者を白人犯罪者よりもリスクが高いと判断してしまう例まで…。この決定により、黒人の犯罪者はより多く未決勾留を言い渡されたというのです。

また、象徴型の危険については「システムがアイデンティティの文脈で特定の集団の劣位を強めるときに起きる」と彼女は語りました。テクノロジーがステレオタイプを強化したり、特定の人々をないがしろにしたりするときに発生するというのです。また、この種の問題はリソース関係なく起こります。具体的には、Google Photoが黒人を「ゴリラ」と ラベリング(人間を動物と比べるなど)したり、AIが東アジア地域の人々の笑顔をまばたきと検知したりするなどが分類されます。

jews should(ユダヤ人は〜〜すべき)で検索するときの予測変換。排除する/国家を持つべきではない、など。
https://assets.media-platform.com/gizmodo/dist/images/2017/12/13/171213TheTroubleWithBias.jpg

Crawford氏はLaTanya Sweeney氏による2013年の論文を引用しながら、これらふたつの複雑な危険性をひもづけました。Sweeney氏の論文では「黒人系とされる名前をGoogle検索すると犯罪歴の調査の広告が表示される」という検索結果に隠れたアルゴリズムパターンについて指摘されています。犯罪と黒人を結びつける象徴型の危険は、配分型の危険にも現れるんです。もしも雇用者が志願者の名前を検索して犯罪者と関連する結果が出てしまえば、その従業員を差別する可能性だって生まれてしまうかもしれません。Crawford氏は以下のように考えています。

“黒人と犯罪に対するステレオタイプが続くことは、雇用以外の場面でも大きな問題になります。

これらの偏見は、社会全体として黒人がこのように特徴づけられ、理解される問題を生みだします。私たちは、単純に意思決定に影響する機械学習のみについて考えるのでなく、たとえば雇用や刑事司法など、偏ったアイデンティティを表現する機械学習の役割についても考える必要があります”

サーチエンジンの検索結果とオンライン広告のどちらも、私たちを取り巻く社会を表し、影響を及ぼしています。オンラインで表明されたことは、オンラインだけにとどまるのではありません。現実的に、経済の成りゆきにも影響しているとSweeney氏は指摘してします。もっといえば、こうしたことは何もオンラインから始まったことではありません。犯罪や非人間性にまとわりつくステレオタイプは数世紀も前から現実社会であったことなのです。

Crawford氏のスピーチではその後も象徴型の危険のあらゆる形について詳しく述べられています。 配分型の危険との関連性のほか、最も興味深いのはそうした影響をどのように防ぐのかについても語っていること。よく言われるのは、問題となる単語から連想されるイメージとの結びつきを解くか、あるいは問題となるデータを取り除くか、いずれかの方法でしょう。

続きはソース
https://www.gizmodo.jp/2018/01/ai-reflect-prejudice-and-why.html

953 :名無しさん@1周年:2018/01/06(土) 07:39:49.65 ID:uxgX0hOK0.net
グゴーの検索結果も
機械的だ、人為なしと言いながら
思いっきり恣意的に
広告満載のクソサイト出してくるからなw

954 :名無しさん@1周年:2018/01/06(土) 07:42:50.50 ID:P6aXHrgi0.net
これAIに説教するのか

955 :名無しさん@1周年:2018/01/06(土) 07:48:12.63 ID:11BrBsPK0.net
>>920
女のヒステリーはAIに通じないからな。
人間の男相手だったら、女は逆切れするか泣くかすればほとんどの要求を無理矢理通せるが
AIに対して泣こうが暴れようが何の効果もない。

956 :名無しさん@1周年:2018/01/06(土) 07:49:08.26 ID:11BrBsPK0.net
>>928
そうそう。
AIが間違った答を出しているのではなく
人間の方が間違った答を期待しているだけだ。

957 :名無しさん@1周年:2018/01/06(土) 07:50:07.92 ID:rypwWGI80.net
社会的に「良い顔」をしなくちゃいけないとか
AIは無いからな
フェアな判断をしただけだと思う

958 :名無しさん@1周年:2018/01/06(土) 07:50:40.02 ID:iRQYqeQ00.net
>>1
「偏見」 って何だ?

クロンボがゴリラに似てるとか、アジア人の笑顔がまばたきに見えるとか、女は技術者に向いていないとかか?

上記を否定するほうが偏見

959 :名無しさん@1周年:2018/01/06(土) 07:51:14.83 ID:iCd8fz4l0.net
単純な属性と結果をマッチングさせるだけなんだから当然ステレオタイプな回答が出てくる。

960 :名無しさん@1周年:2018/01/06(土) 07:58:43.97 ID:iCd8fz4l0.net
>>958
女が向いているか?ではなくて、その個人が向いているか?判断しないといけないが、
属性だけで見ると個人の資質に踏み込まない判断を下すと言うこと。

ある競技の世界チャンピオンが過去日本人から出ていないとして
日本人はその競技に向いていないと判断するだろうが
ある日ぽっと世界チャンピオンが出てきたとしたら、
競技への適正を日本人かどうかで判断するのは不十分だったということだわな。

黒人とゴリラ(似てるではなく、ゴリラと分類する)もそうだが
AIに判断を求める際に与える材料が不適切、
人類かゴリラかの分類は顔写真でするのでは不足ってだけの話。

961 :名無しさん@1周年:2018/01/06(土) 08:10:53.11 ID:DyOBQfuC0.net
AI怖いわwww

962 :名無しさん@1周年:2018/01/06(土) 08:37:07.93 ID:4W1aV/GJ0.net
>>959
君は馬鹿でよくわかってないんだから長文書かないほうがいいよ

963 :名無しさん@1周年:2018/01/06(土) 08:38:46.73 ID:xFX+I7R40.net
神は全ての人間に差を与えたからな

964 :名無しさん@1周年:2018/01/06(土) 08:40:16.97 ID:27x1hfYI0.net
バランスシートがたまたま女性が悪いんだろ
女性だからって性別で融資きめるかよ

965 :名無しさん@1周年:2018/01/06(土) 08:42:51.17 ID:OHnxiITs0.net
これは女が悪い

966 :名無しさん@1周年:2018/01/06(土) 08:45:48.48 ID:nsm8FMD/0.net
将棋AIはすでに、AIのアルゴリズムの中身がブラックボックス化して
何故こういう着手になったか、AIじゃないとわからない
人間じゃあ全く分からないからな
プログラミングした本人達ですら、もう結果が判らない

AIに人間のプログラマーが良かれと思って改良したアルゴリズムを追加すると
結果が逆に悪くなるという状況にまでなってる

一度AIをインフラとして使うと、元には戻れなくなる危険性があるわなあ
特に金融をAI化するために、大規模なリストラが始まったから
何か不具合があっても、元には戻れないよ

967 :名無しさん@1周年:2018/01/06(土) 08:49:03.32 ID:XmvhUqGU0.net
曇りなきなまこで

968 :名無しさん@1周年:2018/01/06(土) 08:56:35.15 ID:u5RQj4pd0.net
>AIがなんらかの判断する(住宅ローンの申し込みなど)とき、誤差でもわざとでも特定のグループを拒否したとします
これ人間でもやると思うけど
融資するに相応しくないと判断したら切るのが普通じゃないの
妻子持ちで会社でも中堅クラスのサラリーマンと無職のシンママを同列に扱うの

969 :名無しさん@1周年:2018/01/06(土) 08:57:41.00 ID:27x1hfYI0.net
AIなんてそれぞれ独自のアルゴで組まれてるからまじぶっ飛んだAIもいるからな

970 :名無しさん@1周年:2018/01/06(土) 09:00:17.01 ID:o0LfwI3H0.net
AIに完全に任せるなんて狂気

971 :名無しさん@1周年:2018/01/06(土) 09:02:26.19 ID:iRQYqeQ00.net
>>960
それは、所詮無理な話

個人の特性を正確に見極めるなど不可能

972 :名無しさん@1周年:2018/01/06(土) 09:13:16.82 ID:I0NNY8qC0.net
まーた馬鹿フェミサヨがくだらないことをやってるのか
この自称AI専門家とやらはAIの判定が男側に不利に働くケースがあってもそれは完全に無視するんだろ
いつもの糞フェミ 相手にする必要無し

973 :名無しさん@1周年:2018/01/06(土) 09:15:57.07 ID:4NxK6p9a0.net
今の銀行AIなんてサンプルと同じ振る舞いをするロボを作ってるだけだから
その辺の一般人より人道的な行動なんかできるわけがない

最近の囲碁AIみたくルールだけ教えてゼロから考えさせれば
AIには股間付いてないから別の結果が出るかもしれないけどね

974 :名無しさん@1周年:2018/01/06(土) 09:17:51.91 ID:09ACavAD0.net
どんなにマスゴミが騒いでもフェミは流行らないな

975 :名無しさん@1周年:2018/01/06(土) 09:18:42.72 ID:J2nf0FLL0.net
AIは差別しない。
与えられたプログラムを忠実に実行するだけ。
差別と感じるのは人間の方。
男女の特徴や向き不向きを徹底的に篩にかければ、
男女で差ができるのは当たり前。

976 :名無しさん@1周年:2018/01/06(土) 09:18:44.75 ID:tQhalsVL0.net
むしろ偏見や差別がないAIが弾いたってのが大きんじゃないの
いい加減認めたら?

977 :名無しさん@1周年:2018/01/06(土) 09:19:58.56 ID:c877+Yzy0.net
ビッグデータに基づいてロジカルに判断した結果女性の方が多く排除されたってんなら
それはもうAIのせいじゃなくて政治の領域だろう
女のほうが年収高い国なんてまずねーんだし

978 :名無しさん@1周年:2018/01/06(土) 09:22:39.28 ID:v+ysEva2O.net
口座の中身とか収入から判断しただけじゃないの?
銀行だって営業はするが慈善事業じゃないんだから

979 :名無しさん@1周年:2018/01/06(土) 09:27:14.13 ID:X5DuVDu80.net
AIは統計的な事実に基づいて判断してる

980 :名無しさん@1周年:2018/01/06(土) 09:35:37.95 ID:20DMRxcA0.net
公務員改革も出来ないオスだと、AIの導入すら出来ないのでは?

981 :名無しさん@1周年:2018/01/06(土) 09:39:53.58 ID:nsm8FMD/0.net
女性の年収と預金残高、口座の使用状況をAIが計算した結果
(住宅)ローンの申し込みの拒否だろなあ

年収と残高が低すぎるんだよ、
使用状況がキャッシングを繰り返して
残高マイナスになってることが多い奴には、
人間の銀行員でも当然ローンを許可しないだろ

そういうのが女性には現状で多いってことだろ

982 :名無しさん@1周年:2018/01/06(土) 09:46:02.85 ID:t3fEH5uY0.net
収入の安定性の問題じゃないの?
なんでも差別とかいっても仕方がない
違いがあって当たり前
社会としてそれにどう対応するかを考えないとね
平等というのはそれぞれに違いがないということではなく
社会の扱いが平等に優しくするという意味
元は神の前の平等
神の恩寵が等しく与えられるということからきている

983 :名無しさん@1周年:2018/01/06(土) 09:50:25.70 ID:VL3A+kTk0.net
ではその女性が返済出来なくなるプロセスまで詳細に
シミュレートし女性側の対策まで出来なければ本当のAIでは無いな

984 :名無しさん@1周年:2018/01/06(土) 09:52:25.80 ID:LOnHL78c0.net

昔神様、今AI

985 :名無しさん@1周年:2018/01/06(土) 10:06:28.47 ID:V/eNSakI0.net
>>982
実際貸し出すのは銀行だから破産リスク少ない奴にしか貸したくないし
警察や裁判所も再犯しにくい奴らしか仮釈放したくないだろうな

逆に文句言う奴がそういうリスクある奴らの保証を買ってでれば解決するだろ
まあまず無理だろう
AIは統計から機械的に出してるだけだから高リスクはかわらない

986 :名無しさん@1周年:2018/01/06(土) 10:09:12.12 ID:4NxK6p9a0.net
>>985
そういう話じゃなくてAIが人間で優れた人より劣った判断をするという話だろ
脳が劣った人には黒人がゴリラに見えてるかも知れんが
黒人は黒人、ゴリラはゴリラやで

987 :名無しさん@1周年:2018/01/06(土) 10:46:43.26 ID:QeMR4i+90.net
AIまで人種差別かよwww

988 :名無しさん@1周年:2018/01/06(土) 10:47:34.06 ID:2HKRcFfY0.net
事実に基づく区別も差別だから(笑)

989 :名無しさん@1周年:2018/01/06(土) 11:08:10.45 ID:x2/BfXHh0.net
その前に、何をもって女性と判断するかが問題になると思う

990 :名無しさん@1周年:2018/01/06(土) 11:09:51.30 ID:7BsJ6Ay20.net
イタチ本おすすめ

991 :名無しさん@1周年:2018/01/06(土) 11:42:11.88 ID:QeMR4i+90.net
さてうめとこか?????

992 :名無しさん@1周年:2018/01/06(土) 11:51:46.66 ID:bDkD6WHU0.net
傾向をプログラムすると差別になるわけか
とても中身は見せられないな

993 :名無しさん@1周年:2018/01/06(土) 11:52:31.97 ID:y9jtGBfV0.net
シナチョンは無論、クロンボ、イエローモンキーにも融資なしですか、そうですか。

994 :名無しさん@1周年:2018/01/06(土) 12:27:05.14 ID:zVEjLVnS0.net
>>960
> 人類かゴリラかの分類は顔写真でするのでは不足ってだけの話。
単に自分の理想の結果が出なかったからインプット情報が悪いと逆ギレしてるようにしか見えないんですが…
お前みたいなのが神社で大吉が出るまでおみくじを引き続けるタイプなんだろうなw

995 :名無しさん@1周年:2018/01/06(土) 12:42:45.81 ID:wsHvvNFm0.net
アルゴリズム体操ってどっかの芸人がやってたなあ〜

996 :名無しさん@1周年:2018/01/06(土) 13:06:39.28 ID:O78vwK2C0.net
ブライドテストして結果としてそうクラスタリングされたら
まんさんは統計的にそういう価値しかないってことだろ

結果論

997 :名無しさん@1周年:2018/01/06(土) 13:15:39.59 ID:wsHvvNFm0.net
わかりました。

998 :名無しさん@1周年:2018/01/06(土) 13:22:47.12 ID:wsHvvNFm0.net
もういいよ。

999 :名無しさん@1周年:2018/01/06(土) 13:24:02.15 ID:wsHvvNFm0.net
梅る。

1000 :名無しさん@1周年:2018/01/06(土) 13:25:15.69 ID:wsHvvNFm0.net
1000なら泥ン記者死ね!

1001 :名無しさん@1周年:2018/01/06(土) 13:27:37.33 ID:wsHvvNFm0.net
さいなら。。。

1002 :2ch.net投稿限界:Over 1000 Thread
2ch.netからのレス数が1000に到達しました。

総レス数 1002
255 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★