トレンド

ビッグデータとAIが数値化する信用情報による“選民” 格差拡大や差別助長の懸念も

あらゆる履歴が記録され、利用されている

あらゆる履歴が記録され、利用されている

Amazonの人材採用システムがお蔵入りしたワケ

 アメリカでは、犯罪予測や保険金の支払いにもAIによるビッグデータ分析が利用されており、これがすでにバーチャル・スラムを招いている。

 長い間黒人が不当に差別されてきたアメリカでは、黒人の検挙の記録が多く残されている。その「古い」データから学習したAIは「黒人=犯罪率が高い」と判断してしまう。それをもとに警察が捜査すると、黒人であるというだけで疑われてしまう。まるで1950年代に戻ったかのような差別が再生産されるのだ。

 2018年のロイター通信によると、AmazonがAIを使った人材採用システムを開発したが、試験運用の段階で、ある大きな欠陥が判明し、システムはお蔵入りとなった。

「性別に関する情報は、システムに直接は入れていませんでした。しかし、履歴書の中に“○○女子校”など、女性と関連する単語があると、AIが評価を下げていたのです。AIが参照したデータに、働く女性が少ない時代のものが入り込んでいたため、“女性=劣った存在”と学習してしまった。AIは、過去のデータを“食べて”学習します。その中に、マイノリティーへの差別や偏見が含まれていると、それも無邪気に取り込んで、差別的な構造を継承してしまう」(山本さん・以下同)

 ゆがんだ思想が正当化されるのは、AIだけではない。SNS上では、自分が気に入ってフォローしている人の言葉と、自分好みの広告しか目に入らない。こうした、好みのモノだけに囲まれた状態のことを「フィルターバブル」という。

「フィルターバブルの中にいると、自分好みの言葉や思想を繰り返し目にすることで、思想が過激化していく。さまざまな思想を持つ人がそれぞれ過激化していくため、ネット上ではしばしば殺伐とした、感情的な抗争が起こります。思想の分断が激しくなり、民主主義の崩壊にもつながりかねません」

 もしAIを妄信すれば、人類はまた、差別や偏見、争いの歴史を繰り返すことになるかもしれない。

文/角山祥道 取材/進藤大郎、土屋秀太郎、平田淳

※女性セブン2022年8月11日号

関連キーワード

注目TOPIC

当サイトに記載されている内容はあくまでも投資の参考にしていただくためのものであり、実際の投資にあたっては読者ご自身の判断と責任において行って下さいますよう、お願い致します。 当サイトの掲載情報は細心の注意を払っておりますが、記載される全ての情報の正確性を保証するものではありません。万が一、トラブル等の損失が被っても損害等の保証は一切行っておりませんので、予めご了承下さい。