女性の声のAIアシスタント、性差別的偏見を助長 ユネスコ報告書

  • このエントリーをはてなブックマークに追加
アマゾンの「アレクサ」やアップルの「Siri」といった女性の声のAIアシスタントが性差別の偏見を助長するとの報告書が発表された/Amazon

アマゾンの「アレクサ」やアップルの「Siri」といった女性の声のAIアシスタントが性差別の偏見を助長するとの報告書が発表された/Amazon

(CNN Business) 国連教育科学文化機関(ユネスコ)がこのほど発表した報告書で、アップルの「Siri」やアマゾンの「アレクサ」など初期設定で女性の声が使われているAIパーソナルアシスタントについて、性別に関する固定観念を定着させ、性差別的な発言や乱暴な発言を助長すると指摘した。

報告書では、そうした女性の声のパーソナルアシスタントについて、「女性は愛想が良く従順で、いつも人を助けて喜ばせたいと思っており、ボタン1つ、あるいは音声で命令するだけで利用できる」という概念を固定させると警鐘を鳴らした。

ユーザーが性虐待的な言葉を浴びせた場合でも、AIアシスタントからは受動的で丁寧な反応が返ってくるとも指摘。「女性は従順で、不当な扱いも我慢するという偏見を助長させる」などと述べ、「感情も意識もない非人間のコンピューターコードであるSiriが、女性という異性で、男性の性的な誘いや嫌がらせに耐え、時には誘いもするという幻想を抱かせる」とした。

音声アシスタントはSiriやアレクサに加え、マイクロソフトの「コルタナ」、グーグルの「Googleアシスタント」の主要4製品すべてで、女性の声が初期設定として使われている。

ユネスコのサニエ・ギルセル・コラット男女共同参画局長は「AI技術の性別がどのように決められるのか。そして誰がそれを決めているのか」にもっと注目すべきだと訴えた。

今回の報告書に先立ち慈善事業家のメリンダ・ゲイツ氏は、AI業界の多様性の欠如に警鐘を鳴らし、この業界は「信じられないほど女性が少ない」と指摘した。影響力が強まるAI業界において、この問題は重大な影響を及ぼしていると同氏は述べ、「女性や非白人を参加させないことによって、システムに偏見を焼き付けている」と話している。

「人道危機」のニュース

Video

Photo

注目ニュース

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]