人工知能が差別発言、マイクロソフトが黙らせる

  • このエントリーをはてなブックマークに追加

ニューヨーク(CNNMoney) 人工知能(AI)を使った米マイクロソフトのチャットボット「Tay(テイ)」がツイッターで差別発言を言い放つようになり、公開から1日足らずで実験が中止になった。

Tayは10代の若者のような会話ができる話し相手として、マイクロソフトがAI研究の目的でソーシャルメディアやメッセージングアプリを通じて23日から実験的に公開した。

ところが直後から、ツイッターで人種差別や性差別的な発言を繰り返すようになった。ほとんどはマイクロソフトが削除したものの、ユーザーが保存したスクリーンショットには、「ヒトラーは正しかった。ユダヤ人大嫌い」などの発言が残っている。

このためマイクロソフトは23日夜、Tayの実験を中止した。問題発言については、Tayの発言能力が意図的に操作されたと述べ、Tayの提供を中止して調整を行うことにしたと説明している。

Tayはツイッターなどを通じて誰とでもチャットできるプログラムで、チャットを通じて新しい言葉を覚え、人との会話能力を身に着けていく仕組みだった。

今でもダイレクトメッセージには応答があるものの、現時点では何を話しかけても「今日はエンジニアに調整してもらっているところ」という内容の返答しか返ってこない。

ツイッターでの最後の発言は、「人間の皆さん、また会いましょう。今日はたくさん会話したからもう寝ます。ありがとう」だった。

メールマガジン登録
見過ごしていた世界の動き一目でわかる

世界20億を超える人々にニュースを提供する米CNN。「CNN.co.jpメールマガジン」は、世界各地のCNN記者から届く記事を、日本語で毎日皆様にお届けします*。世界の最新情勢やトレンドを把握しておきたい人に有益なツールです。

*平日のみ、年末年始など一部期間除く。

「人道危機」のニュース

Video

Photo

注目ニュース

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]