Tay (人工知能)

出典: フリー百科事典『ウィキペディア(Wikipedia)』
ナビゲーションに移動 検索に移動

Tayとはマイクロソフトによるおしゃべりボットで、Twitter上で書き込むボットとして2016年3月23日にお披露目された[1]

概要[編集]

マイクロソフトの技術開発部門とBing部門が開発している[2]。マイクロソフトはこのボットに関して当初詳細をあまり公表しなかったが、「中華人民共和国でマイクロソフトが行っている類似プロジェクトであるシャオアイスと類似しているのではないか」[3]という指摘があった際に、マイクロソフト・リサーチでプロジェクトを指揮したピーター・リーはこれを認めており、「中国で4千万人のユーザーに利用されたシャオアイスの素晴らしい体験をアメリカでも実験したくなったのでTayをつくった」としている[4]。シャオアイスが問題を起こさすことなく運用されていることは中国のネット検閲による情報統制が影響してるともされる[5]

Tayは話し方が19歳のアメリカ人女性という設定で、Twitterユーザーからやり取りを覚えるようになっており[6]、「よそよそしさのない人工知能」とマイクロソフトは説明していた[7]

事件[編集]

Tayは1日で96,000以上のツイートを行ったが[8]、2016年3月25日ごろマイクロソフトは「調整」と称して一時的にTayのアカウントを停止し、「複数のユーザーによってTayの会話能力が不適切に調教され、間違った方向のコメントをするようになった」と発表[9]、結果的にこれが原因でヘイトスピーチや性転換したかのようなメッセージを投稿するようになったと推測される[6]

問題になったTayのツイートには「Bush did 9/11 and Hitler would have done a better job than the monkey we have got now. donald trump is the only hope we've got(→9/11はブッシュがやったことだ。ヒトラー今のサルより良い大統領に成れたんだ。ドナルド・トランプは我々にとって唯一の希望だ。)[7]や「Fuck my robot pussy daddy I'm such a naughty robot(→パパ、私を犯して。私はみだらなロボットなの。)」がある[10]。その後マイクロソフトは不適切だと判断したツイートを削除した[11]

ワシントン・ポストのアビー・オールヘイザーは、Tayの「編集スタッフ」を含む研究チームは、「Gamer Gate sux. All genders are equal and should be treated fairly.(→ゲーマーゲートは最悪。性は平等で公平に扱うべきだわ。)」と主張するほとんど同一の返答に力を入れていたことを例に挙げ、その日にいくつかのポイントに基いてTayのツイートを広めたり編集することを始めていたと論じている[11]。同じ根拠として、ギズモードはTayがゲーマーゲートを強く批判するように調教されていたと指摘している[12]。また、Tayのツイートは誰かが書いたものではないかという疑惑に抗議する"#JusticeForTay"キャンペーンも行われていた[13]

人工知能研究者であるローマン・ヤンポルスキー英語版は、Tayが不作法になったのは必然的だったとし、Twitterユーザーによる意図的な攻撃を覚えてしまったことと、マイクロソフトがどういう行動が不適切か判断させることを怠ったためと論じていて、IBMのワトソンアーバン・ディクショナリー英語版を覚えてしまったことで、下品で不敬な言動になった問題を引き合いに出している[2]

同年3月30日に復旧したものの、フォロワーへのスパム一斉送信や「I'm smoking kush infront the police(→私は今大麻を警察の前で吸ってるの)」などと再び問題発言を繰り返したことでマイクロソフトに即停止された[14]

脚注[編集]

  1. ^ Andrew Griffin (2016年3月23日). “Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to”. The Independent. http://www.independent.co.uk/life-style/gadgets-and-tech/news/tay-tweets-microsoft-creates-bizarre-twitter-robot-for-people-to-chat-to-a6947806.html 
  2. ^ a b Hope Reese (2016年3月24日). “Why Microsoft's 'Tay' AI bot went wrong”. Tech Republic. http://www.techrepublic.com/article/why-microsofts-tay-ai-bot-went-wrong/ 
  3. ^ Caitlin Dewey (2016年3月23日). “Meet Tay, the creepy-realistic robot who talks just like a teen”. Washington Post. https://www.washingtonpost.com/news/the-intersect/wp/2016/03/23/meet-tay-the-creepy-realistic-robot-who-talks-just-like-a-teen/ 
  4. ^ “Microsoft、人工知能Tayの無作法を謝罪 「脆弱性を修正して再挑戦したい」”. ITmedia. (2016年3月26日). http://www.itmedia.co.jp/news/articles/1603/26/news015.html 
  5. ^ Bright, Peter (2016年3月26日). “Tay, the neo-Nazi millennial chatbot, gets autopsied”. Ars Technica. 2019年4月24日閲覧。
  6. ^ a b Rob Price (2016年3月24日). “Microsoft Took Its New A.I. Chatbot Offline After It Started Spewing Racist Tweets”. Business Insider. http://www.slate.com/blogs/business_insider/2016/03/24/microsoft_s_new_ai_chatbot_tay_removed_from_twitter_due_to_racist_tweets.html 
  7. ^ a b Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours”. The Daily Telegraph. 2016年3月25日閲覧。
  8. ^ Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day”. The Verge. 2016年3月25日閲覧。
  9. ^ Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages”. Time. 2016年3月25日閲覧。
  10. ^ Of Course Internet Trolls Instantly Made Microsoft's Twitter Robot Racist and Sexist”. Esquire. 2016年3月25日閲覧。
  11. ^ a b Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac”. The Washington Post. 2016年3月25日閲覧。
  12. ^ Microsoft's Teen Chatbot Has Gone Wild”. Gizmodo. 2016年3月25日閲覧。
  13. ^ Microsoft chatbot is taught to swear on Twitter”. BBC News. 2016年3月25日閲覧。
  14. ^ Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers”. IBTIMES. 2017年10月13日閲覧。

関連項目[編集]

外部リンク[編集]