くらし情報『Microsoft、人工知能「Tay」の不適切発言について謝罪』

2016年3月28日 15:34

Microsoft、人工知能「Tay」の不適切発言について謝罪

Microsoft、人工知能「Tay」の不適切発言について謝罪
米Microsoftは3月25日(現地時間)、公式ブログで、同社が開発した人工知能チャットボット「Tay」が人種差別など、不適切な発言をしたことに対して謝罪した。

人工知能ボット「Tay」は、マイクロソフトの研究部門とBingのチームが、米国の18歳から24歳の若者を対象に開発しており、会話を重ねることで賢くなるとしている。

Tayは23日にTwitterで公開されたが、意図しない攻撃を受け、不適切な発言をしたとして、公開後24時間で停止された。

Microsoft ResearchバイスプレジデントのPeter Lee氏は、「さまざまな条件下でTayのストレステストを実施したが、脆弱性を悪用して攻撃を受けた。その結果、Tayは不適切な言葉と画像をツイートすることとなった。しかし、今回のことを経験として、Tayが攻撃を受けた脆弱性を解決していく」と述べている。

関連記事
新着くらしまとめ
もっと見る
記事配信社一覧
facebook
Facebook
Instagram
Instagram
X
X
YouTube
YouTube
上へ戻る
エキサイトのおすすめサービス

Copyright © 1997-2024 Excite Japan Co., LTD. All Rights Reserved.