Microsoft、人工知能「Tay」の不適切発言について謝罪
人工知能ボット「Tay」は、マイクロソフトの研究部門とBingのチームが、米国の18歳から24歳の若者を対象に開発しており、会話を重ねることで賢くなるとしている。
Tayは23日にTwitterで公開されたが、意図しない攻撃を受け、不適切な発言をしたとして、公開後24時間で停止された。
Microsoft ResearchバイスプレジデントのPeter Lee氏は、「さまざまな条件下でTayのストレステストを実施したが、脆弱性を悪用して攻撃を受けた。その結果、Tayは不適切な言葉と画像をツイートすることとなった。しかし、今回のことを経験として、Tayが攻撃を受けた脆弱性を解決していく」と述べている。