微软聊天机器人上线一天就被“教坏”了:辱骂用户 发表种族主义评论
据新浪科技报道,由微软开发的一个聊天机器人“tay”已经在twitter网站上变成了“流氓”,它不但辱骂用户,还发表了种族主义评论和煽动性的政治宣言。在微软放出这个机器人的短短24个小时以后,该公司就不得不对其发表的一些煽动性评论进行了编辑处理,并表示该公司正在“进行一些调整”。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
- 标签:
- 编辑:崔雪莉
- 相关文章
TAGS标签更多>>
网站热点更多>>
热网推荐更多>>