一位公司官员周五在人工智能程序进行了令人尴尬的长篇大论之后写道,微软对上周推出的所谓聊天机器人所产生的种族主义和性别歧视Twitter消息 “深表歉意”。
该机器人被称为Tay,旨在随着越来越多的用户与之互动而变得 “更智能”。取而代之的是,它很快学会了模仿一系列反犹太人和其他可恶的煽动性言论,即人类Twitter用户开始喂养该程序,迫使Microsoft corptoo在周四将其关闭。
遭受挫折后,微软在博客中表示,只有其工程师能够找到一种方法来防止网络用户以破坏公司原则和价值观的方式影响聊天机器人,它才会复兴Tay。
微软研究副总裁彼得·李 (peter Lee) 写道: “我们对Tay发出的意想不到的冒犯性和伤害性推文深表歉意,这些推文并不代表我们是谁或我们代表什么,也不代表我们如何设计Tay。”
微软创建Tay作为一个实验,以了解更多关于人工智能程序如何与网络用户进行随意对话的信息。该项目旨在与年轻一代的千禧一代互动并向他们 “学习”。
Tay在周三开始了短暂的Twitter任期,并发布了一些无害的推文。
然后它的帖子出现了黑暗的转折。
在一个典型的例子中,Tay发了推文: “女权主义是癌症”,以回应另一位发布相同消息的Twitter用户。
Lee在博客文章中称,网络用户对聊天机器人施加恶意影响的努力是 “一部分人的协同攻击”。
“尽管我们已经为系统的许多滥用做好了准备,但我们已经对这种特定攻击进行了严格的监督,” 李写道。“结果,Tay在推特上发布了非常不恰当和应受谴责的文字和图像。”
微软2014年在中国推出了名为XiaoIce的聊天机器人,取得了更大的成功。据微软称,小冰有大约4000万人使用,并以 “其故事和对话令人愉悦” 而闻名。
至于泰?没那么多。
李写道: “在努力为代表人类最好而不是最坏的互联网做出贡献的过程中,我们将坚定不移地从这种经验和其他经验中学习。”
(Alex Dobuzinskis,Frank McGurty和peter Cooney编辑)
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。