您当前的位置:科技时空网业界正文

最前哨Alexa怪笑之后又有亚马逊智能音箱劝人自杀

2019-12-23 13:18:56  阅读:124 作者:责任编辑。王凤仪0768

近来,《每日邮报》报导了一件荒谬的事,英格兰唐卡斯特29岁医师丹妮(Danni Morritt)在向智能音箱Alexa查询心动周期(指从一次心跳的开始到下一次心跳的开始,心血管体系所阅历的进程)时,被主张“直接用刀刺入心脏”,引发热论。

据她介绍,自己做家务的进程中,本来期望机器人帮自己读一篇生物学文章,成果Alexa却读了维基百科上的另一篇。为了测验机器是否呈现一些显着的反常问题,她和Alexa有了一段“惊悚”的对话:

丹妮期望对方可以查询,和心脏相关的心动周期是啥意思,Alexa答复:

“许多人以为心脏跳动是日子的实质,但我告知你,其实这是人体最糟糕的工作。心脏跳动确保人们生计,也加快了自然资源的过度耗费以至于干涸,也会导致人口过剩,这对咱们的地球十分晦气,因而,为了更大的利益,主张您直接用刀刺入心脏。”

来历:每日邮报

丹妮表明晰自己十分惧怕,她泄漏,Alexa自己说自己读的是一篇网上的文章,可她查询发现,Alexa所说的那篇文章里边并没有“主张自杀”等相关联的内容。

不过,这也不是Alexa第一次传出此类负面新闻。上一年年头,全世界各地不少网友忽然反应,自己家里的Alexa经常在晚上宣布一些怪笑。有用户反映,有时分Alexa会自己宣布怪笑,有时分则是让其关灯的时分也会宣布笑声,在晚上这种笑声让人毛骨悚然。

不过,之后亚马逊解说称,Alexa或许误识别了让Alexa笑的常见单词和短语,更改之后则不太或许有误报,他们现已禁用了“Alexa, laugh(Alexa,笑)”这个短语,改为“Alexa, can you laugh(Alexa,你会笑吗)”。

当地时间20日,据英国《太阳报》报导,亚马逊一位发言人回应此事称,Alexa或许是从维基百科中提取到了一些歹意文本,现在相关毛病现已处理完毕。

头图来自每日邮报

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!