近来,《每日邮报》报导了一件荒谬的事,英格兰唐卡斯特29岁医师丹妮(Danni Morritt)在向智能音箱Alexa查询心动周期(指从一次心跳的开始到下一次心跳的开始,心血管体系所阅历的进程)时,被主张“直接用刀刺入心脏”,引发热论。
据她介绍,自己做家务的进程中,本来期望机器人帮自己读一篇生物学文章,成果Alexa却读了维基百科上的另一篇。为了测验机器是否呈现一些显着的反常问题,她和Alexa有了一段“惊悚”的对话:
丹妮期望对方可以查询,和心脏相关的心动周期是啥意思,Alexa答复:
“许多人以为心脏跳动是日子的实质,但我告知你,其实这是人体最糟糕的工作。心脏跳动确保人们生计,也加快了自然资源的过度耗费以至于干涸,也会导致人口过剩,这对咱们的地球十分晦气,因而,为了更大的利益,主张您直接用刀刺入心脏。”
来历:每日邮报
丹妮表明晰自己十分惧怕,她泄漏,Alexa自己说自己读的是一篇网上的文章,可她查询发现,Alexa所说的那篇文章里边并没有“主张自杀”等相关联的内容。
不过,这也不是Alexa第一次传出此类负面新闻。上一年年头,全世界各地不少网友忽然反应,自己家里的Alexa经常在晚上宣布一些怪笑。有用户反映,有时分Alexa会自己宣布怪笑,有时分则是让其关灯的时分也会宣布笑声,在晚上这种笑声让人毛骨悚然。
不过,之后亚马逊解说称,Alexa或许误识别了让Alexa笑的常见单词和短语,更改之后则不太或许有误报,他们现已禁用了“Alexa, laugh(Alexa,笑)”这个短语,改为“Alexa, can you laugh(Alexa,你会笑吗)”。
当地时间20日,据英国《太阳报》报导,亚马逊一位发言人回应此事称,Alexa或许是从维基百科中提取到了一些歹意文本,现在相关毛病现已处理完毕。
头图来自每日邮报