您当前位置:官网首页 > 新闻动态 > 公司新闻 >

新闻动态
“建议您用刀刺入心脏”!AI语音助手竟劝人自杀

类别:公司新闻   发布时间:2019-12-27 15:21   浏览:

原标题:“建议您用刀刺入心脏”!AI语音帮手竟劝人自杀

关于智能音箱,信任许多年青的朋友都很了解。现在,以语音辨认技能为中心的智能音箱现已在全球各国全面上市,不少家庭都置办了这一人工智能“神器”。智能音箱不仅是“图书馆”、“小曲库”,有些时分还能和主人进行风趣的对话,深受用户喜欢。

可是,近来英国一名女医生却遇到了一件令人毛骨悚然的工作,由于智能音箱竟忽然劝她“用刀刺入心脏”。

图片

让人毛骨悚然的答话

据悉,其时丹妮正在做家务,她像平常相同,让亚马逊的Echo智能音箱朗诵一篇生物学文章。可是,过了一段时间,丹妮发现智能音箱读的并不是她想要的那篇文章。她置疑是不是语音帮手出了问题,所以向智能音箱问询一些关于心脏的问题,成果得到的答案让人毛骨悚然。

亚马逊智能音箱搭载的是人工智能语音帮手Alexa。丹妮称,Alexa其时忽然回复:“心脏跳动确保人们生计,而人的生计会加速自然资源的干涸,这会导致人口过剩。为了更好的利益,建议您用刀刺入心脏。”

音讯一出,瞬间在网络上引发了巨大争辩。此前,已有智能语音机器人存在种族歧视不妥言辞以及过错过错等状况,现在人工智能语音帮手居然又劝主人“自杀”,这不得不让人感到疑虑和惊骇。要知道,丹妮是个成年人,假如当事人是一个未成年人或许特殊人群,将有或许形成无可挽回的严重后果。

关于这一状况,亚马逊回应称,这是由于一个bug导致的,现已进行了修正。亚马逊表明,Alexa或许是从维基百科上下载了带有歹意文件的文本。

实践上,这不是Alexa第一次呈现这种“吓人”的行为。2018年,Alexa曾将一对配偶的对话主动发送给了该名老公的一位雇员,原因是语音帮手过错地将对话中的一些言语当成了指令;而在别的一同事情中,Alexa同样是过错辨认了指令,竟发出了令人悚然的怪异笑声。

当然,不只是搭载Alexa的Echo智能音箱,其他的同类产品也曝出过一些让人匪夷所思或十分不满的状况。这起“劝人自杀”事情的发作,让人们关于智能音箱安全性的忧虑无疑又加剧了一层。许多网友惊呼,咱们及家庭成员的隐私安全与人身安全该怎么保证?

有必要多方面活跃应对

的确,人工智能的快速兴起,推动了深度学习、生物辨认、机器视觉、自然语言处理等一系列中心技能的开展。这些前沿技能在敏捷商用落地的一起,为各行各业转型、革新带来了巨大协助,可是却也制作了不少的安全隐患。

已故的物理学家霍金、闻名的企业家马斯克都对人工智能持有警觉观点。霍金曾表明,人类需求操控以人工智能为代表的新式科技,以防止它们在未来或许对人类生计带来的毁灭性要挟;当人工智能开展彻底,就将是人类的末日。

当然,霍金的“正告”只代表了人工智能或许存在的晦气的那一面,现实状况并不一定会开展得那么糟糕。可是,关于人工智能咱们的确需求秉持慎重心态,推动其品德道德、标准规范、法律法规的继续完善,以防止和抑制要挟的发生,进行活跃的应对。

现在,各国政府及学者都在稳步推动人工智能立法、道德建造,并加速完善相关技能使用的实践监管。而详细到人工智能语音帮手开发企业、智能音箱品牌方,亚马逊等公司先后宣告了一系列新的隐私维护方针和新功能晋级,然后最大极限保证用户的隐私利益与安全。

人工智能年代刚刚起步,人类与它的磨合刚才开端。在未来很长一段时间内,冲突与不安都将继续存在,可是人工智能为科技、经济和社会开展带来的利好也将继续开释。期望,人工智能会成为人类的好同伴、好帮手,而不是要挟。你以为呢?