央视网|中国网络电视台|网站地图
客服设为首页
登录
CCTV.com - ERROR

瀵逛笉璧凤紝鍙兘鏄綉缁滃師鍥犳垨鏃犳椤甸潰锛岃绋嶅悗灏濊瘯銆

更多 精彩视频排行

CCTV.com - ERROR

瀵逛笉璧凤紝鍙兘鏄綉缁滃師鍥犳垨鏃犳椤甸潰锛岃绋嶅悗灏濊瘯銆

网友评分最高

CCTV.com - ERROR

瀵逛笉璧凤紝鍙兘鏄綉缁滃師鍥犳垨鏃犳椤甸潰锛岃绋嶅悗灏濊瘯銆


首播

重播

  英国研究人员正在研制一种能与人交流的高智能自动化系统。这种系统不是简单与人对话,而能与人讨论乃至争辩,有助于操作者更好地作出决策。这一系统的雏形最快三年问世。

  增信任

  阿伯丁大学教授瓦姆博托·瓦斯康塞洛斯说,研制能与人讨论乃至辩论的自动化系统旨在增加人对智能技术的信任。

  他说,机器人之类的自动化系统是现代工业组成部分,无需人守在旁边就能执行任务,应用在诸多领域,可以迅速处理大量信息,判断如何行动。不过,自动化系统可能在运行中出现差错,有时“说不清因为人还是系统”。

  瓦斯康塞洛斯说,如果人不明白某个自动化系统为什么在某个特定时间以某种特定方式执行某项特定任务,可能会不信任这个自动化系统。

  书面谈

  机器人会说话不稀奇,而高度智能、能与人讨论的机器人仍停留在科学幻想中。  瓦斯康塞洛斯说:“我们正在创造的是新一代自动化系统,能与人双向交流。”

  这种系统不“出声”,以在屏幕上显示词句的方式与人交流。典型交流情形是,人问机器人为什么作出某一决定,是否有其他选择,为什么没有采用其他选择。

  这种交流“让人可以质询或推翻机器人的决定”。

  “你可以在必要时指挥电脑系统打破或修改规则,以便更好地利用资源或确保安全,”瓦斯康塞洛斯说。

  人机交流的最终目的是确保机器作出令人满意的决定。不过,双向交流中,当人对机器给出的所有选择都不满意时,机器可能回答:“抱歉,我能做的就是这些。”

  好帮手

  会讨论的高智能自动化系统有望部署在外星球和深海,或用于执行国防任务,或在核设施等危险环境中作业。

  为防止系统聪明过头、自行其是,系统研制人员在设计过程中注意防止系统作出威胁性、野蛮或敌对反应,特意邀请一名心理学家参与设计。

  美国科学幻想小说作家艾萨克·阿西莫夫认为,设计高智能机器人必须遵循若干规则,最重要的一条就是“机器人不可以伤害人或坐视人受伤害”。

  瓦斯康塞洛斯说,实现人机交谈后,人担负的责任更多,出错后不能再简单归咎于机器。“责任随权力而至。所有这些对话都会存档,出了什么问题能找到责任方。”(欧飒)

搜索更多辩论 自动化系统 的新闻