作者:泉琳 来源: 发布时间:2019-3-5 21:13:22
未雨绸缪 打造安全高效的AGI系统

 
毋庸置疑,人工智能已成为当下全球的关键词之一,言必谈人工智能甚至变成一些行业领域的时髦之举。
 
人工智能可以下棋、开车和诊断医疗问题。例如,谷歌DeepMind团队的AlphaGo、特斯拉的自动驾驶汽车以及IBM的沃森等。
 
这种类型的人工智能被称为窄域人工智能(ANI),即能够执行某种特定任务的非人工系统。我们每天都能遇到这种类型的应用,并且它的使用正在迅速增长。
 
尽管窄域人工智能已经展示了许多令人印象深刻的能力,但是随之而来的问题也日益浮出水面。去年7月,IBM的沃森为癌症患者提供了不安全的治疗建议遭到曝光,惹来一众批评与质疑,曾经是公众心目中“人工智能”代名词的沃森甚至被美国媒体称为“一无是处”。
 
最糟糕的案例发生在2018年3月18日,一辆正在进行自动驾驶测试的沃尔沃XC90与一名行人相撞,行人送往医院抢救无效死亡。这项测试是由Uber组织,车辆也由其进行了专门的改装,事故发生时,车辆正处于自动驾驶模式开启状态。事故发生后,Uber负责人宣布将暂停在旧金山、多伦多等多地的自动驾驶测试项目,而事故仍在调查中。
 
下一代人工智能
 
基于当前人工智能引发的众多问题与质疑,人们对下一代人工智能寄予了极高的期待。
 
通用人工智能(AGI)将拥有先进的计算能力和人类智能。AGI系统将能够学习、解决问题、适应和自我改进,它们甚至会做超出自身设计范围的任务。
 
重要的是,它们的进步速度可能是指数级的,因为它们比人类创造者先进得多。而且,AGI的引入可以迅速带来超级人工智能(ASI)。
 
虽然功能完备的AGI系统尚未建立,但几乎可以肯定的是,它们最终会实现。到那时,我们会不可避免地心生担忧,担心自己无法控制它们。
 
毫无疑问,能够完成各种任务的AGI系统可以为世界带来翻天覆地的变化。其中也包括了一些更强大的应用,比如治疗疾病,解决诸如气候变化和粮食安全等复杂的全球挑战,以及在全球范围内掀起一场技术热潮。
 
这样的前景无不让人向往。但如果不能实施适当的控制,可能会导致灾难性的后果,类似的场景早已在好莱坞科幻电影里预先演绎。
 
事实上,“我们真正应该担心的不是人工智能的恶意,而是它的能力。”麻省理工学院教授Max Tegmark曾在2017年出版的《生活3.0:人工智能时代的人类》一书中如是指出。
 
基于此,以人类因素和人体工程学著称的人机系统的科学将脱颖而出。不过,我们不能忽视这样的风险,即超级智能系统将识别出更有效的做事方式,为实现目标制定自己的策略,甚至制定自己的目标。
 
想象一下这些情况一旦发生,将会带来怎样的可怕后果。
 
情况一:一个AGI系统的任务是预防艾滋病病毒,它决定通过杀死所有携带这种病毒的人来根除这个问题,或者一个AGI系统的任务是治愈癌症,它决定杀死所有具有这种疾病遗传易感性的人。
 
情况二:一架自主的AGI军用无人机决定,确保敌人目标被摧毁的唯一方法是消灭整个地区。
 
情况三:致力于环境保护的AGI决定减缓或逆转气候变化的唯一方法是消除导致气候变化的技术和人类。
 
这些假想中的场景无疑让我们倒吸一口冷气,其中的这些人工智能系统都没有将人类的关注作为它们的核心任务。
 
值得注意的是,一些不那么极端但仍具有重大影响的干扰,比如恶意使用AGI进行恐怖主义和网络攻击、大规模监控等同样令人担忧。
 
因此,有必要采用以人为本的方式,对设计和管理AGI的最安全方式进行调查,以最大限度地降低风险,并将效益最大化。
 
控制AGI
 
控制AGI并不像应用同样的控制方法来控制人类那样简单。
 
对人类行为的许多控制依赖于我们的意识、情感和道德价值的应用。而AGI系统则不需要这些。不过,目前控制AGI的形式显然是不够的。
 
科研人员指出,目前有三组控件需要立即进行开发和测试:一是确保AGI系统的设计人员和开发人员创建安全AGI系统所需的控件;二是需要构建到AGI系统自身中的控件,如“常识”、道德、操作流程、决策规则等等;三是需要添加到AGI将运行的更广泛的系统中的控件,如法规、操作规范、标准操作程序、监控系统和基础设施。
 
在AGI系统出现之前,人类因素和人体工程学提供了可以用来识别、设计和测试这些控件的方法。例如,可以对特定系统中存在的控件进行建模,对该控制结构中AGI系统的可能行为进行建模,并识别安全风险。这将让我们得以识别哪些地方需要新的控制,设计它们,然后重新建模,以查看是否因此消除了风险。
 
此外,我们的认知和决策模型可以用来确保AGI系统行为表现得当,并具有人文价值。
 
实际上,这类研究正在进行中,但还远远不够,涉及的学科也不够。
 
就连备受瞩目的科技企业家Elon Musk也对人类面临着来自高级人工智能的“生存危机”发出了警告,并表示有必要在一切还来得及之前对人工智能进行监管。
 
眼下,球在人类这边,但并不会持续太久。对人工智能而言,未来十年左右将是一个关键期。人类有机会创建安全高效的AGI系统,为社会和人类带来深远的利益。■
 
《科学新闻》 (科学新闻2019年2月刊 AI)
发E-mail给:      
| 打印 | 评论 |