首页 首页 人工智能 查看内容

霍金公开呼吁人类要关注人工智能的安全问题,人类就业问题!

木马童年 2017-7-15 09:21 65 0

霍金对于人工智能的恐惧也许比黑洞大得多。早在去年12月,这名“渐冻人”英国著名物理学家斯蒂芬就对人工智能的发展前景发出了“悲观”预测,那时候他认为人工智能的高速发展可能最终导致人类“终结”

  霍金对于人工智能的恐惧也许比黑洞大得多。早在去年12月,这名“渐冻人”英国著名物理学家斯蒂芬就对人工智能的发展前景发出了“悲观”预测,那时候他认为人工智能的高速发展可能最终导致人类“终结”。即使在看电影的时候,霍金也不忘呼吁人类要关注人工智能的安全问题。去年5月,在看完约翰德普的影片《超验骇客》,他就在《独立》杂志中撰文表达了这一问题。他担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和Facebook。他说:“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”

e89a8ffb139315ea3c9f06.jpg

如果说之前的担忧还只是预演的话,那这一次,霍金联合企业家对人工智能领域的发出的公开信就等于是正式“警告”。据英国《金融时报》12日报道,近日,包括霍金及企业家埃伦马斯克(Elon Musk)等在内的数位科学家、企业家及与人工智能领域有关的投资者联名发出了一封公开信,警告人们必须更多地注意人工智能(AI)的安全性及其社会效益。 这封发自生命未来研究所(Future of Life Institute,简称FLI)的公开信还附带了一篇论文,其中建议应优先研究“强大而有益”的人工智能。目前,人们日益担心机器的智力和能力可能会超过创造它们的人类,从而影响到人类的就业,甚至影响到人类的长期生存。这封公开信表示:“由于人工智能的巨大潜力,开展如何在规避其潜在陷阱的同时获取其好处的研究十分重要。我们的人工智能系统,必须按照我们的意愿工作。”

其实,霍金本人也是人工智能的获益者。这名“渐冻人”英国著名物理学家多年依靠一套量身定制的电脑软件与他人交流,而这套软件证实一款应用了人工智能技术的“说话工具”。


据悉,FLI于2014年由包括Skype联合创始人让塔林(Jaan Tallinn)在内的志愿者创立。成立该研究所的目的一方面是为了促进对“未来乐观图景”的研究,一方面则是为了“降低人类面临的现存风险”。其中,在开发与人类相当的人工智能技术过程中出现的那些风险,将是该所关注的重点。

SpaceX和特斯拉(Tesla)的共同创始人马斯克、著名演员摩根弗里曼(Morgan Freeman)以及宇宙学家史蒂芬霍金都是FLI科学顾问委员会的委员。马斯克表示,他相信不受控制的人工智能“可能比核武器更危险”。

这封FLI公开信上的其他署名者还包括机器智能研究所(Machine Intelligence Research Institute)的执行主任吕克米尔豪泽(Luke Muehlhauser),麻省理工学院(MIT)物理学教授、诺贝尔奖得主弗兰克维尔切克(Frank Wilczek),人工智能企业DeepMind和Vicarious的幕后主管,以及几名谷歌(Google)、IBM和微软(Microsoft)的员工。

这封信并不以一封兜售恐惧心理为目的。与此相反,它十分谨慎地同时强调了人工智能的积极面和消极面。

信中写道:“如今存在的一个广泛共识是,人工智能研究正在稳步进展之中,它对社会的影响也很可能会逐渐增大。人类文明所能提供的一切都是人类智慧的结晶。这种智慧被人工智能可能提供的工具放大后,我们能做到什么是我们无法想象的,不过那样的话根除疾病和贫困将不再是遥不可及的。从这个意义上说,人工智能有巨大的潜在好处。”


目前,人工智能研究的部分好处已经成为现实,其中包括语音识别和图像识别,以及自动驾驶的汽车。在硅谷,部分人估计如今从事人工智能业务的初创企业超过了150家。

鉴于人工智能正吸引越来越多的投资,许多创业家和谷歌等企业都在盼望着能通过建立会自主思考的电脑,获得巨额回报。对于这种局面,FLI警告说,人们或许应“及时”将更多注意力集中在人工智能的社会后果上,不仅要从计算机科学的角度开展研究,还要从经济、法律及信息安全的角度开展研究。

在不久的将来,多智时代一定会彻底走入我们的生活,有兴趣入行未来前沿产业的朋友,可以收藏多智时代,及时获取人工智能、大数据、云计算和物联网的前沿资讯和基础知识,让我们一起携手,引领人工智能的未来!

人工智能 智能技术 图像识别 语音识别
0

聚焦多智时代,引领智能变革

© 多智时代(www.duozhishidai.com)版权所有 / 工信部备案 豫ICP备15012664号-1