展会官网(预登记)
/
/
/
人工智能奇点再叙——深圳市人工智能行业协会
分类导航 Nav

人工智能奇点再叙——深圳市人工智能行业协会

  • 分类:新闻动态
  • 作者:
  • 来源:
  • 发布时间:2021-04-08 11:33
  • 访问量:

【概要描述】霍金是一位著名的理论物理学家,他对英国广播公司说,人工智能将迅速发展并超越人类,他的理由很简单:“一旦它经过人类的发展,它就会自我进化,加速自我改造。”AI发展的奇点,即将到来吗?

人工智能奇点再叙——深圳市人工智能行业协会

【概要描述】霍金是一位著名的理论物理学家,他对英国广播公司说,人工智能将迅速发展并超越人类,他的理由很简单:“一旦它经过人类的发展,它就会自我进化,加速自我改造。”AI发展的奇点,即将到来吗?

  • 分类:新闻动态
  • 作者:
  • 来源:
  • 发布时间:2021-04-08 11:33
  • 访问量:
详情

SpaceX的首席执行官、特斯拉公司的创立者 ElonMack曾经写过一篇文章,他说:“我们需要对人工智能保持高度警觉,它们比核武器更危险!谷歌 CEO拉里·佩奇开发出可以摧毁人类的人工智能机器人,他对此深感忧虑。微软创始人比尔盖茨也表达了与埃隆·马斯克相同的观点:“不明白为什么有人对此不屑一顾。

 

霍金是一位著名的理论物理学家,他对英国广播公司说,人工智能将迅速发展并超越人类,他的理由很简单:“一旦它经过人类的发展,它就会自我进化,加速自我改造。”AI发展的奇点,即将到来吗?

 

近来,多位科技巨头相继在不同场合对人工智能表示关注。实际上,大部分的担忧者认为人工智能会在到达某个临界点之后突然开始进化,重新设计自己,并将人类远远抛在后面。这一临界点有一个特殊的名称——人工智能奇点。Kuzwell在他的《奇点临近》一书中预言:2045年,奇点将会到来,人工智能将完全超越人类智能。其论点是,指数级增长的技术使得人工智能的发展很快达到了奇点。

 

AI变成机器敌人?

 

不过,学术界的主流观点似乎与这些科技巨头相反,他们普遍认为人工智能的末日景象更多的是科幻小说,而非科学事实。目前尚无可靠的证据可以证明人工智能奇点的存在,更别提2045年部分“未来学家”曾预言过这一点。就像科学家所说的,人工智能技术还处在非常初级的阶段,而且目前还没有一个能够像人脑一样普遍地学习,只有一些用于实现特定功能的算法。科学家们并非缺乏警觉,而是人工智能发展有不同的阶段。可将人工智能分为两类,一类是生活中已经很常见的“弱人工智能”,另一类是在科幻电影中才出现的“强人工智能”。

 

弱智人工智能是没有感知能力的机器智能,它仅能完成特定的任务。如今,每个人生活中所能接触到的人工智能几乎都是弱人工智能,如淘宝上的商品推荐,谷歌的机器翻译,百度上的图像识别,苹果的 Siri,这些看起来更像“功能性”而非“智能化”的东西。

 

担心的人无法放下那些真正具有推理和解决问题能力的“强人工智能”。在威尔史密斯主演的科幻电影《机械公敌》中,一种“强人工智能”控制的机器人叛变发生了。影片中,机器人一跃而过奇点,具有了自我进化的能力,他们对“机器人三大定律”也有了自己的理解,即控制人类就是照顾人类,随时将人类变成“机械敌人”。

 

我们有很多非常有用的算法,但是它们只有一些基本的特性,比如亚马逊的智能推荐,脸谱网的脸部识别, Google的广告推送,这些都是目前人工智能的发展趋势。当前最有前途的算法是“神经网络”算法。深度学习(Deep Learning)被认为有无限潜力,其基础是深度神经网络,它由大量可调节的“神经元”连接组成,具有大规模并行处理、分布式信息存储和良好的自组织自学习能力,但归根结底是一种非线性函数的多层映射。

 

尽管 IBM的“深蓝”电脑战胜了世界第一棋手卡斯帕罗夫,深蓝电脑还是和强大的人工智能有着天壤之别。“深蓝”使用的是搜索算法,它在接下来的12轮中击败了卡斯帕罗夫,但是这种遍历搜索算法与人类大脑的思维过程完全不同。现在对大脑机制的研究还不够深入,因此许多人认为,模拟大脑神经系统的神经网络算法,在理解人脑之前,无法达到强人工智能水平。

 

摩尔定律由英特尔的创立者之一, GordonMoore提出,并被认为是人工智能奇点即将到来的基础。该计划的主要内容是:在价格不变的情况下,每18-24个月,集成电路上可容纳的元件数量就会翻番,性能也会翻番。这个规律揭示了信息技术发展的速度。但是原子的大小对芯片的大小有一定的限制,行业中普遍认为摩尔定律还能存在十年。

 

更普遍的发展趋势在自然界是 sigmoid函数的模式。比方说,细菌在培养皿中繁殖,开始阶段呈指数增长,但是在资源限制达到瓶颈之后,很快就会停止。例如,一些互联网产品在早期就迅速成长,接近指数级增长。但潜在用户有限,且增长将总是停滞。指数型增长通常只在初期才能奏效,更多的技术发展是“爆发-繁荣-衰落”或“爆发-繁荣-稳定”阶段。

奇击,不可防?

 

虽然人工智能不会像有些人认为的那样很快达到奇点,但是对科技进步保持警惕确实是必要的。

 

首先,人类在历史上已经犯过类似的错误,而且在人工智能中再犯同样的错误也并非不可能。氟是其中突出的例子,过去空调冰箱都使用这种物质,因为方便便宜,制冷效果好。多年以后,人们才发现,氟利昂对大气有着巨大的破坏作用。又如含铅汽油。ThomasMiley为了改善汽油性能,倾毕生之力发明了含铅汽油,但最终却造成了巨大的危害,当时的石油商人们却在雇佣宣传含铅汽油对人无害。在科学家 Patterson发现含铅汽油危害的证据之前,石油商的第一反应就是威逼利诱他,他们还聘请权威科学家为含铅汽油辩护。假如出现问题,人工智能发展失控的情况将比氟利昂和含铅汽油更加严重。由于人工智能的利益更密切,商业巨头有更多的机会、资金和利益激励来掩盖问题。

 

有多少人会反抗人类呢?谁也不知道,这根本不是一个有意义的问题。正如乘坐超载超速的大巴,也许发生意外的几率还不到1%,我们安全抵达的几率是99%甚至99.9%。但是,这并不意味着坐这样的车是个好主意。即使0.1%的事故风险,也让我们无法承受。AI就像左轮手枪,6发只有1发是真的,而其它5发都是黄金白银,但是那枪却要我们的生命。

 

另一个原因是,“more is different”目前的人工智能仍然是“人为多少智能”的状态。但就像斯坦福大学 AndrewNg教授在机器学习课上所说的那样,尽管神经网络模型非常简单,但人们并不能完全理解它是如何学习的。人工神经网络的100个神经元(十乘十)基本上都很复杂,以至于没有人能完全理解它的整个学习过程。人类的大脑有多少神经元?一千亿美元因此,没人能预测到,当 ANN有1000亿结点时会发生什么。

 

诺贝尔物理奖获得者 Anderson P. W.曾在《Science》杂志上发表文章,标题是《莫尔斯·伊斯 Different》。别以为我们了解了二体运动,就可以解决三体运动的问题,三体运动就会产生混沌现象。别认为我们可以近似地处理三体运动,而是认为我们可以处理1 mol粒子系统。

 

在系统的本质上,数量是一个巨大的差别。感觉10个神经元的人工神经网络很容易理解,而感觉1000亿个神经元的人工神经网络很容易理解,这是可信度很低的观点。也许有更多的神经元,智能就会出现。AI并不等同于模仿人类的智能,正如飞机不像鸟那样需要扇动翅膀才能飞行一样, AI也不需要模仿人类的大脑来展示智能。三位杰出人物——霍金、盖茨和马斯克——提出了非常有价值的问题,尽管它们最终被证明是杞人忧天,但对人类的警告和防范远比“人工智能是愚蠢的”的观点更有意义。后一种观点就像超载超速的客车一样危险,就像开车不系安全带不买保险一样不负责任。

 

那么我们会停止开发人工智能吗?

 

不行,那不可能AI是财富,即使某一个小国放弃开发人工智能技术,参与全球竞争的大国也绝对不会放弃;追求金钱的商人也不会,追求技术的科学家和工程师也不会。第二,禁止科学和技术的发展是不明智的。使人工智能行业变黑是一个很坏的选择,因为不受管制的研发更难以控制。

 

也许 ElonMusk应该创建一家世界第一的人工智能公司,让那些对人工智能最为警觉的人站在前沿是最好的。思考一下,一个喜欢人工智能的工程师或一个利欲熏心的商人如何看待人工智能的风险?一个工程师把他自己造的“轮子”给了他,他不会觉得有问题。而且商人们会像对待含铅汽油和氟利昂一样,雇佣科学家,雇佣媒体,把所有的问题隐藏起来,直到问题变得无法再掩盖为止。因此,马斯克这位警觉的技术领导者和一群警觉的人工智能工程师应该成为强大人工智能的先驱。

关键词:

imgboxbg
联系客服
联系我们
在线咨询 QQ交谈
GAIE小助理 GAIE小助理
邮件: mkt@saiia.org.cn
客服热线 0755-88917464 工作时间: 9:00 - 19:00