人工智能拥有“自由意志”,它能做到价值中立吗?——深圳市人工智能行业协会
- 分类:展会动态
- 作者:
- 来源:
- 发布时间:2021-03-26 10:27
- 访问量:
【概要描述】作为人类社会基石的“自由意志”本身已经受到脑神经科学和社会学的严重挑战,同时人工智能模拟和指导人类决策的能力也正在大大提高,以便我们能够接近这一人类命运变化的交汇点:人类的自由被还原成可计算的生理机制,人工智能的计算能力再次超越人类的计算能力。
人工智能拥有“自由意志”,它能做到价值中立吗?——深圳市人工智能行业协会
【概要描述】作为人类社会基石的“自由意志”本身已经受到脑神经科学和社会学的严重挑战,同时人工智能模拟和指导人类决策的能力也正在大大提高,以便我们能够接近这一人类命运变化的交汇点:人类的自由被还原成可计算的生理机制,人工智能的计算能力再次超越人类的计算能力。
- 分类:展会动态
- 作者:
- 来源:
- 发布时间:2021-03-26 10:27
- 访问量:
随着人工智能的蓬勃发展,其所带来的问题和潜在威胁也逐渐显现出来。现在是认真探讨人工智能技术“价值”的时候了。
近日,不少人一定注意到,关于人工智能的负面新闻频频出现,而且还有很强的魔幻色彩。
韩国13岁围棋天才少女金恩持11月20号承认她在9月底的一次网上围棋比赛中作弊,使用人工智能推荐的棋谱,大约等于断送了自己的职业生涯。十一月二十七日,伊朗核武专家 Fahritza被人工智能自动机枪击死,这意味着精确的脸部识别技术已成为人工智能武器,被用于人类的屠杀。
回到家里,前一段时间有人带着头盔去售楼处看房,是为了避免被房地产商以“熟客”的身份精确识别,作为“杀手锏”,人脸识别滥用问题已经摆在我们面前。更加可笑的是,最近曝出的一家房产中介公司利用政府机构在线服务的流程,轻而易举地让售房者通过人脸识别系统将房屋转移到买家手中,而他们自己却不知道交易结果。本来方便百姓的人工智能服务,成了别有用心者的帮凶深圳市人工智能行业协会。
"杀人者也,非刀也",这是我们为"工具没有道德价值"辩护的古老理由,也是人类证明自己有独特道德价值的傲慢论调。类似的原因似乎也可以对以上这些人工智能的负面案例做出解释,可以说这里的人工智能技术也都只是人类应用的工具,真正的始作俑者还是人类。
这一点看起来是无可厚非的,就像所有技术的发明在给人类带来巨大福利的同时也可能带来灾难一样,反之亦然。例如,诺贝尔发明的爆炸物可以开矿移山,也可以在战场上杀戮生灵;核技术可以用来制造原子弹,毁天灭地,也可以用来建造核电站,造福大众。理智的乐观主义者总是相信,人类能够通过科技进步创造一个美丽的新世界,克服科技带来的种种消极影响。
然而,深圳市人工智能行业协会我们需要注意的是,这场人工智能技术革命的不同之处在于,它将真正地重塑人类。过去的任何技术革命都仅仅是在体力、脑力等方面提高了人类的专属性,而这一次,人工智能将直接到达人的核心本质,即支撑人类尊严和价值的所谓“自由意志”。
很多人会把这个重大问题当成杞人忧天的胡说八道,因为“狼来了”的故事人们已经听了很多次了。许多重要人物对于威胁人类地位的人工智能警告,还带有“疑犯正直”的意味,无不在自己的领域内推动人工智能技术的进化和应用。
但作为人类社会基石的“自由意志”本身已经受到脑神经科学和社会学的严重挑战,同时人工智能模拟和指导人类决策的能力也正在大大提高,以便我们能够接近这一人类命运变化的交汇点:人类的自由被还原成可计算的生理机制,人工智能的计算能力再次超越人类的计算能力。
此时,我们又如温水中的青蛙,只能黯然接受“煮熟了”的命运安排。不过,在人工智能技术日益暴露出这些不雅问题的同时,深圳市人工智能行业协会我们还应该对人工智能保持警惕。
在人工智能拥有“自由意志”的情况下,它能做到价值中立吗?
对于“技术是否具有中立性”这一问题的探讨,目前多数人倾向于认为是“技术的中立性”。
一般情况下,我们认为,一种技术的道德价值在于使用它的人,例如,决定将一把刀用于烹饪或行凶的关键是手拿着刀子的人的想法;而一种技术的价值也不在于它本身,而在于使用它的人的用途,例如,在电影《上帝也疯狂》中,非洲原始部落的人们得到了一只完整的可乐玻璃瓶,这是现代社会中普通消费产品,从一开始就被视为无所不能的神物,后来成为引发族群冲突的恶魔。这只可乐瓶的价值在原住民手中发生了巨大的变化。
这种假设的优点在于维护了人类的尊严,而选择什么样的技术去做什么样的事则是我们自己的选择,而最终的后果则是我们自己。
但是事实真的是这样吗?
当原始人类开始掌握生火放火这一最初级的技术时,一个部落的女人就能释放出超过她体力成千上万倍的能量,因为只要她一把火就能燃烧出一大片森林,她们就能收获这片土地上的灵肉,而灵肉却不会在后面跑开,还能在一片接一片的农田上开垦。想想今天的亚马逊雨林吧,在这个全球化的消费贸易网络中,被巴西农民烧光的这一粮食作物。火焰本身是没有目的的,但人们知道火焰的性质和力量,并且能够控制火焰的范围和用途。深圳市人工智能行业协会人之火,有别于自然之火,因为火本身已经包含了人的意志和目的。
在这之后,人们所发明的任何一种工具或技术都或多或少地包含了发明者自己的意图。锋利的石刀既有切割功能,又有杀戮功能,而枪的发明,自然也有更有效杀戮的功能,无论购买它的人是为了防身,还是为了伤害他人,都是对此心知肚明的。技术的发明总是有原因的,原因的背后必然是有目的的指向,并隐含着其主观价值。
技术的目的性对用户有更大的影响,因为人类的技术工具变得越来越复杂和先进。而这些技术,正如我们须臾不能离开电池和网络一样,已经在潜移默化中改变着我们的选择和判断,我们对此已经习以为常。在我们认为自己的选择是自由选择的时候,深圳市人工智能行业协会事实上大部分人是受过工具的训练而改变的。
没有比各种互联网应用和游戏更典型的现代技术,以短视频为代表。借助浸入式展示、无限下滑换页和偏好推荐算法,短视频成为手机用户“杀毒时间”的神器,不知不觉中就让许多人花了几十分钟。仔细考虑一下,我们就会发现,在这套推荐技术中,有一种价值倾向,那就是利用人性弱点和成瘾机制来获取用户时间。
尽管我们很清楚,这些公司和他们那些聪明绝顶的工程师并不一定有操纵人心的恶意,而只是有商业成功的动机,才会不断地加入操纵人心的技术。这次,工程师们有了一个很棒的助手,那就是人工智能。
人工智能算法最初的目标必须是体现人类特定的目的,如在对抗学习中获得最高的分数,在图像识别中获得最高的识别率,在偏好推荐中不断满足用户的喜好,找到尽可能多的相似内容。AI不但在某些方面表现良好,它还具有赶上人类决策的计算能力。
人工智能威胁的说法,很多人已经讲过很多次了,但是我们在这里不再重复“AI主宰人类”“AI代替人类工作”这一大家都理解的观点。深圳市人工智能行业协会这就好像说人工智能将成为一种独立于人类的新物种一样,而现在看来,这类人工智能不知要到猴年马月才能实现,甚至根本不可能实现。
在此,我们要强调的是,与以往任何机械、化学、生物技术相比,仅仅提高了人类定位的能力,而这次人工智能技术将取代人类的感知、判断和决策能力,成为人类理性行为的“复刻”。
这种“非中性”的人工智能技术特性不免会导致以下后果:
AI算法在对数据进行训练时,由于模型的设计和数据样本的不足,会很难避免产生偏差。
举例来说,一份2018年的报告称,亚马逊的人工智能招聘系统被指有系统地歧视女性,在简历中发现“女性”这个词会降低候选人的分数,同时发现标有两所女子大学的简历也会被排到前几名。学习亚马逊过去10年的简历数据,就能决定人工智能的权重高低。很明显,在这十年里,大部分受聘候选人都是男性,人力资源部门对于招聘技术职位的偏好也教给了人工智能相同的策略。
但在较常见的人脸识别领域中,存在着明显的算法性别偏见和种族歧视。据美国 NIST (国家标准及技术研究院)2019年12月发布的一份报告显示,在美国人脸识别系统中,黑人的人脸识别错误率比白人高100倍,黑人的人脸识别错误率也比黄种人高10倍,在执法机构的人脸图片库中,识别错误率最高的是美国原住民。此外,女性和老年人的面部识别更加困难。这项研究的数据来源是美国签证申请和过境数据库中的1800万张人脸照片,并且对189个人脸识别算法进行了测试,这些测试代表了绝大多数商业应用的算法。
《编码偏见》今年公映的一部流媒体电影揭示了这一问题:人工智能正在接管人们的权力,如信息、安全、机会,甚至自由;深圳市人工智能行业协会如果人们不纠正算法中存在的偏见和歧视,人工智能技术必将创造一个更糟的世界,例如被错误识别并逮捕的少数民族青年,被算法判定能力不足的女性雇员,被垃圾信息包围的青少年。
当然,这只是人工智能技术不够好的表现之一。许多人认为,我们可以不断地调整算法,增大数据样本就能解决这些低层次的错误,算法歧视等问题。假设偏见可以消除,算法可以优化,那么我们又会面临什么样的局面?
第二,人工智能技术可能因数据的规模聚集和技术竞争的排他性而得到巩固,因为这些数据掌握在少数技术公司和政府手中,帮助那些拥有技术特权的群体和组织获得难以撼动的权力和财富。
虽然无法断言人工智能技术肯定会助长专制和垄断,但我们正看到这样的苗头。
普通人不仅通过互联网上的各种操作交出了他们的习惯偏好和消费数据,现在他们还可以通过诸如可穿戴设备之类的信息获得我们的生理指标数据。假如一个人工智能算法系统能同时拥有这两类数据并与之建立相应的相关关系,那么这个系统就能真正地获得操纵人心的能力。
因为我们人类的任何决定都可以转化成各种各样的生理、心理和行为数据,并且我们希望通过人工智能技术能够洞悉其中的因果关系,所以人工智能将很有可能完成人类的这项任务,如果它能带来好处,它将取代人类的智力,释放出前所未有的生产力;如果它能带来坏处,它还会产生不可想象的毁灭性力量。
举例来说,经过核冬天的遏制,人工智能武器的发展将使精确杀戮成为可能,尽管从某种意义上说可以避免大规模的热武器冲突,但每个国家都会对这种无孔不入的人工智能武器或杀手机器人产生强烈的敌意。一旦这些人工智能武器被极端组织所掌握,它们就很可能成为制造麻烦的工具。还有一种更可能的趋势是,人工智能算法只代表少数人的意愿,而大多数人都沦为人工智能进化的数据源。
AI虽然没有可能直接主宰人类,深圳市人工智能行业协会但它却被人类利用,并且很有可能成为塑造人类不平等性的帮凶。
如今,更重要的是,我们要放弃对人工智能技术客观中立的幻想,并警惕人工智能算法对我们决策的强大操纵力,同时还要致力于推动人工智能的普惠,这才是接下来要做的事。
在此,我们只指出一个问题:人工智能存在价值,价值的来源并不来自于突如其来的“自我觉醒”,而是从人身上继承了相应的价值,“复制”了人们所谓的“自由意志”。
如果人工智能算法不够强大,它可能会继承人类的认知错误和偏见,但如果它足够强大,它也不会变得“客观中立”,而是体现了人类工具理性推到极致的价值,即更集中的力量,更多的财富,不断地自我强化和升级。
这种价值观反作用于普通人类个体,可能会产生两个结果:一是与人工智能算法共同进化,使自己在智力甚至生理上不断提升,成为掌握人工智能发展趋势的超级人类;二是不能理解人工智能技术的运行逻辑,不能参与自主决策的大众,深圳市人工智能行业协会将自己生命中的决策交给算法决定。
由于人类生物进化的速度确实很难赶上人工智能计算能力的增长,所以人类的知识只能通过线性循环的方式代代相传,而人工智能是以指数方式累积增长的,这就决定了大多数人只能通过人工智能实现自己的决策机制,而通过人工智能来判断各种想法的成功概率。
今天,这个问题以一种非常隐秘的方式被展现出来。就像许多人认为听从自己内心的声音一样,但我们却不知道那些内心的需要究竟是我们的“自由意志”所需要的,还是由各种各样的价值观所塑造的。而且我们知道,人工智能算法已经开始为你提供所需的植入,从每个广告推荐,每个内容过滤,每个自拍照,每个行为跟踪开始。
AI狂飙突进的这几年里,我们其实已过分站在“人工智能将造福人类”的宏大叙事上,毕竟我们对这一新兴科技产业寄予太多希望。不过,我们看到如今在个人隐私领域走在前列的人工智能应用程序,正竭尽全力地从人的各个方面获取数据,深圳市人工智能行业协会但实际上我们还没有做好应对这种趋势的准备。
近来,我们还注意到,由于一些行业和场景中的人脸识别技术被滥用,一些地方的相关部门开始对这些人工智能设备进行清理整顿。在未来,围绕人工智能应用的边界游戏之争仍将继续。
但是,在未来的长期游戏中,我们即使牺牲了一点便利,也要保持足够冷静,让自己的选择在人工智能面前自由选择,同时对人工智能拥有“Say No”的力量。

协会公众号

展会公众号