人工智能技术正给各行各业“赋能”——深圳市人工智能行业协会
- 分类:展会动态
- 作者:
- 来源:
- 发布时间:2021-03-31 11:42
- 访问量:
【概要描述】在这个智能变革的时代,人工智能技术正给各行各业“赋能”。大数据就像是新能源, 人工智能算法就像发动机,而拥有大数据和人工智能技术的企业,就像是搭上了一列通向未来的快车,远远落后于竞争对手。
人工智能技术正给各行各业“赋能”——深圳市人工智能行业协会
【概要描述】在这个智能变革的时代,人工智能技术正给各行各业“赋能”。大数据就像是新能源, 人工智能算法就像发动机,而拥有大数据和人工智能技术的企业,就像是搭上了一列通向未来的快车,远远落后于竞争对手。
- 分类:展会动态
- 作者:
- 来源:
- 发布时间:2021-03-31 11:42
- 访问量:
在这个智能变革的时代,人工智能技术正给各行各业“赋能”。大数据就像是新能源, 人工智能算法就像发动机,而拥有大数据和人工智能技术的企业,就像是搭上了一列通向未来的快车,远远落后于竞争对手。
隐私
但是,这种快速发展并非没有代价。手机号码,电子邮箱,家庭地址,公司地址,经纬坐标,移动电话号码,消费记录, APP使用记录,网上浏览记录,搜索引擎搜索结果中的点击习惯,刷脸记录,指纹,心跳,等等这些都是隐私数据,我们不愿轻易提供,但是在 人工智能时代,它很可能已经成为某公司用于培训 人工智能算法的数据集深圳市人工智能行业协会。
就是这么多不起眼的个人隐私数据,组成了足够多的培训集,让 人工智能从中学习认知能力,让那些从来没见过面的 人工智能算法认识、了解我们,了解我们的偏好和动机,甚至认识我们的家人、朋友。实现这些智能就是我们的隐私“代价”。
这一代价当然不一定是你要把它付之东流。
那么怎样保护隐私?没必要吧?
您认为关掉手机 GPS就不能找到您的位置?手机上还有陀螺仪,内置罗盘,气压计等设备,仍然可以用来定位。只用手机,绝对不会有隐私保护深圳市人工智能行业协会。
对许多手机应用程序而言,要么不用,要么使用时很难避免泄露隐私,如许多 APP必须用手机号注册,或需要手机验证才能继续使用,以及需要刷脸验证等。所以个人要保护隐私该怎么办?无事可做,加上 人工智能算法的黑箱本质,我们甚至不知道 人工智能背后的逻辑和动机。
管理
隐私权保护依靠个人保护确实难以实现,需要强有力的法律和法规加以限制。
欧盟《通用数据保护条例》(GDPR)于2018年5月25日正式生效,该条例是欧盟范围内的数据保护法规框架,是目前最完善和严格的隐私保护法规。据 DLAPiper公司发布的数据, GDPR在不到两年的时间里已经造成了1.14亿欧元的罚款,其中最大的一笔罚款是法国根据 GDPR公司对谷歌公司的5千万欧元罚款,理由是谷歌公司向用户发送广告时缺乏透明度,信息不足,并且没有得到用户的有效许可。下面的图表是自 GDPR生效至2020年1月欧盟各国罚款金额的分布图。
对企业来说, GDPR要求在收集用户的个人信息之前,必须以“简明、透明、易于理解的形式,清楚、平白的语言”向用户说明要收集用户的哪些信息,以及如何存储这些信息,以及如何使用这些信息以及企业的联系方式。
就个体而言, GDPR赋予数据主体七项数据权利:知情权、存取权、修正权、删除权(遗忘权)、限制处理权(反对权)、可移动权、拒绝权。当前, GDPR对我们每个人的生活都产生了实实在在的影响,最直观的影响是当你浏览网页时,你会发现经常有网站弹出一个与下图相似的小提示,这是一个基于信息透明性原则的网站,它允许你进行信息收集。
欧盟的 GDPR具有全球性的影响,它让用户可以完全控制自己的个人数据,让全球在开发新技术时必须开始关注隐私问题,世界各国都在制定自己的数据保护条例深圳市人工智能行业协会。
有关隐私权的保护,一切才刚刚开始。
上个月,欧盟正式推出了名为“创造欧洲数字未来”的新战略,旨在通过制定一系列针对 人工智能、隐私和安全的法规,成为全球 人工智能发展的领跑者。这一策略的推出也被视为是为了应对美国和中国的 人工智能崛起。
不出所料, 人工智能的隐私安全和监管将逐渐成为关注的焦点,事实上,正如欧盟委员会副主席马格雷斯·维斯特格所说:“人工智能本身不是好或坏的,而是完全取决于人们为什么和如何使用它。只要有可能,我们就尽量控制人工智能可能对我们的价值造成的风险——不伤害,不歧视。
隐私权问题已成为 人工智能发展不能回避的“门槛”,是 人工智能技术面临的难题,也是 人工智能良性发展的契机。
趋势
可以说,各种保护隐私的法规的出台必然是未来一种必然趋势,这必然会使企业数据收集、使用和流通的合规成本大大增加,也容易使企业内部或企业之间出现数据孤岛问题,限制企业获取数据的价值。所以,利用 人工智能技术来保护隐私已成为 人工智能领域最迫切需要实现的目标。
人工智能主要通过结合多种技术来保护数据隐私,如数据加密、分布式计算、边缘计算和机器学习,最近比较热门的是 Differential Privacy (差隐私)、 FederatedLearning (联邦学习,又称为联盟学习、联合学习、共享学习)。
隐私权的保护并不意味着完全不收集数据,而是通过技术手段防止个人隐私数据的泄露。差隐私权是一种数学技巧,例如,假设要分析数据集并计算其统计数据(如数据的均值、方差、中值、众数等等),而如果不能确定原始数据集中是否有任何个体的数据,则称这种算法为差隐私权。
举例来说,假设你的工作部门每月都会用一张表格来统计每个部门员工的工资总额,除了表格制表人之外,其他人看不见这张表格,只能通过查询函数 S来了解这张表格的总数,某个月你调去了其他部门,那么其他人就可以通过表格 A、本月表格 B来了解你的工资情况,道理很简单,只要用 S (A)减去 S (B)即可。表 B被称为表 A的邻接数据集,它两个之间只有一个差异,而差分隐私技术是使邻接数据集的查询结果接近,因此不能提供个人信息,这一差别可被视为隐私保护的强度。Apple和 Facebook已经用这种方法在不确定特定用户的情况下收集聚合数据。《科技评论》将差分隐私技术列为2020全球十大突破技术之一。
该技术使用分布式机器学习方法,并在最近几年变得越来越流行,该技术假设用户数据不会被储存在中央服务器,而是私密和保密的,只储存在像手机这样的个人边缘设备上,因此,相对于传统的机器学习方法,该技术大大加强了用户隐私。与依靠从用户终端收集的数据进行训练不同,联邦学习在用户移动终端上对 人工智能模型进行训练,然后将训练后的参数信息传送回全局模型,而无需用户数据离开个人设备深圳市人工智能行业协会。
最近两年来,通过 arXiv平台提交论文的数量迅速增加,这一点可以看出:这项技术正在迅速发展:
巨人科技布局
TensorFlow和 PyTorch是去年以来世界上最流行的两种机器学习框架,它们都加入了联邦学习等保护隐私的解决方案。
(1)Google
Google于2017年首次引入联邦学习的概念,并于去年发布了 TFF联邦学习框架,该框架利用了 Tensorflow的机器学习框架来简化联邦学习。
下面的图表显示了在 TFF框架下建立的学习模型在多个移动电话(如移动电话 A)上进行本地化模型训练,更新权值和聚合(步骤 B),然后更新提升的全局模型(模型 C),再将全局模型应用于各个移动电话终端,从而提高算法应用效果。
(2)Faceboo
去年, Facebook拥有的 PyTorch框架和 OpenMined宣布将开发一种联合平台,以加快隐私保护技术的研究,从而在隐私保护领域取得进步。
OpenMined是一个开放源码社区,主要研究、开发和升级 人工智能工具以实现安全和保护隐私。OpenMined发布了 PySyft,它是第一个开放源码联邦学习框架,用于构建安全性和隐私保护。
在 Github上, PySyft非常流行,已经有5.2 k的规模,并且目前支持在主要的深度学习框架(PyTorch, Tensorflow)中使用联邦学习、差分隐私和加密计算(如多方计算,同态加密)来分离隐私数据和模型培训深圳市人工智能行业协会。
本国的发展状况
本土 人工智能巨头也早已开启了保护隐私的技术布局,尤其在金融领域,由于监管严格,对数据隐私的要求极为苛刻,金融机构一方面面临着保护隐私数据的技术难题,另一方面又因金融数据的孤立性,“数据孤岛”问题使得金融机构无法发挥数据的真正价值。
几家国内金融机构以及金融科技公司已经开始尝试在客户、信贷、风险控制等领域,通过使用联邦技术来解决数据隐私合规和数据共享孤岛问题,以最大限度地实现金融数据价值。
当前我国对隐私保护的监管还不够成熟,个人和企业对隐私保护的意识也不强。在全球环境下,随着保护隐私的 人工智能技术的不断发展,以及保护隐私方面的进步,我相信 人工智能最终会走向更好的方向,希望通过科学家的努力, 人工智能的黑盒子不会成为潘多拉之盒。

协会公众号

展会公众号