5G的出现将如何影响联合学习?

智能家居 2020-04-30 10:30173未知admin

随着全世界的开发团队争相开发AI工具,在边缘设备上训练算法变得越来越普遍。联合学习是分布式机器学习的子集,是一种相对较新的方法,它允许企业在不直接访问原始用户数据的情况下改进其AI工具。

联合学习由Google在2017年提出构想,是一种去中心化的学习模型,通过该模型可以在边缘设备上训练算法。关于Google的“设备上机器学习”方法,这家搜索巨头将其预测文本算法推到了Android设备上,汇总了数据,并将新知识的摘要发送回了中央服务器。为了保护用户数据的完整性,此数据是通过同态加密或差分隐私传递的,这是对数据添加噪声以使结果模糊的一种做法。

一般而言,通过联合学习,可以对AI算法进行训练,而无需识别任何单个用户的特定数据。实际上,原始数据永远不会离开设备本身。仅汇总的模型更新会发回。这些模型更新随后在交付到中央服务器后解密。然后,将更新后的模型的测试版本发送回选定的设备,并且在重复此过程数千次之后,显着改善了AI算法,同时又不会危及用户隐私。

预计该技术将在医疗保健领域掀起波澜。例如,医疗初创公司Owkin目前正在探索联合学习。为了利用来自多个医疗机构的患者数据,Owkin使用联合学习来利用来自不同医院的数据来构建AI算法。这可能会产生深远的影响,尤其是医院在保持患者数据的完整性并遵守HIPAA法规的前提下,能够相互共享疾病进展数据非常宝贵。绝非唯一的医疗行业采用这项技术。自动驾驶汽车公司,智慧城市,无人机和金融科技组织将越来越多地使用联合学习。其他一些联合学习型初创公司也正在上市,包括Snips,S20.ai和Xnor.ai,后者最近被Apple收购。

潜在问题

中间人攻击

鉴于这些AI算法值得大量投资,因此预计这些模型将成为黑客的攻击目标。那些邪恶的人将尝试进行中间人攻击。但是,如前所述,通过添加噪声并聚集来自各种设备的数据,然后对该聚集的数据进行加密,企业可能会使黑客感到困难。

模型中毒

可能更令人担忧的是使模型本身中毒的攻击。可以想象,黑客可以通过自己的设备或通过接管网络上其他用户的设备来破坏模型。具有讽刺意味的是,由于联合学习聚合了来自不同设备的数据并将加密的摘要发送回中央服务器,因此通过后门进入的黑客得到了一定程度的掩盖。因此,很难(即使不是不可能)识别异常的位置。

带宽和处理限制

尽管设备上机器学习在不暴露原始用户数据的情况下有效地训练了算法,但它确实需要大量的本地功能和内存。企业试图通过仅在设备空闲、充电或连接到Wi-Fi时在边缘上训练其AI算法来规避这一问题;但是,这是一个永恒的挑战。

眼爆科技 Copyright © 2002-2017 深圳眼爆智能科技有限公司 版权所有 备案号:* 本站资源来自互联网,我们转载的目的是用于学习交流与讨论,如果您认为我们的转载侵犯了您的权益,请与我们联系(Email:gm@ybbtb.com),我们将在3个工作日内删除相关内容。

邮箱地址:gm@ybbtb.com