接入消息量:55万亿
实时计算:65万亿
分析任务:1500万
……
可以想象吗?这些万亿级的数字,竟是一家企业每天都要处理的数据量。
没错,这就是腾讯大数据。
但更让人意想不到的是,它现在打算让如此海量的数据分析、处理工作,进入“无人驾驶”状态。
数据量之大暂且不提,单就安全这一块,不得拿捏到位吗?
天工,腾讯的第四代大数据平台
原来,腾讯大数据的底气,来源于其最新发布的计算平台:
名曰腾讯大数据-天工,是腾讯自研的第四代数智融合计算平台。
而纵观对整个平台的介绍,可以说“打通”一词贯穿了所有。
具体而言,腾讯大数据要打通的是数据,是技术。
理想虽美好,但现实很残酷。
细思便知,数据结构等不一致带来的“孤岛”情况、数据安全等存在的隐患,以及不同技术融合背后的难度……
困难的程度,就不言而喻了。
那么此局又该如何激活成功教程?
一言蔽之,三步走:
一个“安全”,一个“统一”,最后一个“智能”。
先来谈谈安全。
目前“数据孤岛”的情况较为普遍,一来从逻辑角度来看,因不同部门、组织对数据的定义、理解的差别而形成;二来从物理角度,因各种数据的独立存储、独立维护而产生。
但欲消除“数据孤岛”,一个大前提就是要保障数据安全,而且是重中之重的那种。
自研的隐私计算技术,就是腾讯大数据解决这一难点的“锦囊”。特点如下:
- 全方位保护:从机器学习到大数据分析,全场景提供保护
- 去中心化架构:没有“中间商”,避免隐私泄露风险
- 软硬件加密双保险:高强度数据加密+TEE硬件
或许这样的描述,在感官上并不够直接,那么接下来的一个数据便可体现隐私计算对安全要求的高度。
例如RSA密钥长度在安全性极高的金融领域,尚且是2048bit;而腾讯大数据隐私计算所采用的长度,则达到了3072bit!
除此之外,这项技术也早已有了“实践性的检验”。
在iDash 2020世界隐私计算大赛中,腾讯便凭借此技术夺得冠军,这也是中国企业在此项比赛中的第一次夺冠。
再来谈谈统一。
除了数据之外,腾讯大数据要在技术层面也要做到打通,具体而言,就是将人工智能(A)和大数据 (B)融为一体。
这也是反映出了目前业界存在的一个现状,也就是“A”和“B”的框架技术没有得到很好的复用。
虽然二者看似是“貌合神离”的样子,但其实它们的本质技术是类似的,例如:
- 均可抽象为DAG(有向无环图)
- 要素相同:数据、算子、数据流
- 均可算子合并、及时编译、执行优化
因此,通过将人工智能和大数据技术的打通,便可以更好地适配CPU、GPU、NPU、FPGA等硬件。
最后,是智能。
腾讯大数据在这一步的目标较为清晰:
万亿级数据分析将实现“自动驾驶”。
这也是为了解决目前“大数据平台依赖人工”的问题。
为此,腾讯正在构建平台大脑,推动万亿级大数据分析逐步实现“自动化运营”。
究其本质,这也是一个从“被动”到“主动”的转变过程,即从“快速发现大数据运行问题”到“主动发现问题”,再到“主动解决问题”。
据介绍,腾讯的平台大脑预计可让数据中心研发效率提升60%,运营效率提升50%,平台服务质量提升80%。
……
但总归“第四代数智融合计算平台”是一个较大的概念,是否有更为具体的产品?
有的,Angel PowerFL,腾讯借此之际,还正式推出了这款安全联合计算平台。
据了解,Angel PowerFL拥有全栈的联邦学习和深度学习功能:
支持多方联邦逻辑回归、XGBoost、PCA、用户自定义神经网络模型,支持多方联邦模型在线serving和模型管理,支持联合数据分析。
在隐私保护方面,Angel PowerFL提供了多种机制的选择,包括同态加密、秘密分享、差分隐私、可信执行环境(如SGX)等。
在不同场景下,可以有针对性地选择不同的安全保护级别。
在迭代和部署方面,Angel PowerFL采用的是“计算层和服务层分离”的方式。
这样做的目的也为了更好地支持多种方式部署、灵活资源扩缩容。
而且所有的服务组件都是部署在K8S集群上,这样一来,就可以方便对接TensorFlow和PyTorch等常用深度学习框架,也利于进行分布式深度学习模型训练和推理。
最后,腾讯大数据联合腾讯研究院还推出了《腾讯隐私计算白皮书》,从多个方面,包括发展背景、技术体系、重点应用行业和场景、数据安全合规、未来发展前景等,对隐私计算做了深入的解读和研究。
12年更新四代,每一步都做了什么?
正如刚才提到的,腾讯大数据的计算平台已经衍变到了“第四代”。
而纵观发展历程,此次的迭代并非是一蹴而就,而是step by step。
早在2009年,腾讯大数据便推出了第一代计算平台,主要模式是离线计算,主要依托Hadoop的生态,优化范围也是限于局部。
耗时较长,是第一代计算平台的劣势,处理任务的时间长达小时甚至是天的级别。
基于此,从2012年开始,腾讯大数据便着手于实时计算,并推出了第二代计算平台。
当时,基于Spark/Storm等实时计算处理框架,让腾讯大数据在处理任务上步入了“毫秒时代”。
而到了2015年左右,深度学习在全球可谓是刮起了一阵热潮,在此趋势的推动下,腾讯大数据推出了第三代计算平台。
与此同时,自研机器学习框架Angel,也成为国内第一个从Linux基金会“毕业”的AI项目。
而到了2020年,腾讯大数据有了新的思考。
一方面,是来源于数据规模的不断扩大,已经到了需要将流式计算和批量计算做融合、AI体系和大数据体系做融合的阶段。
另一方面,是来源于对数据隐私的思考:
如何在数据“足不出户”的情况下,既做到数据流、应用流和交易流的融合,又能保障数据的隐私安全。
不难看出,腾讯大数据计算平台到现在的发展,实则是基于每一阶段的“硬需求”而做出的变化。
与此同时,也完成了从依赖开源,到自主研发的华丽转身。
如何评价?
最后的一个问题:
该如何来看待腾讯第四代数智融合计算平台?
首先,出发点是非常的清晰了。
大数据这座矿山的价值,在数智深度融合的当下并没有发挥全部的潜能,甚至很大一部分的能量还有待开发。
并且大数据已然成为新型基础设施的重要组成部分,相关产业的发展正是迎来新阶段的关键时刻。
安全地打破“数据孤岛”,无疑会加速和提升大数据自身及产业的价值。
其次,让数据分析“自动驾驶”是否够靠谱。
众所周知,在自动驾驶领域会对车辆按照智能化来分级,一个形象的比喻就是“L3是发现问题”、“L4是分析问题”,而“L5是自动解决问题”。
腾讯大数据对自身的技术现状,则定位在了向L4迈步,并给出了对于未来“自动驾驶”的理解:
希望对平台所有软硬件指标都能完整收集,并形成知识图谱,平台里任何一个问题和异常,平台大脑能第一时间感知,根据问题图谱进行根因分析,精准定位源头,是软件引起的还是硬件引起的,并能根据异常的不同影响级别,根据决策树和现网知识库形成最适合的处理方式。
这个过程,不需要人工来干预,都是平台自身智能地在处理,极大地解放研发和运维人员的生产力。
其中之关键之一就是隐私计算,是另一个值得讨论的话题。
虽然是由谷歌率先提出,但随着理论与实践的不断碰撞,加之实际应用场景规模之大,它已然不是最初的那个“味道”。
因此不得不说,隐私计算技术目前还是处于早期阶段,需要解决和应对的问题还有很多:
开源技术是否会最终再次趋同?技术演进方向会怎样?与法律法规又该如何碰撞?
腾讯大数据给出的答案是:
让子弹再飞一会,鼓励技术有百花齐放的状态。
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://sigusoft.com/phpstrom/2939.html