百度安全实验室研究员。2016年博士毕业于北京大学计算机研究所,进入百度安全实验室(X-Lab)。研究方向包括Intel SGX相关的安全技术,基于源代码的漏洞发现,网络协议安全分析等。
安全技术爱好者,热衷于研究各类系统、安全机制的原理,以及如何绕过它们。致力于构造安全可信的系统。
百度安全实验室研究员。2016年博士毕业于北京大学计算机研究所,进入百度安全实验室(X-Lab)。研究方向包括Intel SGX相关的安全技术,基于源代码的漏洞发现,网络协议安全分析等。
安全技术爱好者,热衷于研究各类系统、安全机制的原理,以及如何绕过它们。致力于构造安全可信的系统。
越来越多的机器学习的训练和预测运算在公有云平台或者手机、IoT设备上进行。这些机器学习模型的输入数据和模型参数经常具有相当高的价值,容易成为攻击者的目标。但是这些计算平台对于数据保护可能存在瑕疵,使得攻击者可以偷取到模型的输入输出和模型参数。因此,如何保护机器学习模型是一个亟待解决的问题。本演讲关注于在机器学习中结合Intel SGX可信计算技术,构造可信、安全的机器学习平台。