本文主要是介绍XGB-18:使用Concrete ML进行隐私保护推理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
隐私保护推理是指以一种保护输入数据隐私的方式执行机器学习推理。这在处理敏感或个人信息时尤为重要,例如医疗记录或财务信息。实现隐私保护推理的一种方法是使用称为安全多方计算(SMC)的技术,该技术允许多个方在他们的输入上联合计算一个函数,而无需将这些输入透露给彼此。
Concrete ML是由Zama开发的一个专业库,它允许通过完全同态加密(FHE)在加密数据上执行机器学习模型,从而保护数据隐私。
要使用诸如XGBClassifier之类的模型,请使用以下导入方式:
from concrete.ml.sklearn import XGBClassifier
执行隐私保护推理
XGBClassifier的初始化可以按照以下方式进行:
classifier = XGBClassifier(n_bits=6, [other_hyperparameters])
其中 n_bits
决定了输入特征的精度。请注意,n_bits
的值越高,输入特征的精度和最终模型的准确性可能会提高,但也会导致更长的FHE执行时间。
xgboost库中存在的其他超参数也可以使用。
模型训练和编译
与scikit-learn中的模型类似,可以使用 .fit() 方法进行训练
classifier.fit(X_train, y_train)
训练完成后,可以使用校准数据集对模型进行编译,这个数据集可能是训练数据的一个子集:
classifier.compile(X_calibrate)
在这个校准数据集 X_calibrate
用于Concrete ML计算模型中每个中间值的精度(位数宽度)。这是优化等效FHE电路的必要步骤。
FHE模拟与执行
为了验证加密计算中的模型准确性,可以运行一个FHE模拟:
predictions = classifier.predict(X_test, fhe="simulate")
这个模拟可以用来评估模型。此模拟步骤得出的准确性代表了实际FHE执行的准确性,而不必支付实际FHE执行的成本。
当模型准备好后,可以进行实际的完全同态加密执行:
predictions = classifier.predict(X_test, fhe="execute")
请注意,使用 FHE=“execute” 是评估 FHE 中模型的一种方便方式,但对于实际部署,必须使用加密(在客户端)、在 FHE 中运行(在服务器端)和最后解密(在客户端)的函数,以实现端到端的隐私保护推理。
Concrete ML 提供了一个部署 API 以简化这个过程,确保端到端的隐私。
要进一步了解部署 API,可以阅读:
- 部署文档
- 部署notebook
Concrete ML中的参数调整
Concrete ML与标准的scikit-learn管道兼容,如GridSearchCV或其他任何超参数调整技术。
示例和演示
- 情感分析(基于transformers + xgboost)
- XGBoost分类器
- XGBoost回归器
结论
Concrete ML提供了一个框架,通过利用完全同态加密来执行隐私保护推理,允许在加密数据上进行安全和私密的计算。
更多信息和示例可以在Concrete ML文档中找到。
参考
-
https://docs.zama.ai/concrete-ml
-
https://xgboost.readthedocs.io/en/latest/tutorials/privacy_preserving.html
-
https://www.youtube.com/watch?v=FFox2S4uqEo
这篇关于XGB-18:使用Concrete ML进行隐私保护推理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!