FFinchR
FFinchR
> 没解决,后来用了localspark+localfs的方式部署 好的,感谢回复。
> 我感觉应该是你的/homo-lr-normal-predict-dsl.json存在问题,在使用host部署的时候应该修改一些内容,不是和guest完全一样的。 @oceanqdu 感谢您的回复,这里的homo-lr-normal-predict-dsl.json使用的是与guest方相同的dsl,内容如下: ``` { "components": { "data_transform_0": { "input": { "data": { "data": [ "reader_0.data" ] }, "model": [ "pipeline.data_transform_0.model" ] }, "module": "DataTransform", "output": { "data": [...
> > > > 我感觉是不是在你加载之前需要导入一下模型?例如这样 flow model import -c examples/model/import_model.json 我之前都是在guest方进行的,host方我也没有实验过。 好的,感谢,我后续尝试一下,目前在host方我只实现了通过homo_convert导出模型,然后在本地做推理。
> 你好,请问这个 homo_convert 是什么功能,如何使用呢? 我最近也想导出模型,用于本地推理。 你好,homo_convert是flow cli提供的接口,用于将横向联邦模型导出,具体请参考[homo_convert](https://github.com/FederatedAI/FATE-Flow/blob/main/doc/cli/model.zh.md#homo-convert)。 我印象中是训练完成后,执行flow model deploy ; 然后根据获得的model_id,model_version,以及实际的role与party_id修改examples/model/homo_convert_model.json; 执行flow model homo_convert,如果flow server成功返回,返回的结果将包含模型导出的本地路径; 导出的模型好像仍需要手动进行数据预处理,即导出的模型只包含运行算法的那个组件,如homo_lr等。 希望对你有所帮助。