这篇文章主要介绍pytorch如何使用加载训练好的模型做inference,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
成都创新互联坚持“要么做到,要么别承诺”的工作理念,服务领域包括:网站建设、做网站、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的尤溪网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!1、 构建模型(# load model graph)
model = MODEL()
2、加载模型参数(# load model state_dict)
model.load_state_dict ( { k.replace('module.',''):v for k,v in torch.load(config.model_path, map_location=config.device).items() } ) model = self.model.to(config.device) * config.device 指定使用哪块GPU或者CPU *k.replace('module.',''):v 防止torch.DataParallel训练的模型出现加载错误
(解决RuntimeError: module must have its parameters and buffers on device cuda:0 (device_ids[0]) but found one of them on device: cuda:1问题)
3、设置当前阶段为inference(# predict)
model.eval()
以上是“pytorch如何使用加载训练好的模型做inference”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注创新互联行业资讯频道!