当前位置: 首页 > news >正文

建设本地网站抖音优化

建设本地网站,抖音优化,日本的网站建设,切实加强网站建设修改自:https://zhuanlan.zhihu.com/p/532511514我在刚接触pytorch的时候搜到了这个大佬的文章,当时最后天坑部分没有看的太明白,直到今天我也遇到的相同的问题,特来做一点点补充,方便大家理解。上述大佬文章的简版内容…

修改自:https://zhuanlan.zhihu.com/p/532511514

我在刚接触pytorch的时候搜到了这个大佬的文章,当时最后天坑部分没有看的太明白,直到今天我也遇到的相同的问题,特来做一点点补充,方便大家理解。

上述大佬文章的简版内容:

  1. 入门版本

Pytorch复现的入门版本就是官方指南,需要设定好各种随机种子。

https://pytorch.org/docs/stable/notes/randomness.html

import random
import numpy as np
import torchrandom.seed(0)  # Python 随机种子
np.random.seed(0)  # Numpy 随机种子
torch.manual_seed(0)  # Pytorch 随机种子
torch.cuda.manual_seed(0)  # CUDA 随机种子
torch.cuda.manual_seed_all(0)  # CUDA 随机种子

2. Dataloader的并行

DataLoader启用多线程时(并行的线程数num_workers 大于1)也会出现随机现象,解决办法:

1. 禁用多线程:num_workers 设置为0。

2. 固定好worker的初始化方式,代码如下:

def seed_worker(worker_id):worker_seed = torch.initial_seed() % 2 ** 32numpy.random.seed(worker_seed)random.seed(worker_seed)g = torch.Generator()g.manual_seed(0)DataLoader(train_dataset,batch_size=batch_size,num_workers=num_workers,worker_init_fn=seed_worker,generator=g,)

3:算法的随机性

有些并行算法带有随机性,比如LSTM或者注意力机制,RNN等。

尤其是使用 CUDA Toolkit 10.2 或更高版本构建 cuDNN 库时,cuBLAS 库中新的缓冲区管理和启发式算法会带来随机性。在默认配置中使用两种缓冲区大小(16 KB 和 4 MB)时会发生这种情况。

解决办法就是在代码头部设置环境变量:

os.environ['CUBLAS_WORKSPACE_CONFIG'] = ':4096:8'

如果是用到CNN的算法,同时要设置以下变量:

torch.backends.cudnn.benchmark = False  # 限制cuDNN算法选择的不确定性
torch.backends.cudnn.deterministic=True  # 固定cuDNN算法

设置完这些,基本99%的情况下都可以复现结果,如果无法复现,那就重启notebook 或者python。

天坑:for 循环内随机性

如果在一个for 循环内多次运行pytorch训练,就会出现随机性。

以下常见方式均无效

  • 强制每次train之前empty_cache;

  • 每次循环结束后,手动del 变量,并且用gc 回收;

  • 强制初始化模型的参数;

  • 强制设置set_rng_state;(https://discuss.pytorch.org/t/manual-seed-cannot-make-dropout-deterministic-on-cuda-for-pytorch-1-0-preview-version/27281/8)

  • 重启python文件和notebook;

知乎大佬的解决方案:

  1. 上面的随机种子设置最好在for 循环里面设置,否则可能白瞎。

  1. nn模型里面的dropout 在for 循环里面有随机性。解决办法是禁掉dropout或者显式的调用Dropout。

对于该天坑,本文作者的实验结果:

调用一次Dataloader就会影响下一个Dataloader的随机数生成。

解释:例如现在有两种模型的训练方式:

  1. 在train后面继续进行下一个Epoch的train。

  1. train后面进行val,再进行下一个Epoch的train。

这两种方式得到的训练结果从第二个Epoch开始就是不同的,且val前后模型的weights没变,那应该就是生成的随机数变了。因此,应该就是调用一次Dataloader就会有新的随机数。

总结

以上就是Pytorch代码的复现终极指南,保险起见的话,先把能加的都加上,然后看能否复现。

之后如果有强迫症的话,可以做减法,逐个筛检,直到保留必要的代码。

愿天下太平,代码无坑

http://www.ds6.com.cn/news/115060.html

相关文章:

  • 一 建设茶叶网站前的市场分析seo网站培训
  • 去年做啥网站致富百度广告电话号码
  • 秦皇岛黄金海岸收费吗seo技术有哪些
  • 南通建设工程造价信息网站淘宝运营主要做些什么
  • 泸州市建设委员会网站sem优化
  • 网站权限怎么设置方法南京seo网站优化推广
  • 网站建设案例咨询百度关键词权重查询
  • 网站建设中 动态图片自动seo系统
  • 长治门户网东莞网站推广优化公司
  • 网站seo文章该怎么写网络推广的渠道和方式有哪些
  • 做网站颜色黑色代码多少钱营销推广的作用
  • 合肥建行网站国际新闻界
  • 茂名建网站网络营销怎么做推广
  • 网站建设与管理综合实训西安seo排名
  • 网站建设推广的10种方法色盲测试
  • 如何成立一个房产网站各地疫情最新消息
  • wordpress 模板加密seo多久可以学会
  • 百度站长工具怎么查排名百度排行榜小说
  • 网页和网站做哪个好用吗厦门网站制作全程服务
  • 爬虫做网站相关教程百度知道官网登录入口
  • 菠菜网站的代理怎么做优化网站视频
  • 上海手机网站建设哪家好百度如何购买关键词
  • django网站开发案例市场推广方案怎么写
  • 广州技术支持 网站建设电子商务网站开发
  • 做网站建设哪家好ios aso优化工具
  • 简单网页模版登封seo公司
  • 有什么网站可以做电子版邀请函市场调研报告最佳范文
  • 武汉网上商城网站建设汕头百度网站推广
  • 门户网站做公众号的好处百度一下就知道手机版
  • 英文购物网站模板下载苏州企业网站关键词优化