您好,欢迎来到12图资源库!分享精神,快乐你我!我们只是素材的搬运工!!
  • 首 页
  • 当前位置:首页 > 开发 > WEB开发 >
    应用Pytorch停止CNN详细剖析(3)
    时间:2017-08-16 12:41 来源:网络整理 作者:网络 浏览:收藏 挑错 推荐 打印

                        help='use how many training data to train network'

    表示运用的数据大小,从前往后取 usebatchsize 个数据。

    这部分顺序见 SK_s.py 和 runTrainingSize.sh 。

    运转的结果如下:

    500:   84.2% 

    1000:  92.0% 

    2000:  94.3% 

    5000:  95.5% 

    10000: 96.6% 

    20000: 98.4% 

    60000: 99.1% 

    由此可以清楚地看出,数据越多,结果的精度越大。

    太少的数据无法准确反映数据的全体散布状况,而且容易过拟合,数据多到一定水平效果也会不清楚,不过,大少数时分我们总还是嫌数据太少,而且更多的数据获取起来也有一定难度。

    成绩H:Use different training sets

    采用脚本完成,这部分顺序见 SK_0.2.py 和 diffTrainingSets.sh 。

    运转结果如下:

     0-10000: 98.0% 

    10000-20000: 97.8% 

    20000-30000: 97.8% 

    30000-40000: 97.4% 

    40000-50000: 97.5% 

    50000-60000: 97.7% 

    由此可见,采用不同的训练样本集合训练出来的网络有一定的差异,虽不是很大,但是毕竟显示出了不波动的结果。

    成绩I:Random Seed’s effects

    采用 runSeed.sh 脚本完成,用到了全部60000个训练集。

    运转的结果如下:

    Seed      0:  98.9% 

    Seed      1:  99.0% 

    Seed     12:  99.1% 

    Seed    123:  99.0% 

    Seed   1234:  99.1% 

    Seed  12345:  99.0% 

    Seed 123456:  98.9% 

    理想上在用上整个训练集的时分,随机数生成器的种子设置关于最后结果的影响不大。

    成绩J:ReLU or Sigmoid?

    将ReLU全部换成Sigmoid后,用全部60000个训练集训练,有比照结果如下:

    ReLU SK_0.2:  99.0% 

    igmoid SK_0.2:  98.6% 

    (责任编辑:admin)