help='use how many training data to train network')
表示运用的数据大小,从前往后取 usebatchsize 个数据。
这部分顺序见 SK_s.py 和 runTrainingSize.sh 。
运转的结果如下:
500: 84.2%
1000: 92.0%
2000: 94.3%
5000: 95.5%
10000: 96.6%
20000: 98.4%
60000: 99.1%
由此可以清楚地看出,数据越多,结果的精度越大。
太少的数据无法准确反映数据的全体散布状况,而且容易过拟合,数据多到一定水平效果也会不清楚,不过,大少数时分我们总还是嫌数据太少,而且更多的数据获取起来也有一定难度。
成绩H:Use different training sets
采用脚本完成,这部分顺序见 SK_0.2.py 和 diffTrainingSets.sh 。
运转结果如下:
0-10000: 98.0%
10000-20000: 97.8%
20000-30000: 97.8%
30000-40000: 97.4%
40000-50000: 97.5%
50000-60000: 97.7%
由此可见,采用不同的训练样本集合训练出来的网络有一定的差异,虽不是很大,但是毕竟显示出了不波动的结果。
成绩I:Random Seed’s effects
采用 runSeed.sh 脚本完成,用到了全部60000个训练集。
运转的结果如下:
Seed 0: 98.9%
Seed 1: 99.0%
Seed 12: 99.1%
Seed 123: 99.0%
Seed 1234: 99.1%
Seed 12345: 99.0%
Seed 123456: 98.9%
理想上在用上整个训练集的时分,随机数生成器的种子设置关于最后结果的影响不大。
成绩J:ReLU or Sigmoid?
将ReLU全部换成Sigmoid后,用全部60000个训练集训练,有比照结果如下:
ReLU SK_0.2: 99.0%
igmoid SK_0.2: 98.6%
(责任编辑:admin)