BNN in CVPRW21 0

2021/7/9

网页链接:https://www.youtube.com/watch?v=WDYhzWjNCYI

分享者是Larq的作者,他们公司好像出了很多相关的产品,比如那个人物检测,有点厉害。

分享的主旨是"Accuracy会掩盖NN中的一些问题,ImageNet等ML里常见的数据集可能不能反映真实世界的属性":

  • ImageNet等常用数据集的validation set上取得较高的分数,可能并不能很好地泛化到真实应用中,举了例子:
    • 现在的数据集可以看作flikr的子集(?),里面有很多随意采出来的图片,不一定适合训练;
    • 在ImageNet上比较好用的KD方法到了Tiny ML上并不适用,数据集之间不同method不一定能够迁移;
    • 无论量化与否,架构对网络的性能/分类的标准影响很大,比如SpiderNet,由于有skip connect将前面的feature map引到后面,后面分类就用了很多底层语义信息,比如颜色(这显然是不好的),但是精度确有差别,这种差别掩盖了分类本来就不好的本质(这和网络的结构密切相关,比如SpiderNet就会有这样的问题,而QuickNet上的结果相对要好些)。
  • 提出的解决方案:
    • 迭代式训练,不断敲定出问题的场景,补充数据继续训练;
    • 关注架构。
  • Bias and Robustness