CloseAI提示您:看后求收藏(乡村小说网www.xcxs5200.com),接着再看更方便。
但它的举办地点基本上都在美国,签证方面经常会有一些问题。
本次的机会比较难得,当然要多宣传一下自己的工作。
“基于DreamNet的残差思想,不仅在图像的识别分类上取得了巨大的突破,我同时也衍生出了它的一些变体,比如生成式网络,检测网络,还有分割网络。”
识别分类有竞赛结果,生成式网络的论文已经放出,而检测的网络随着白度的发布会,大家也已经了解它的威力。
至于分割网络,则是这两天随着DreamNet的论文一起放出的U-Net工作。至此,可以说视觉类几大任务的基础范式已经被孟繁岐奠基。
今后不论是识别分类,分割检测,还是迁移生成,都很难绕得开这些轻便又好用的办法了。
“可以看到,这种思想席卷视觉领域之后,使得目前主要的研究方向都有了颠覆性的突破。”
孟繁岐将这几篇论文的主要试验结论摆在了幻灯片的第二页,就是要先以结果震撼众人。
“显然,这些算法在诸多领域都与第二名拉开了巨大的差距,而相当一部分的功劳应当属于残差思想对网络深度的革命。”
“在10年11年,我们仍在使用人工设计的SIFT,HOG还有SVM,12年,阿里克斯的八层AlexNet取得了巨大的突破。”
“而今年,残差思想引发的深度革命,使得训练150+层的神经网络成为可能。”
“深度神经网络是很多任务场景,尤其是视觉任务场景的基础引擎和骨干,这也是为什么它能够迅速影响几个主流的任务。”
“从结构上看,DreamNet并没有什么特别的,比起之前每一层都单独设计的网络,我其实故意希望它变得简单,重复。”
孟繁岐身后的幻灯片展示了一个极其细长的图案,这就是一百多层深的DreamNet结构图。
放大展示它的基本设计,众人发现,它的单层设计非常简洁朴素,只采用了最常规的算子操作。
长长的结构图滚动了起来,观众们都发现,原来每一层并没有任何区别,只是单纯在重复。
由于一百多层的滚动需要太久,在这个严肃的场合显得有些喜感,场内发出了一阵阵笑声。
“那么这里就引出了一个问题,那就是是否单纯地把网络做大作深,就总是可以取得更好的结果呢?”
孟繁岐的这个问题,直到202