很多时候,看见不少申报课题的立项依据、投稿论文的引言中写到,本项目(本论文)要利用深度学习(DL)做×××识别,大篇幅阐述了这类识别的重要性和应用前景。比如谈得最多的是有关各类病变的医学影像处理,主要难度是缺少大数据,因此,难于获得高精度的识别与分类结果。试问:
有了大数据还需要你研究吗,那不就是做一下标注的工作吗,这是工业届人士(工程师)去解决的问题。
研究背景中明确说到,这类影像针对的患者和病例达数亿人(如糖尿病、肝病等),那怎么还会缺大数据呢?只能说明,你不拥有大数据。既然你得不到数据,为啥还选择这个方向的研究呢?那么完全可以交给拥有大数据的机构去做。
所以,问题的本质不在数据少,而在于研究课题的本身所涉及的科学问题的凝练,你是要解决脏、乱、差样本的学习问题(共性问题),还是具体应用中数据存在的个性(语义)问题。
我们不能视深度学习为万能工具,而把数据当道具。这样的课题申报书和学术论文看起来就是千篇一律的,缺了一些特色和味道。
机器学习(ML)曾经历过演化计算(EC)、小波变换(WT)、压缩感知(CS)及视觉特征建模等一浪高过一浪的热潮,自泛信息领域通吃的深度学习(DL)粉墨登场以来,其热度和普及程度前所未有。于是乎,神马概率统计、矩阵理论、优化理论等数学基础和信号处理、图像处理、模式识别等专业基础均显得可有可无。当年,那些苦苦探寻BP神经网络动力学行为的学者们,也只能暗自神伤...端到端,意味着少了人的干预,意味着高度智能化。我们要做的就是在输入端准备好数据,输出端定义好结果...
ML领域的研究早已看不见以往所呈现的百花齐放的景象。
长按/扫一扫二维码,敬请关注“闻道研学”
相关博文:如何看待学生的追“AI”潮