- 博客(319)
- 收藏
- 关注
原创 NSFC: 如何管理项目申请书的撰写流程
摘要: NSFC 项目申请是一项艰苦的脑力与体力劳动, 建议师生协作完成. 本贴描述项目申请书撰写过程的一种管理方式.
2024-02-29 20:42:04 392
原创 硕士学位论文自查
摘要: 论文外审的时候, 评审老师只需要 5 分钟就可以对质量有大概的估计, 1 小时就可以找到足够多的 bug 以支撑自己的评语. 那么, 他们一般检查哪些方面呢? 把这些作为自查项目, 就能避免被怼得太惨.
2024-02-03 23:19:57 678
原创 一次性解决 DL-FWI 论文题目问题
小组做同一方向研究时, 面临题目容易冲突的问题. 本文分析一篇 DL-FWI 涉及的几个方面, 以此来完全解决论文命名问题。
2024-01-01 20:09:51 580
原创 DL-FWI 核心问题的思考 (未完待续)
DL-FWI 与基于正演模拟的 NS-FWI 处于不同的赛道, 因此核心问题 (关键科学问题) 完全不同.
2023-11-08 11:13:07 267
原创 调包侠如何写论文?
由于深度学习的发展, 很多研究生沦为 "调包侠". 换言之, 他们只需要把已有的深度网络用于自己的数据, 就可以获得良好的结果. 但这样导致论文的创新点很难写. 我的学生将图像处理已有网络用于全波形反演 (FWI), 遇到类似的问题. 本文描述相应的技巧.
2023-10-29 11:58:59 501
原创 DL-FWI 问题与技术的对照 (未完,等建议)
从地震数据反演速度模型, DL-FWI 涉及一些核心问题 (也称关键科学问题), 它们需要相应的技术来解决.
2023-09-27 18:08:44 308
原创 论文笔记: 深度学习速度模型构建的层次迁移学习方法 (未完)
分享对论文的理解, 原文见 Jérome Simon, Gabriel Fabien-Ouellet, Erwan Gloaguen, and Ishan Khurjekar, Hierarchical transfer learning for deep learning velocity model building, Geophysics, 2003, R79–R93. 这次的层次迁移应该指从 1D 到 2D 再到 3D.
2023-08-31 11:22:50 439
原创 论文笔记: 循环神经网络进行速度模型反演 (未完)
分享对论文的理解, 原文见 Gabriel Fabien-Ouellet and Rahul Sarkar, Seismic velocity estimation: A deep recurrent neural-network approach. Geophysics (2020) U21--U29. 作者应该是领域专家, 对地球科学的理解胜于深度学习. 为方便讨论, 等式编号保持与原文一致.
2023-08-29 11:59:54 1030
原创 论文笔记: 可解释神经聚类 (鹏鹏专用)
分享对论文的理解, 原文见 Xi Peng, Yunfan Li, Ivor W. Tsang, Hongyuan Zhu, Jiancheng Lv, Joey Tianyi Zhou,XAI Beyond Classification: Interpretable Neural Clustering, Journal of Machine Learning Research 22 (2021) 1--27.
2023-06-09 17:24:30 1066 3
原创 机器学习常识 13: PCA
主成分分析 (principal component analysis, PCA) 是一种有理论依据的无监督特征提取的线性方法.
2023-06-01 13:17:54 793 1
原创 机器学习常识 12: SVM
支持向量机 (support vector machine, SVM) 有很多闪光点, 理论方面有 VC 维的支撑, 技术上有核函数将线性不可分变成线性可分, 实践上是小样本学习效果最好的算法.
2023-06-01 10:36:04 599 1
原创 机器学习常识 11: logistic 回归
logistic 回归是使用超平面将空间分开, 一边是正样本, 另一边是负样本. 因此, 它是一个线性分类器.
2023-06-01 00:05:11 470
原创 机器学习常识 9: 如何定义机器学习问题
做研究应该以问题为导向. 机器学习问题定义清楚了, 才能保证在解决它的过程中不出大的偏差. 准确地抓住问题, 是这一系列贴子的重要动机.
2023-05-30 07:43:26 493 1
原创 机器学习常识 6: kNN
具有讽刺意味的是: 机器学习最基本的算法居然是不学习, 也称为惰性学习 (lazy learning). kNN (k nearest neighbors) 通过计算样本间的距离 (相似度) 来确定待预测样本应与哪些训练样本的标签保持一致.
2023-05-28 23:10:57 1353
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人