- 博客(3)
- 收藏
- 关注
原创 机器学习模型训练全流程
GitHub - dataprofessor/infographic: Infographic【绝对干货】机器学习模型训练全流程! - 知乎
2022-01-06 11:25:31 1421
转载 BERT模型原理
1.BERT的基本原理是什么?BERT 来自 Google 的论文Pre-training of Deep Bidirectional Transformers for Language Understanding,BERT 是“Bidirectional Encoder Representations from Transformers”的首字母缩写,整体是一个自编码语言模型(Autoencoder LM),并且其设计了两个任务来预训练该模型。第一个任务是采用 MaskLM 的方式来训练语言模型.
2022-01-06 10:17:08 396
转载 过拟合 欠拟合区别
对于深度学习或机器学习模型而言,我们不仅要求它对训练数据集有很好的拟合(训练误差),同时也希望它可以对未知数据集(测试集)有很好的拟合结果(泛化能力),所产生的测试误差被称为泛化误差。度量泛化能力的好坏,最直观的表现就是模型的过拟合(overfitting)和欠拟合(underfitting)。过拟合和欠拟合是用于描述模型在训练过程中的两种状态。一般来说,训练过程会是如下所示的一个曲线图。训练刚开始的时候,模型还在学习过程中,处于欠拟合区域。随着训练的进行,训练误差和测试误差都下降。在到达一个临界.
2022-01-05 23:59:24 2580
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人