- 博客(2)
- 资源 (1)
- 收藏
- 关注
原创 DataWhaleC1型语言模型(LLM)介绍
Transformer是一个基于自注意力(self-attention)机制的神经网络结构,最初是为了解决自然语言处理(NLP)中的序列到序列(sequence-to-sequence)任务而提出的,但后来被广泛应用于各种领域,包括语音识别、计算机视觉等。:由于Transformer模型不采用循环或卷积结构,因此无法捕获序列中的位置信息。在训练过程中,Transformer使用掩码(masking)来确保模型在预测某个位置的输出时不会看到未来的信息(在解码器部分),这有助于在生成任务中避免数据泄露。
2024-04-16 14:56:31 140
原创 星星之火,可以燎原---星火培训2023总结
星星之火,可以燎原。聚是一团火,多幸运,在激情燃烧的岁月,Apollo自动驾驶平台把各位开发者聚在一起,愿每个开发者小伙伴都能在自动驾驶浩瀚星空里找到适合自己的坐标发出属于自己最耀眼的光。
2023-10-04 16:48:44 245
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人