分类: CS224N

0

CS224N Lecture 8 Notes

CS224N Lecture 8 Notes任务: Neural Machine Translation 结构: Seqence-to-Sequence 技巧: Attention 注:本文所用图片为从课程slides中截取 之前的课程讲到的任务都没有涉及整个句子的输出,Lecture 8的内容就着眼与这个部分。类似的任务有: 翻译 对话 文本摘要 类似的任务都是需要输入一个句子(或者更长)并

0

CS224N-Lecture5-notes

CS224N Assignment 3 Neural Dependency Parser需要理清楚的细节问题网络结构 输入数据的形式 原始输入数据分为3个部分:Word,POS,Label(单词,词性标签,弧的类型)。处理后的输入数据$[x^w, x^t, x^l]$ 其中word是按照一定的规则从数据中抽取的特征,包含18个词(stack,buffer栈顶6个 + stack栈顶2个单词的最左