diff --git a/img/tf_2.0/bert.png b/docs/TensorFlow2.x/img/bert.png similarity index 100% rename from img/tf_2.0/bert.png rename to docs/TensorFlow2.x/img/bert.png diff --git a/docs/TensorFlow2.x/实战项目_5_bert.md b/docs/TensorFlow2.x/实战项目_5_bert.md index 99b53dc7..68c6105e 100644 --- a/docs/TensorFlow2.x/实战项目_5_bert.md +++ b/docs/TensorFlow2.x/实战项目_5_bert.md @@ -17,7 +17,7 @@ BERT的全称为Bidirectional Encoder Representation from Transformers,是一 2. 预训练后,只需要添加一个额外的输出层进行fine-tune,就可以在各种各样的下游任务中取得state-of-the-art的表现。在这过程中并不需要对BERT进行任务特定的结构修改。 -![](/img/tf_2.0/bert.png) +![](img/bert.png) 总结一下: