继vectornet之后,Waymo 行为预测的paper:《TNT: Target-driveN Trajectory Prediction》
【Paper Weekly】 Learning Lane Graph Representations for Motion Forecasting
Overview
这是一篇来自Uber行为预测的文章。
和VectorNet类似,没有用语义地图来对网络进行encode,而是提出了LaneGCN
,它使用多个邻接矩阵扩展图的卷积操作,并沿车道进行尺度扩张。为了能够获取复杂车辆和地图的交互,提出了融合网络fusion network
进行建模,它包括actor-to-lane, lane-to-lane, lane-to-actor 和 actor-to-actor。
这篇paper提出的方法在Argoverse数据集上取得了SOTA的效果。
【Paper Weekly】VectorNet: Encoding HD Maps and Agent Dynamics From Vectorized Representation
Waymo 行为预测的paper:《VectorNet: Encoding HD Maps and Agent Dynamics From Vectorized Representation》
《数码宝贝-最后的进化》
剑指 Offer题解
剑指 Offer的题解,更新中
wordpress迁移到hexo填坑记录 (2020.11版)
阮一峰说,喜欢写Blog的人,会经历三个阶段:
第一阶段,刚接触Blog,觉得很新鲜,试着选择一个免费空间来写。
第二阶段,发现免费空间限制太多,就自己购买域名和空间,搭建独立博客。
第三阶段,觉得独立博客的管理太麻烦,最好在保留控制权的前提下,让别人来管,自己只负责写文章。
我现在大概就是处在第三的阶段,一开始我用CSDN写,后来感觉有时候还经常挂掉,页面也不好看,就改成了wordpress;工作后,写blog的时间更少了,而wordpress不支持markdown, 每次我都要用pandoc将markdown转成html,然后在复制进去,维护困难,时间一久就没写blog的兴趣了;而且国外的服务器访问也比较慢(还要花钱),于是近期就转成了hexo,感觉挺好,因此记录下wordpress转成hexo的过程。
【深度学习】BERT
BERT英文全称是:Bidirectional Encoder Representations from Transformers,即双向Transformer的encoder。
BERT提出的时候刷新了11项NLP任务的记录,可以说开创了一个新的时代。
【深度学习】Attention is All You Need : Transformer模型
在transformer提出前,比如做机器翻译,常用的是seq2seq的模型。这类模型以RNN作为基本的结构,每一个时刻的输入依赖于上一个时刻的输出,难以并行化计算(当然也可以用CNN来做,如textCNN,CNN可以比较好的做到并行);此外,RNN容易忘记较早看到的信息,尽管有LSTM、GRU使用门的机制来缓解这个问题,但对于特别长的句子,仍旧是有问题的。Transformer的提出正是解决了上述两个问题。
【深度学习】Word2Vec
本文主要介绍大名鼎鼎的“word2vec”。word2vec顾名思义,就是将词表示为一个向量,表示出的向量可以运用在各种各样的任务上。可以说,在BERT等模型诞生前,这个词向量的表示方法是最为流行的方法之一。
本文主要包括:
- Onehot vs 分布式表示
- CBOW和skip gram
- Huffman改进
- 负采样
leetcode-博弈论
本文是leetcode博弈论的题解