好了一下子研一了,又高兴地玩了四年

主要记录一下一些进展,包括不限于代码调试读论文做实验

目前方向大概是RL,LLM,Robotics

发现现在博客实时预览的markdown挺好用,不用像之前一样编辑发表来回切换(也有可能是之前没看见这个


感觉深度学习的基础很差(其实根本没有),打算最近看几篇经典论文稍微学习一下,不过暂时不做这个应该不会在代码上下很大功夫。感觉跟李沐学ai可能是个好东西,虽然没怎么看,但是图书馆走了一圈好几个人都在看那个,可惜我看网课就想睡觉。强化学习最近一直在做实验,不过是零基础直接上手,训练了一堆像文明六一样的东西,最近应该会具体看一下理论。

9.5

满怀信心想大干一场,打开论文发现不知道全连接层是干啥的

先读了一下Alex Net的论文,感觉对这种论文不太会读,可能是当时这篇论文的结果太好了就没有在论文中仔细讲故事了,看了看网络结构,当然主要是熟悉一下各个layer都是干啥的

又看了一下VGG Net的论文,主要看了一下网络结构,这篇花了一些篇幅讲故事,training什么的还是没怎么看

又看了一下Google Net的论文,囫囵吞枣看看,想巩固一下全连接层的概念结果压根没有全连接层

感觉读论文是一个不错的学习方式,看到不懂的概念再去查资料,比直接上教材网课什么的舒服一些(也可能是不用敲代码

明天想主要看一点强化学习理论方面的论文,然后看看LLM Fine-tuning的内容

9.6

上午读了一下ResNet和Attention Is All You Need,感觉这种经典老论文还是好读的,过一遍翻译再找几个博客看看大概都能知道讲了什么,反正暂时不搞深度学习,简单看看有个印象吧,明天看看那个什么BERT是什么东西