今天是2024年9月12日,组会摸鱼,很久没看论文了,在摸鱼看代码,最近IJCAI 2024出来了,找了几篇论文看,首先这是第一篇。 论文:Denoising-Aware Contrastive Learning for Noisy Time Series 或者是:Denoising-Aware C
2024年6月25日,10:11,好几天没看论文了,一直在摸鱼写代码(虽然也没学会多少),今天看一篇师兄推荐的。 论文:Soft Contrastive Learning for Time Series 或者是:Soft Contrastive Learning for Time Series Gi
今天是2024年5月22日,10:24,今天看这篇经典的论文(如果你问我为什么最近频繁看论文,因为我的创新点无了,要找创
现在是2024年5月18日,好久没好好地看论文了,最近在学在写代码+各种乱七八糟的事情,感觉要和学术前沿脱轨了(虽然本身也没在轨道上,太菜了),今天把师兄推荐的一个框架的论文看看(视觉CV领域的)。 20:31,正经的把这篇论文看完。 论文:A Simple Framework for Contra
现在是2024年5月23日,14:30,开始看论文。 论文:Time Series Contrastive Learning with Information-Aware Augmentations 或者是:Time series contrastive learning with informat
现在是2024年4月23日13:54,在看代码了,嗯,不能逃避,逃避可耻,会痛苦,看不懂多看几遍多写一下就好了,不能逃避了哈,一点一点来就是了,我
现在是2024年4月24日16:58,今天摸鱼有点多,备忘一下,都写到一篇内容里面,免得分散。 1.np.concatenate()函数'np.concatenate'是NumPy库
呜呜呜,好菜,好烦.
虽然现在应该是已经熟练掌握这些基础概念的时候,但是我是鱼的记忆,上一秒的事情,下一秒就忘了,除非是重要的人的重要的事情,呜呜呜呜,我这个破脑子. 还是写一下吧,直接GPT出来的(人类之光,欢呼~). 以前写过一次,贴一下链接:深度学习模型训练的过程理解(训练集、验证集、测试集、batch、itera
现在是2024年2月24日,13:59,从研一就开始断断续续说要过一遍框架,到现在博一下学期,还一直拖着呢,拖延症太可怕
2023年12月27日,看一篇老师给的论文。 论文:Pre-training Enhanced Spatial-temporal Graph Neural Network for Multivariate Time Series Forecasting 或者是:Pre-training Enhanc
现在是2023年11月14日的22:15,肝不动了,要不先回寝室吧,明天把这篇看了,然后把文档写了。OK,明天的To Do List.
2023年10月23日,继续论文,好困,想发疯。 论文:Spatio-Temporal Self-Supervised Learning for Traffic Flow Prediction Git
被骗了,没什么适合现在情况的技术,小老板还建议精读,几十页,被骗了,被骗了,好想大喊:(ノ`Д)ノ.
理由同上,I'm fine :)
今天是2022年7月12日,差不多小半个月没看论文了,因为模型一直运行不起来+系
呜呜呜呜,感谢大佬学弟给我讲干货. 本来是讨论项目的,后面就跑偏讲论文模型了. 解答了我
ICLR2022的论文。 2022/6/18 11:32,简单记录一下随笔(因为不写点东
具体的看链接,感觉都是感性的分析,因为没有严格的界定。 粗糙理解: 输出的是类别,比如明天天气是晴天还是阴天,是分类。 预测一个数值,比如明天气温是多少度,这是回归。 传送门1:【机器学习小常识】“分类” 与 “回归”的概念及区别详解 传送门2:分类与回归区别是什么? 传送门3:1.4 数据分类问题
Encoder-Decoder、Seq2Seq、Attention因为注意力不集中,所以这篇随笔就是看别人的文章,随手参考写写的。 1.Encoder-Decoder Encoder-Decoder模型并不特指某种具体算法,而是一种通用
参考1:CNN、RNN、DNN区别 参考2:一文读懂 CNN、DNN、RNN 内部网络结构区别 一张图解释所有: 感知机(输入层、输出层、一个隐藏层)-->不能解决复杂的函数-->神经网络NN出现(多层感知机出现,使用sigmoid或tanh、反向传播BP算法)-->层数加深,出现局部最优和梯度消失
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号