Meta Learninglearn to learnmeta-X ---》X about X学习如何学习machine Learning是寻找一个函数 定义损失 优化什么是元学习?训练资料作为输入 LOSS取决于训练任务,每个任务中有训练资料与测试资料在元学习中需要考虑多个任务 例如分类过task1的表现后,再看task2的表现最后的loss=l_1 + l_2得到总体的loss在传统机器学习任
用户新增预测比赛进行baseline的调试本次baseline数据预处理与特征工程先看数据:数据中包括uuid——》用户ideid——》访问行为idudmap——》行为属性 (key1-key9——》不同的行为属性)common_ts——》应用访问记录发生时间x1-x8——》用户相关属性,匿名处理字段target——》预测目标 是否为新增用户可以得出uuid是无关特征 udmap是待处
市调赛备赛从数据中统计出规律首先应该定义问题、假设定义完零假设后,确定显著水平进行数据分析检验从我们的样本数据中得到规律来应用到更大的样本中,规律是否真实可信我们要使用检验对于单个类别变量(如性别) 我们使用单样本比例检验对于两个分类变量 我们使用卡方检验对于单个数值变量 我们使用t检验对于一个分类变量和一个数值变量 我们同样使用t检验或者方差分析(当类别变量中有两个以上类别时)对于两个数值变量我
线性代数数学知识之前已经了解了表示标量向量矩阵的方法,接下来不算总结,仅为摘要书上内容线性代数计算的实现1.矩阵转置.t例子:A = torch.arange(20).reshape(5, 4) Atensor([[ 0, 1, 2, 3], [ 4, 5, 6, 7], [ 8, 9, 10, 11], [12, 13, 14, 15
ResNet细读与实现出现缘由在2012年的ILSVRC挑战赛中,AlexNet取得了冠军,并且大幅度领先于第二名。由此引发了对AlexNet广泛研究,并让大家树立了一个信念——“越深网络准确率越高”。这个信念随着VGGNet、Inception v1、Inception v2、Inception v3不断验证、不断强化,得到越来越多的认可在resnet出现前,Alexnet的成绩让大家认为神经网
Sora训练营打卡本次组队学习对于Sora的一些基础内容进行了讲解,由于学生党开学,再加上有些比赛,近期事情比较多,只能给出直播课时的随堂笔记加以补全,助教老师评选时手下留情,简单看看即可简介Sora是openAI最新发布的视频生成模型,所发布的内容较之前的视频生成模型在各方面都有了很大的提高,不仅在视频生成上视频的长度得到了增长,达到了60s,还拥有了很高的真实性,相比于之前容易变形的生成内容,
transformertransformer架构transformer的编码器是由多个相同的层叠加而成的,每个层都有两个子层第一个子层是多头自注意力汇聚,第二个子层是基于位置的前馈网络收到残差网络的启发,每个子层都采用了残差连接transformer解码器也是由多个相同的层叠加而成的,并且层中使用了残差连接和层规范化。除了编码器中描述的两个子层之外,解码器还在这两个子层中插入了第三个子层,成为编码
catboost xgboost lightgbm引入相关模型 相关小工具 从sklearn工具库中获得K折交叉验证的工具与损失函数,评估相关函数import os import shutil import numpy as np import pandas as pd from catboost import CatBoostClassifier from sklearn.model_selec
cpp都与c语言比较整理保存菜鸟教程的文档,并非全原创#include <iostream> using namespace std; // main() 是程序开始执行的地方 int main() { cout << "Hello World"; // 输出 Hello World return 0; }这是第一段代码与c语言不同的是这里
粒子滤波粒子滤波是在目标跟踪中常用的一种方法非线性条件下,贝叶斯滤波面临一个重要的问题是状态分布的表达与积分式的求解由前面章节中的分析可以得知,对于一般的非线性系统,解析求解的途径是行不通的在数值近似方法中,是一种最为通用与有效的方法粒子滤波就是建立在仿真基础之上的,它通过利用一组带权值的系统状态采样来近似状态的统计分布。由于方法具有广泛的适用性,由此得到的粒子滤波算法也能适用于一般的非线性/非高
容器:Collection接口: List -》ArrayList LinkedList Vector Set-》HashSet 内部使用HashMap实现Map接口: 采用 key value存储数据 HashMap线程不安全 效率高 HashTable线程安全 效率低Iterator接口:遍历容器中元素泛型:Collections: 包含排序查找的工具类字符串比
对知识点进行了学习中文情感分析code environment在 python3.x & Tensorflow1.x 下工作正常语料的准备语料的选择为 谭松波老师的评论语料,正负例各2000。属于较小的数据集词向量的准备本实验使用开源词向量chinese-word-vectors选择知乎语料训练而成的Word Vector模型:CNN结构:中文词Embedding多个不同长度的定宽卷积核最
研究课题GCF是什么研究内容方法分类已有进展存在的问题SSL(SoundSourceLocation)声源定位,是是我们任务一的主要研究主题题我们通过这一文献A survey of sound source localization with deep learning methods中的简要介绍了解到声源定位大多数场景下的主要任务其实是DOA,也就是direction of arrival关注于
5 6
数据的最小单位是数据项归并排序落单丢掉substr(str,int,int)意思是str的第int开始的int个字符层次遍历初始堆无法保证得到一个有序的序列,因为堆的兄弟结点之间无序创建邻接表的时间复杂度无向图中有n个结点e条边,建立该图邻接表的平均时间复杂度为O(n+e)深度为k的完全二叉树中最少有2^{k-1}个结点如上一趟排序结束后不一定能选出一个元素在其最终位置上的排序算法希尔排序,可能没
动手学深度学习拾遗学习完一遍后,通过基于(波士顿房价预测,叶子分类)实战将已经快遗忘的知识点进行拾遗复习softmax首先是softmax分类头的问题,softmax作为分类问题中常见的分类方法,在pytorch中并未直接实现,而是附加到了交叉熵损失函数中,所以在使用时直接进行使用就可以了正则化缓解过拟合问题,一是我们可以采集更多的优质数据来缓解,在数据已经尽可能多且优质时,就要将重心放在正则化上
数据处理sorted(set())-->set的意思是将其提取成随机不重复序列,用于提取较多label时使用leave_labels = sorted(set(train_data['label']))zip 将两个长度相同的可迭代对象一一对应返回元组 dict将元组打包成字典class_to_num = dict(zip(leaves_labels, range(n_classes)))最
树与二叉树的转化树要变成二叉树,那就将树中的所有兄弟结点进行链接,然后每一层与上一层的连接只留下第一个结点的连接二叉树要变成树,那就反方向来一次,将除了第一个结点的其他结点与根节点连接上,然后将兄弟结点连接,这时候二叉树就变回了原来的树森林与二叉树的转化森林转化为二叉树,森林是由若干个树组成的,可以理解为森林中的每棵树都是兄弟,我们先把森林中的每棵树转化成二叉树,然后将从第二个树起的每个结点作为上
问题树的度为树中最大的度,例如二叉树的度为2树中的指针域,看图理解即可含有n个结点的树含有n+1个空链域,n-1个非空链域,可以从画图理解,从第一个结点为2个空域,每增加一个结点,空域增加一个前后缀表达式前缀表达式首先先看,前缀表达式是从后往前算,遇到数字一个个放入栈中,遇到符号则拿出栈顶的元素进行计算,后进先算后缀表达式先入先出,从前往后进行计算,也就是通过队列进行实现二叉搜索树(BST,Bin
因为学习python web没有学数据分析,但是比较感兴趣,所以来了要用到的库为numpy跟pandas,介绍如下:NumPy系统是Python的一种开源的数值计算扩展,这种工具可用来存储和处理大型矩阵,比Python自身的嵌套列表结构要高效的多(该结构也可以用来表示矩阵(matrix))。pandas 是基于NumPy的一种工具,该工具是为解决数据分析任务而创建的。Pandas 纳入了大量库和一
市调赛备赛从数据中统计出规律 首先应该定义问题、假设定义完零假设H0后,确定显著水平\alpha进行数据分析检验从我们的样本数据中得到规律来应用到更大的样本中,规律是否真实可信我们要使用检验对于单个类别变量(如性别) 我们使用单样本比例检验对于两个分类变量 我们使用卡方检验对于单个数值变量 我们使用t检验对于一个分类变量和一个数值变量 我们同样使用t检验或者方差分析(当类别变量中有两个以上类别时)
注意力机制什么是注意力首先,心理学上,作为动物,想要在复杂环境下关注到需要关注的事物,机制是根据随意线索和不随意线索选择注意点随意与不随意实际上是遂意与不遂意,也就是是否受控 例如这里的在环境中看到红色杯子,是因为杯子颜色鲜艳,会让人第一眼看到,这是不需要遂意的,而想读书带着个人意愿,是遂意的在搜索注意力机制像之前学习过的卷积 全连接 池化层 都是只考虑不随意线索,更倾向于关注有特点的事物注意力机
概率论今天还进行了趋动云上chatGLM的部署win!
排序插入排序直接排序实际上就是进行比较后一步步替换空间复杂度为O(1)时间复杂度为O(n^2)-->两个嵌套for循环(平均)稳定性 稳定 (遇到相同数字,相对位置保持不变)希尔排序希尔排序是通过一个常数d作为增量,然后对于相隔d个增量的记录作为子表进行排序,经过几次排序,使得整个表格基本有序后,对全体进行一次排序即可因为同样使用常数个辅助单元,所以空间复杂度为o(1)时间复杂度依赖于
今天进行了CIFAR10的实战任务import torch from torch import nn import torch.nn.functional as F import torchvision import torchvision.transforms as transforms import matplotlib.pyplot as plt import numpy as np #%%
查找查找的衡量方法为平均查找长度顺序查找基本思想是从线性表的一端开始,逐个检查关键字是否满足给定的条件。若查找到某个元素的关键字满足给定条件,则查找成功,返回该元素在线性表中的位置。若查找到表的另一端,仍未找到符合给定条件的元素,则返回查找失败的信息。折半查找基本思想就是二分法散列表基本概念散列函数可能会把两个或两个以上的不同关键字映射到同一地址,称这些情况为冲突,这些发生碰撞的不同关键字称为同义
拓扑排序简介拓扑排序就是找到做事的先后顺序每个AOV网可能有一个或者多个拓扑排序实现①从AOV网中选择一个没有前驱(入度为0)的顶点并输出。 ②从网中删除该顶点和所有以它为起点的有向边。 ③重复①和②直到当前的AOV网为空或当前网中不存在无前驱的顶点为止。使用三个数组进行实现分别是 记录当前顶点入度的数组indegree 记录拓扑序列的数组print 保存度为零的顶点栈s逆拓扑排序将拓
最短路径BFS求无权图的单源最短路径简介直接进行广度优先遍历使用两个数组,一个记录最短路径值,一个记录到这个顶点的直接前驱只能用无权图迪杰斯特拉算法简介dijkstra算法是一种一步一步找出最短路径的方法,核心思路就是从初始点开始,一步一步从已确定路径中选取最短的路径作为新的最短路径,并加入新已确定顶点,然后执行多次实现我们选用三个数组,分别是标记各顶点是否已找到最短路径的finals,最短路径长
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号