现在有了《专辑》这个功能,其实更方便查看我们的历史教程啦。因为我五年前做生存分析研发这个代码的时候,就是根据基因表达量,把病人分成了高低表达两个组,不管是使用cox还是km,都是这样做的。但是最近有学生反映,使用cox还是km拿到的基因的生存效果是一致的, 就是风险因子和保护因子的分类问题。主要是靠HR值来判断咯。关于HR值In summary,HR = 1: No effectHR < 1
转载
2024-06-07 17:25:57
199阅读
相关表和相关图可反映两个变量之间的相互关系及其相关方向,但无法确切地表明两个变量之间相关的程度。相关系数是用以反映变量之间相关关系密切程度的统计指标。 从协方差出发,了解相关系数的真实含义和数学计算。
期望值分别为E[X]与E[Y]的两个实随机变量X与Y之间的协方差Cov(X,Y)定义为:从直观上来看,协方差表示的是两个变量总体误差的期望。如果两个
转载
2024-03-15 10:23:45
50阅读
本文主要是回归模型的BOX-COX变换消除异方差和自相关性的影响以及强影响点的分析 目录一、BOX-COX变换1、原理2、BOX-COX消除异方差性3、BOX-COX消除自相关性二、强影响点分析总结:完整代码如下:一、BOX-COX变换1、原理 &
转载
2024-01-26 09:38:01
152阅读
对连续性变量进行LASSO回归 安装并加载必须的packages如果你还没有安装,就运行下面的代码安装:install.packages('lars')
install.packages('glmnet')如果你安装好了,就直接加载它们即可library(lars)
# https://cran.r-project.org/web/packages/lars/lars.pdf
library(gl
转载
2024-02-21 20:08:24
182阅读
回归问题的条件/前提:
1) 收集的数据 2) 假设的模型,即一个函数,这个函数里含有未知的参数,通过学习,可以估计出参数。然后利用这个模型去预测/分类新的数据。 1. 线性回归 假设 特征 和 结果 都满足线性。即不大于一次方。这个是针对 收集的数据而言。 收集的数据中,每一个分量,就可以看做一个特征数据。每个特征至少对应一个未知的参数。这样就形成了一个线性模型函数,向量表示形式:
转载
2024-08-01 13:41:39
52阅读
前言之前对什么是逻辑回归,以及它的公式由来做了说明。在明确了该分类器的函数式后,那么最佳的回归系数是多少呢?这是值得思考的问题,本篇博客将会对这个问题进行探讨。回顾逻辑回归公式逻辑回归 = 线性回归 + sigmoid函数线性回归: z = w*x + bsigmoid函数:y = 逻辑回归:y = 对于sigmoid函数,其输入z =
转载
2024-04-08 06:42:33
83阅读
机器学习基本算法总结☞监督学习——回归
代码在这,基于python3(原书代码是python2)这里只是一个总结,原书已经讲解很清楚了,不清楚的直接看代码目录1.预测数值型数据:回归2.树回归==========================一、预测数值型数据:回归1.线性回归最佳拟合———————————————————————————————————- - 优点:结果易于理解,计算上不复
转载
2024-08-12 15:26:42
189阅读
数据的回归与分类分析目录数据的回归与分类分析一、线性回归练习二、线性回归方法的有效性判别三、python和anaconda的安装四、鸢尾花数据集使用SVM线性分类一、线性回归练习1.父亲-孩子x-y线性回归方程删除重复选项:在数据分析中选择回归:结果:方程为y=0.2978x+49.15。其中决定系数为1,说明有极高的相关性。如果父亲身高75,孩子身高为71.485英寸同理,母亲的回归方程:方程为
转载
2024-02-27 16:04:52
71阅读
(ESL把线性回归讲的非常丰富,真的开阔视野) 目录3.2 线性回归模型的最小二乘法3.2.2 高斯-马尔可夫定理3.2.3 从简单单变量回归到多重回归3.2.4 多输出3.3 子集选择3.3.1 最优子集选择3.3.2 向前和向后逐步选择3.3.3 向前分段回归3.4 收缩方法3.4.1 岭回归Lasso Regression3.4.2 Lasso回归3.4.3 讨论:子集的选择,岭回归,Las
转载
2024-07-24 20:34:17
101阅读
经典的实验性研究是随机对照试验,通过随机化实现组别之间的均衡可比,在这种情况下,基本统计学方法比如t、卡方检验便能够帮助我们证明干预措施的效果。然而,观察性研究是非干预性研究,比较的组别之间一般不会均衡可比,为此,往往需要借助复杂的统计学来达到研究目的。 从实验性研究的统计策略转换到观察性研究的统计策略前,我们需要了解医学研究统计分析的两个研究目的及其内在统一性,即差异性与相关性。我们在实验性
转载
2024-04-04 11:40:19
99阅读
回归与聚类算法1 线性回归2 欠拟合与过拟合3 岭回归4 逻辑回归5 模型保存与加载6 K-means算法(无监督学习) 1 线性回归原理 线性回归的损失和优化 API什么是线性回归? 线性回归线性回归是利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之间关系进行建模的一种分析方式线性模型: 自变量是一次方 参数是一次方损失函数/cost/成本函数/目标函数 最小二乘法 优化损
转载
2024-09-07 17:41:26
36阅读
数字PCR是继实时荧光定量PCR之后新兴的一种核酸绝对定量分析技能。数字PCR的实际检测过程中,却发现许多情况下的准确性未达到试验的预期,到底哪些因素会影响其检测成果的准确性?经过将含有样本的数字PCR反响液涣散到不计其数个独立的微单元中,在PCR扩增后对每个微单元中的荧光信号进行判读,计算出阴性和阳性的数量,最终利用泊松分布等统计学公式和软件对结果进行计算分析,然后完成靶标分子的绝对定量。数字P
## Java回归系数
回归分析是统计学中的一种重要方法,用于研究变量之间的关系。在回归分析中,回归系数是描述自变量对因变量的影响程度的指标。对于线性回归模型,回归系数表示自变量每单位变化对因变量的平均影响。本文将介绍Java中回归系数的计算方法和应用场景。
### 什么是回归系数
回归系数是用于描述因变量和自变量之间关系的数值。在线性回归模型中,回归方程可以表示为:
```
Y = β0
原创
2023-10-16 13:53:03
53阅读
线性模型的正则化正如我们在第一和第二章看到的那样,降低模型的过拟合的好方法是正则化这个模型(即限制它):模型有越少的自由度,就越难以拟合数据。例如,正则化一个多项式模型,一个简单的方法就是减少多项式的阶数。对于一个线性模型,正则化的典型实现就是约束模型中参数的权重。 接下来我们将介绍三种不同约束权重的方法:Ridge回归,Lasso回归和Elastic Net。岭回归(Ridge):(L2正则)岭
目录线性回归基础实战——波士顿房价的线性回归模型 实战——能源效能数据的相关分析与 线性回归模型 梯度下降法介绍 实战——梯度下降法在线性回归中的使用 实战——scikit-learn使用SGD实现线性回归线性回归基础什么是线性回归举个例子,我们去市场买牛肉,一斤牛肉52块钱,两斤牛肉 104块钱,三斤牛肉156块钱,以此类推。也是说牛肉的价格随着牛 肉斤数
转载
2023-10-17 11:21:11
138阅读
一、协方差:可以通俗的理解为:两个变量在变化过程中是同方向变化?还是反方向变化?同向或反向程度如何?你变大,同时我也变大,说明两个变量是同向变化的,这时协方差就是正的。你变大,同时我变小,说明两个变量是反向变化的,这时协方差就是负的。从数值来看,协方差的数值越大,两个变量同向程度也就越大。反之亦然。 咱们从公式出发来理解一下: 公式简单翻译一下是:如果有X,Y两个变量,每个时
转载
2024-10-31 13:48:44
31阅读
利用Python中的statsmodels简单建立多元线性回归模型(一)概念简单介绍多元线性回归其实是在一元线性回归的基础上增加了若干个自变量个数,数学表达式如下: 其中,是因变量(响应变量),是截距项,,,,是回归系数,,,,为自变量,为随机误差项。案例本文采用scikit-learn中的加利福尼亚房屋价值数据。下面导入相关的库:import numpy as np
import pandas
转载
2024-03-23 11:37:40
15阅读
目录1 线性回归找最佳拟合直线2 局部加权线性回归3 示例:预测鲍鱼的年龄 前面我们介绍了分类,分类的目标变量是标称型数据,而本章将会对连续型的数据做出预测,也就是我们的回归任务。 1 线性回归找最佳拟合直线回归的目的是预测数值型的目标值。直接的办法是依据输入写出一个目标值的计算公式。假如你想要预测姐姐男友汽车的功率大小,可能会这么计算: 这就是所谓的回归方程(regression equat
转载
2024-05-06 13:19:35
66阅读
IV与PSI的理解–深入浅出一、IV理解IV衡量的是某一个变量的信息量,是基于WOE来计算的,也可以说是基于KL散度的计算。用于变量个数较多场景下的变量初筛。Iv取值范围含义(0,0.02]无预测力(0.02,0.1]较弱预测力(0.1,+∞)预测力可以理论上,是保留IV值大于0.1的变量进行筛选。 工业上,一般IV超过0.05可以通过初筛,根据变量iv实际情况可以灵活设置阈值。WOE理解 woe
转载
2024-06-26 19:26:16
92阅读
LARS算法的几何意义1. LARS算法简介 Efron于2004年发表在Annals of Statistics的文章LEAST ANGLE REGRESSION中提出LARS算法,其核心思想是提出一种新的solution path(求解路径),即在已经入选的变量中,寻找一个新的路径,使得在这个路径上前进时,当前残差与已入选变量的相关系数都是相同的,直到找出新的比当前残
转载
2024-06-18 16:06:28
159阅读