学习这么长时间,一直在C语言这一层面上钻研和打拼,日积月累,很多关于C的疑惑在书本和资料中都难以找到答案。程序员是追求完美的一个种群,其头 脑中哪怕是存在一点点的思维黑洞都会让其坐卧不宁。不久前在itput论坛上偶得《Computer Systems A Programmer's Perspective
转载 2月前
32阅读
ARM指令的多数据传输(STM、LDM)中,提到:多寄存器的Load和Store指令分为2组:一组用于数据的存储与读取,对应于IA、IB、DA、DB,一组用于堆栈操作,对应于FD、ED、FA、EA,两组中对应的指令含义相同。IA:increase after   ;表示数据传输后地址增加IB:increase beforeDA: decrease afterDB: decrease be
基础知识目录基础知识机器语言汇编语言汇编语言的组成存储器指令和数据存储单元CPU对存储器的读写地址总线数据总线控制总线内存地址空间主板接口卡各类存储器芯片机器语言机器语言是机器指令的集合机器语言就是一台机器可以正确执行的命令指令:01010000(PUSH AX)汇编语言机器指令:1000100111011000 操作:寄存器BX的内容送到AX中汇编指令:MOV AX,BX 这样的写法便于阅读和记
1. call 子程序偏移量注解:子程序偏移量是指,call指令即将跳转至的子程序的地址(子程序的第一个字节)减去 call 指令读取后 CS:IP指向的指令(即,call 指令的下一指令的地址)2. STOS  STOS DST  STOSB //存放字节串 ( DI ) = AL  STOSW //存放字串 ( DI ) = AX  执行操作:把AL或AX中的内容存放由DI指定的附加段的字节或
目录一、新建一个工程1.新建工程 2.代码  二、C语言中调用汇编函数 1.无参数的调用 2.带有参数的调用 三、汇编语言中调用C语言函数 四、寄存器的使用规则 五、参考文献 一、新建一个工程1.新建工程 打开下载好的MDK5,点击project,创建一个新的工程,命名文件并且保存,选择芯片,我选择
a: 转成ASCII d: 转成数据, 按一次是db,两次dw,三次dd c: 转成代码 u: 编程未定义G: 跳转指令, 跳转到指定地址 ALT+T: 搜索指令,搜索关键字 F5: 把汇编编程C语言, 想回到汇编直接选IDA View即可 N: 按下某个名字并且修改名字,全局有效ESC: 返回上一个页面F12: 显示代码的流程图Shift+F2: IDC脚本窗口Shift+F3: 弹出Funct
二、LABLE 与标号连用。 例 POINTF LABLE FAR     POINTN:MOV AX,[BX+SI]  第一句给第二句隐含定义的近标号POINTN取一个新名字POINTF,并将类型属性修改为FAR 。这样就允许作为 其他代码段中转移或调用指令的目标标号(这时标号是POINTF)。 LAHF∶指令助记符——标志寄存器(PSW)低8位内容送AH中。 LDS∶ 指令助记符——取地址
寄存器一览通用寄存器ax,bx,cx,dx,(ah,al,bh,bl,ch,cl,dh,dl)sp,bp,si,di指令寄存器ip标志寄存器FR段寄存器cs,ds,ss,es mov指令示例mov 寄存器, 数据mov ax, 8mov 寄存器, 寄存器mov ax, bxmov 寄存器, 内存mov ax, [0]mov ax, [bx]mov 内存, 寄存器mov [0], axmo
这段时间对LDA比較感兴趣,尝试在工作中使用它。平时做想法的高速验证,都用的是“GibbsLDA++-0.2”,一个c实现版本号的LDA。这两天用c++ stl自己写了一个单机版的LDA,初衷例如以下: 1. “GibbsLDA++-0.2”虽说号称是最popular的LDA工具包。只是依旧有明显的
转载 2017-05-27 18:50:00
168阅读
2评论
建议的程序员学习LDA算法的步骤 这一阵为了工作上的关系,花了点时间学习了一下LDA算法,说实话,对于我这个学CS而非学数学的人来说,除了集体智慧编程这本书之外基本没怎么看过机器学习的人来说,一开始还真是摸不太到门道,前前后后快要四个月了,算是基本了解了这个算法的实现,记录一下,也供后来人快速入门做个参考。 一开始直接就下了Blei的原始的那篇论文来看,但是看了个开头就被Dirichl
目录 1.sklearn中LDA的简单使用方法 2.维度不一致问题 1.sklearn中LDA的简单使用方法 最近在对数据进行预处理的过程中,使用了有监督的降维方式——线性判别分析(LDA)。直接能通过调用sklearn提供的接口就能实现。具体导入方式如下: from sklearn.discriminant_analysis impo
(一)LDA作用         传统判断两个文档相似性的方法是通过查看两个文档共同出现的单词的多少,如TF-IDF等,这种方法没有考虑到文字背后的语义关联,可能在两个文档共同出现的单词很少甚至没有,但两个文档是相似的。         举个例子,有两个句子分别如下:     &nbsp
以前LDA是用来分类的,PCA是用来降维的。PCA的降维是为了减少后续计算量,本身对于区分不同的类的能力并没有提升。PCA是无监督的,而LDA是能把不同的类往一个最佳的方向去投影,从而使两类之间的距离最大,达到易于区分的目的,LDA是有监督。下面这篇博文很好的讲述了LDA的算法的原理,很值得一读。 ==============================================
前言:本文用到的方法叫做主题建模(topic model)或主题抽取(topic extraction),在机器学习的分类中,它属于非监督学习(unsupervised machine learning)。它是文本挖掘中常用的主题模型,用来从大量文档中提取出最能表达各个主题的一些关键词。 主题模型定义(维基百科):在机器学习和自然语言处理等领域是用来在一系列文档中发现抽象主题的一种统计模型。主题
转载 6月前
57阅读
文章目录特征工程什么是特征工程数据预处理缺失值的处理删除法填补法Pandas填充Sklearn填充数据归一化什么是归一化归一化原理为什么要用归一化什么算法需要进行归一化sklearn库归一化处理归一化存在的问题数据标准化什么是标准化标准化原理为什么要用标准化sklearn库标准化处理标准化和归一化对比特征抽取字典特征数据提取文本特征数据提取TF-IDF 做比赛或者做项目的时候,绞尽脑汁考虑到了
1.LDA主题模型困惑度 这部分参照:LDA主题模型评估方法–Perplexity,不过后面发现这篇文章Perplexity(困惑度)感觉写的更好一点,两篇都是翻译的维基百科。 perplexity是一种信息理论的测量方法,b的perplexity值定义为基于b的熵的能量(b可以是一个概率分布,或者概率模型),通常用于概率模型的比较 wiki上列举了三种perplex
Latent Dirichlet Allocation David.M.Blei Andrew.Y.Ng Michael.I.Jordan JMLR2003 (可google到) 有两种方法设计分类器: 1. discriminative model,就是由样本直接设计判别函数,例如SVM; 2. generative model,就是
 说明 :本文为个人随笔记录,目的在于简单了解LDA的原理,为后面详细分析打下基础。 一、LDA的原理LDA的全称是Linear Discriminant Analysis(线性判别分析),是一种supervised learning。LDA的原理:将带上标签的数据(点),通过投影的方法,投影到维度更低的空间中,使得投影后的点,会形成按类别区分,一簇一簇的情况,相同类
转载 2023-06-12 17:46:24
112阅读
LDA模型学习本文记录学习 LDA(隐含狄利克雷分布)时的一些笔记,该笔记主要记录的是LDA的思想和概率,对底层的数学知识未作详细说明。1 简介在机器学习领域,LDA是两个常用模型的简称:Linear Discriminant Analysis(线性判别分析,两类物体或事件的特征的一个线性组合,这个线性组合可用于分类) 和 Latent Dirichlet Allocation(隐含狄利克雷分布,
宏观理解LDA有两种含义线性判别器(Linear Discriminant Analysis)隐含狄利克雷分布(Latent Dirichlet Allocation,简称LDA)本文讲解的是后者,它常常用于浅层语义分析,在文本语义分析中是一个很有用的模型。LDA模型是一种主题模型,它可以将文档集中的每篇文档的主题以概率分布的形式给出,从而通过分析一些文档抽取出它们的主题(分布)出来后,便可以根据
  • 1
  • 2
  • 3
  • 4
  • 5