原由公司项目使用Spring Cloud微服务架构,随着服务的增加,开发调试变得有些麻烦。有些同事的电脑配置不高,无法在本地启动这么多的服务。公司有自己的dev环境,对于开发当前修改的服务可以直接注册到dev环境,使用其他未修改的服务,如Eureka,config等。但是,如果这个时候有前端正在dev调试,则会出现网关转发到本地开发中的服务,出现异常。出现上述情况的原因是因为Ribbon默认负载均            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-29 06:50:54
                            
                                35阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            风控模型中监督学习的任务最多,监督学习少不了变量x和目标y,前面的章节中说过准备的变量要尽量的多,就是因为这里有衡量变量预测力的数学指标,可以自动筛选变量。变量预测力的指标非常的多,有信息增益、信息增益率、gini、iv、卡方检验等, 这些指标有些和算法绑定在一起,也可以单独拿出来使用。本章重点介绍iv,它在本系列文章中的评分卡制作中会使用到。iv又称信息值,即information value,            
                
         
            
            
            
            目录1. 3 层神经网络的实现1.1 输入层数据到 1 层神经元1.2 1 层神经元到 2 层神经元1.3 2 层神经元到输出层神经元2. 输出层的激活函数2.1 恒等函数2.2 softmax 函数2.2.1 softmax 函数表达式2.2.2 softmax 代码实现 2.2.3 softmax 的改进2.2.3 soft            
                
         
            
            
            
            一、卷积层1. conv2D层:keras.layers.convolutional.Conv2D(filters, kernel_size, strides=(1,1), padding='valid', data_format=None, dilation_rate=(1,1),activation=None, use_bias=True, kernel_initializer='glorot            
                
         
            
            
            
            基本语法:<input type="hidden" name="field_name" value="value">作用:1 隐藏域在页面中对于用户是不可见的,在表单中插入隐藏域的目的在于收集或发送信息,以利于被处理表单的程序所使用。浏览者单击发送按钮发送表单的时候,隐藏域的信息也被一起发送到服务器。       &            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-16 08:25:28
                            
                                26阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            目录说明全连接层FC,全连接NN卷积Convolutional模型占用显存的计算 为了更好的说明问题,\另一个文中进行说明,本文内容都是一些概念/理论的东西,都是抄的。说明kernel  == filterfeature map ×n == outputDepth == channel符号参数说明Wi / Hi / CiWidth / Height / Depth of inp            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-26 15:29:23
                            
                                154阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
             文章结构前言常微分方程求解传递函数与状态方程最小二乘法模糊控制模糊控制器的设计模糊控制器的仿真曲线绘制结束语 前言作为控制学科的学生,在一年级的课程当中会涉及到一些MATLAB相关的作业,会用到一些常用的方法,如求解常微分方程、传递函数与状态空间方程、最小二乘法、模糊控制、曲线绘制等。为避免重复造轮子,还是有必要将这些简单的方法记录下来的。那么话不多说,接下来开始分部分进行叙述。常微分方程求解M            
                
         
            
            
            
            全连接神经网络 MLP最近开始进行模型压缩相关课题,复习一下有关的基础知识。1. MLP简介 上图是一个简单的MLP,这是典型的三层神经网络的基本构成,Layer L1是输入层,Layer L2是隐含层,Layer L3是隐含层。为了方便下面的公式描述,引入一张带公式的图。i是input层,h是hide层,o是output层。2. MLP 正向传播正向传播其实就是预测过程,就是由输入到输            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-07 20:57:26
                            
                                590阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            Convolutional Neural Networksfully connected layer在前面的课程中,我们用到的神经网络的层都是把输入展开与权重矩阵W做矩阵乘法,这也意味着输入数据将与W中的神经元每个都直接连接,所以这也叫全连接层,但是全连接层存在一些问题,比如说我们需要将输入的32323的彩色图像拉伸成13072的长向量才能与权重W连接,但是这个拉伸过程实际上就丢失了输入图像空间位            
                
         
            
            
            
            双边滤波很有名,使用广泛,简单的说就是一种同时考虑了像素空间差异与强度差异的滤波器,因此具有保持图像边缘的特性。先看看我们熟悉的高斯滤波器其中W是权重,i和j是像素索引,K是归一化常量。公式中可以看出,权重只和像素之间的空间距离有关系,无论图像的内容是什么,都有相同的滤波效果。再来看看双边滤波器,它只是在原有高斯函数的基础上加了一项,如下其中 I 是像素的强度值,所以在强度差距大的地方(边缘),权            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-31 05:40:14
                            
                                78阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            我们来特别地讨论网络的最后一层的设计,它除了和所有的隐藏层一样,完成维度变 换、特征提取的功能,还作为输出层使用,需要根据具体的任务场景来决定是否使用激活 函数,以及使用什么类型的激活函数。我们将根据输出值的区间范围来分类讨论。常见的几种输出类型包括: 文章目录一、普通实数空间二、[0,1] 区间三、[0,1] 区间,和为 1四、[-1,1] 一、普通实数空间这一类问题比较普遍,像正弦函数曲线预测            
                
         
            
            
            
            隐藏层:        多层感知机在单层神经网络的基础上引入了一到多个隐藏层(hidden layer)。隐藏层位于输入层和输出层之间。如下图:                              &nb            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-25 16:01:28
                            
                                281阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            使用弥散MRI和概率性纤维追踪可以构建全脑结构网络。然而,测量噪声和纤维追踪具有概率性,导致白质连接的比例不确定。在网络层面缺乏全面的解剖学信息,无法区分虚假和真实的连接。因此,网络阈值方法被广泛用于消除表面上错误的连接,但目前尚不清楚不同的阈值策略如何影响基本网络属性,及其与人口统计变量(例如年龄)的关联。在来自英国生物样本库成像研究(UK Biobank Imaging Study)的3153            
                
         
            
            
            
            import tensorflow as tfimport numpy as np&quot;&quot;&quot;本例子是用来演示利用TensorFlow训练出假设的权重和偏置&quot;&quot;&quot;# set datax_data = np.random.rand(100).astype(np.float32)y_data = x_            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2022-11-22 14:25:03
                            
                                134阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            摘要:本文是TensorFlow基础知识的第二部分。1、张量的典型应用1.1 标量一般用来进行误差值的表示、各种测量指标的表示,例如:准确率、精度、召回率等。下面举例:1.2 向量在神经网络当中,向量更是十分的常见,例如神经元的偏置值b一般就要用向量来表示,这里的向量就是【b1,b2】T例如我们现在要创建一个输入为5个结点,输出层为4个结点的线性网络层,那么此时创建的网络偏置值应该就是4维的,并且            
                
         
            
            
            
            接上节内容,线性模型除了用于回归外,其实还可以用于分类。我们可以利用如下公式:y = w[0]*x[0] + w[1]*x[1] + w[2]*x[2] + ... +s[p]*x[p] +b >0 这个公式和线性回归非常相似,但我们没有返回特征和加权求和,而是为预测设置了阈值(0)。如果函数数值小于0,我们就预测类别为-1,如果函数值大于0,则预测值为+1。对于所有用于分类的线性模型,这个            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-01-22 00:07:39
                            
                                45阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            一、引发思考的实验与问题:在一个非常小的二分类样本集(样本总数目63,“10-crop”法数据增强10倍,样本为矩阵保存为图片),通过ALexNet模型和VGG模型做分类任务,无论怎么调超参数,留出法重复50次的实验情况大致都如图A所示,而用Inception_v1的效果可以达到如图B所示。我就很奇怪为什么效果会差别这么大?按道理就算inception_v1模型有多尺度(并联卷积层)的设计思想,准            
                
         
            
            
            
            一、激活函数的意义:先简单介绍一下什么是激活函数~ 单一神经元模型如下图所示: 神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值传递给下一层,输入层神经元节点会将输入属性值直接传递给下一层(隐层或输出层)。在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数(又称激励函数)。下面进入正题,激活函数存在的意义是什么呢,为什么不直            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-26 14:52:14
                            
                                176阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            有部分内容是转载的知乎的,如有侵权,请告知,删除便是,但由于是总结的,所以不一一列出原作者是who。再次感谢,也希望给其他小白受益。首先说明:可以不用全连接层的。理解1:卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。因为用到了所有的局部特征,所以叫全连接。理解2:从卷积网络谈起,卷积网络在形式上有一点点像咱们正在召开的“人民代表大会制度”。卷积核的个数相当于候选人,            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-12 21:52:34
                            
                                72阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            1. Boosting算法基本原理 Boosting算法是一种由原始数据集生成不同弱学习器的迭代算法,然后把这些弱学习器结合起来,根据结合策略生成强学习器。 如上图,Boosting算法的思路: (1)样本权重表示样本分布,对特定的样本分布生成一个弱学习器。 (2)根据该弱学习器模型的误差率e更新学习器权重α。 (3)根据上一轮的学习器权重α来更新下一轮的样本权重。 (4)重复步骤(1)(2)(3            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-27 19:58:45
                            
                                112阅读
                            
                                                                             
                 
                
                                
                    