根据语料计算词向量,两种模式 CBOW 和 skip-gram # -*- coding:utf-8 -*- import os from gensim.models import word2vec class MySentences(object): def __init__(self, dirn
1、线性回归、逻辑回归 特征归一化(标准化)、正则化防止过拟合、激活函数的选择、迭代次数 2、KNN K值的选择、距离的定义、决策的权重(不同距离的点赋予不同的权重) 3、神经网络 特征归一化(标准化)、层数、每层的神经元个数、学习速率、批量 batch_size、激活函数、初始化参数,优化器的选择
learnrate 太大容易跑飞,设置激活函数 可以一定程度上增加learnrate,不跑飞 self.saver = tf.train.Saver() 和 self.init_variable = tf.global_variables_initializer() self.sess.run(se
1、tile 元素重复函数 第二个参数是一维 第二个参数是二维 第二个参数是三维 2、expand_dims 元素增加维度 3、求accuracy precision recall 4、不使用科学计数法
以下三种方式 对于需要循环多次调用方法的,可以使用缓存,需要注意的是,缓存不能直接加在yiled函数上
使用原生的python开发的web服务器,入门级!
1、包的导入 不建议采用如下写法,这样做会破坏命名空间: 应该这样写: 2、numpy 关于赋值 普通的赋值,如b=a,这时,a和b是一个对象,改变了a也就改变了b,并不是将a的值复制一份,赋值给b; 这样做的好处是优化代码效率;numpy尽量避免复制 3、numpy修剪函数 clip 4、绘制散点
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号