学习数据结构 -> 算法介绍1. 算法定义    从广义上讲, 算法是指解决问题方法和步骤。    在计算机中, 算法是指令有限集合, 而每一条指令表示一个或多个操作。        例如解决将大象装冰箱里算法为:     
GPUTFLOPS(Tera FLOPS)指的是每秒可以进行万亿次浮点运算(Floating Point Operations Per Second)。计算GPUTFLOP
原创 7月前
948阅读
《算力网络中高效算力资源度量方法》论文解读与实验复现论文摘要关键词论文贡献研究现状传统资源度量技术CPU性能衡量GPU性能衡量算力资源度量技术方案设计设计原则工作流程实验评估实验复现算力度量指标数据集构造算法复现复现结果一些思考 论文摘要算力度量研究处于起步阶段,已有的度量方法相对单一,只考虑了部分静态或动态指标,难以保证算力资源利用率和算力资源匹配准确率。设计了先静后动混合式度量方法(hy
下面的记录只是方便自己翻阅,建议去原博客观看Pytorch 分布式训练主要有两种方式:torch.nn.DataParallel ==> 简称 DP torch.nn.parallel.DistributedDataParallel ==> 简称DDP其中 DP 只用于单机多卡,DDP 可以用于单机多卡也可用于多机多卡,后者现在也是Pytorch训练主流用法,DP写法比较简单,但即使
转载 2024-01-29 01:43:00
0阅读
作者 | 老石谈芯老石目前,全世界超过90%数据都是在过去两三年之内产生。随着人工智能、自动驾驶、5G、云计算等各种技术不断发展,海量数据都将会继续源源不断产生。预计到2025年,数据总量将比现在增长10倍。在这些技术发展中,很大一部分都基于对大数据研究和分析。正因为如此,很多人就形象将数据比喻为人工智能时代石油。为了对海量数据进行处理,基于传统CPU
首先注意区分“最小路径覆盖”(minimum path cover)和“最小边覆盖”(minimum edge cover)以及“最小点覆盖”(minimum vertex cover)之间区别。详细资料可以查询Wiki。 最小路径覆盖可以转化为二分图最大匹配(maximum bipartite matching) 。公式为最小路径覆盖数=原图节点数-二分图最大匹配数。求最大匹配方法有两种:
深度学习中FLOPS和FLOPs区别与计算FLOPSFLOPs单位换算Params和FLOPs计算CONV标准卷积层FC全连接层NVIDIA GPU浮点计算能力GPU计算能力衡量指标描述GPU计算能力指标 我们在购买GPU或者计算目标检测模型复杂度时候,一般会遇到FLOPS和FLOPs这两个指标,在此加以区分。 FLOPSFLOPS(全部大写)是floating point op
本节我们将介绍 Pytorch动态计算图。包括:动态计算图简介计算图中Function计算图和反向传播叶子节点和非叶子节点计算图在TensorBoard中可视化一,动态计算图简介Pytorch计算图由节点和边组成,节点表示张量或者Function,边表示张量和Function之间依赖关系。Pytorch计算图是动态图。这里动态主要有两重含义。第一层含义是:计算图正向传播是立即执行
# PSO算法pytorch实现 ## 引言 粒子群优化算法(Particle Swarm Optimization, PSO)是一种模拟鸟群觅食行为优化算法,它通过模拟鸟群个体间信息交流和合作来搜索最优解。PSO算法被广泛应用于函数优化、机器学习领域,如神经网络训练、特征选择等。本文将介绍PSO算法基本原理,并使用pytorch库实现一个简单PSO算法示例。 ## PSO算法原理
原创 2023-12-23 08:02:30
383阅读
# 使用PyTorch实现推荐系统 在这篇文章中,我将逐步向你介绍如何使用PyTorch构建一个简单推荐系统。推荐系统目标是根据用户历史行为或某些特征,为用户推荐他们可能感兴趣物品。我们将通过简单明了步骤来实现。 ## 流程图 以下是构建推荐系统基本流程图(使用Mermaid语法): ```mermaid flowchart TD A[数据准备] --> B[数据预处理
原创 9月前
73阅读
# 使用 PyTorch Apriori 算法包实现关联规则学习 ## 什么是 Apriori 算法? Apriori 算法是一种经典关联规则学习算法,主要用于发现数据集中频繁项集和生成关联规则。它核心思想是“无频不约”,即如果某个项集是频繁,那么它所有子集也必定是频繁。 ## PyTorch Apriori 算法包 虽然 PyTorch 主要用于深度学习,但它也提供了
原创 2024-10-22 06:51:31
36阅读
TFLOPS(每秒万亿次浮点运算)是衡量计算机性能单位,表示每秒钟可以执行一万亿次浮点运算。计算方法:TFLOPS计算公式为:示例:假设一台计算机有8个核心,每个核心时钟频率为2 GHz(即每秒20亿次时钟周期),每个时钟周期可以执行4次浮点运算。那么,这台计算机TFLOPS为:需要注意是,实际性能可能受到多种因素影响,如内存带宽、I/O性能和系统架构等。更多示例:超级计算机性能: 全
原创 7月前
566阅读
 第一篇链接:LLM 参数,显存,Tflops? 训练篇(1) (qq.com)      第一篇我们讲完了Self-Attention层算力要求和每一步生成形状,      上节课我们讲红框里内容,我们继续从下往上看, 两个LN层就别看了也没啥特别多可学习对象(跟MHA和FFN相比),其实还有什么drop out啥
原创 2024-03-03 10:04:43
94阅读
 上篇文章链接LLM 参数,显存,Tflops? 训练篇(3) (qq.com)      上上篇文章链接 LLM 参数,显存,Tflops? 训练篇(2) (qq.com)      上上上篇文章链接 LLM 参数,显存,Tflops? 训练篇(1) (qq.com)     
原创 2024-03-07 09:43:11
65阅读
很多第一次接触云计算小白不懂如何购买阿里云服务器,不清楚该如何选购云服务器配置才能满足业务需求,为此笔者整理购买阿里云服务器教程(小白篇),希望能在选购云服务器配置上能帮助到大家!这个教程是2020年以前,现在阿里云官网界面都改版了。所以我也整理最新教程:一:访问阿里云官网二:注册阿里云账号,或者使用淘宝账号登录激活阿里云账号。三:从产品里面选择云服务器ECS四:进入页面后选择立即购买,当天
 如果你要训练一个模型大概会考虑哪些因素?     模型多大?参数     占用显存多少,能不能装下     我需要多少算力来支撑        本文就针对一个标准Transfomer模型套路和大家简单说一下     &nb
原创 2024-02-28 09:42:10
198阅读
     上篇文章链接 LLM 参数,显存,Tflops? 训练篇(2) (qq.com)      上上篇文章链接 LLM 参数,显存,Tflops? 训练篇(1) (qq.com)      书接前文      上节课我们推导出来了算力公式,主要是前向计
原创 2024-03-06 09:21:06
104阅读
上篇文章链接 LLM 参数,显存,Tflops? 训练篇(4) (qq.com)      上上篇文章链接LLM 参数,显存,Tflops? 训练篇(3) (qq.com)上上上篇文章链接 LLM 参数,显存,Tflops? 训练篇(2) (qq.com)上上上上篇文章链接 LLM 参数,显存,Tflops? 训练篇(1) (q
原创 2024-03-08 08:47:54
268阅读
文章目录来自于 https://tangshusen.me/Dive-into-DL-PyTorch/#/官方文档 https://pytorch.org/docs/stable/tensors.html一、创建tensor二、数据操作索引,共享内存改变形状 view,虽然改变了形状,但共享data内存返回新副本,即不共享内存三、广播机制运算内存开销四、Tensor 和 NumPy 相互转换所
1. torch.nn与torch.nn.functional之间区别和联系nn和nn.functional之间差别如下,我们以conv2d定义为例torch.nn.Conv2d import torch.nn.functional as F class Conv2d(_ConvNd): def __init__(self, in_channels, out_chann
  • 1
  • 2
  • 3
  • 4
  • 5