打包为可安装的桌面应用打包需要下载安装 nisi 和 nis edit 两个软件,下载地址如下:安装按默认设置安装即可。 nsis下载地址:https://pan.baidu.com/s/1mitSQU0 安装好上述软件后,首先打开 nis软件,依次点击菜单栏【文件】→【新建脚本:向导】。   &n
列表界面 取值工具类package nc.ui.pubapp.util; import nc.ui.pub.bill.BillItem; import nc.ui.pub.bill.BillListPanel; import nc.ui.pub.bill.BillModel; import nc.ui.pub.bill.IBillItem; import nc.vo.pub.lang.UFBoo
转载 2024-10-22 14:24:27
38阅读
1. Git安装与配置 1.1 Git安装1、选中GIT安装包,Git-2.13.0-64-bit.exe  单击右键,弹出对话框,点击【解除锁定】。   2、双击GIT安装包,Git-2.13.0-64-bit.exe 开始安装(如有安全告警,点击运行)   3、出现授权信息页面,点击下一步即可 
1.1 从现实对象到数学模型现实世界被人们认识、建造、控制的对象,以它们的各种形式的模型——实物模型、照片、图表、公式、程序……汇集在人们面前。原型和模型原型人们在现实世界里关心、研究或者从事生产、管理的实际对象。科技领域中通常使用系统(System)、过程(Process)等词汇,如机械系统、电力系统、钢铁冶炼过程、化学反应过程等。模型为了某个特定目的将原型的某一部分信息简缩、提炼而构造的原型替
YOLO模型共有五种模型规格,规格越大的模型准确率越高,相应的预测时间也就越长。一般默认选择YOLOv5s,也可根据需求选择更大或更小的模型。 这里以YOLO v5s为例,分析YOLO的网络结构。YOLO v5模型思想yolov5s.yaml文件配置变量# Parameters # 检测的类别数 nc: 80 # number of classes # 控制网络的深
要重视图神经网络理论简介Open Neural Network Exchange(ONNX,开放神经网络交换)格式,是一个用于表示深度学习模型的标准,可使模型在不同框架之间进行转移。 ONNX是一种针对机器学习所设计的开放式的文件格式,用于存储训练好的模型。它使得不同的人工智能框架(如Pytorch, MXNet)可以采用相同格式存储模型数据并交互。 ONNX的规范及代码主要由微软,亚马逊 ,Fa
下面从几个方面介绍下自己的采坑之路:NCNN自带模型的benchmarkNCNN交叉编译到rk3288(armv7架构)和rk3399(armv8架构)的方法NCNN转换其他模型并加入benchmark中NCNN自带模型的benchmark1. 下载NCNNNCNN这类开源引擎都可以从github上下载下来,下载下来的整个文件夹就像一个完整的软件或者生态系统一样,之后的所有操作都会在这个文件夹里完
0.调用实例先看一个调用实例,顺着调用流程探寻ncnn内部具体实现细节。#include "net.h" int main(int argc, char **argv) { ncnn::Mat in; ncnn::Mat out; ncnn::Net net; net.load_param("model.param"); net.load_mo
转载 2024-03-19 20:28:41
179阅读
github https://github.com/Tencent/ncnnncnn 是一个为手机端极致优化的高性能神经网络前
原创 2022-08-06 00:04:32
1128阅读
1、下载和编译ncnngit clone https://github.com/Tencent/ncnn cd ncnn mkdir build && cd build cmake .. #编译目录下的CMakeLists.txt 打开根目录下的CMakeLists.txt文件,定位到最后六行,修改如下: add_subdirectory(examples) # add_
转载 2023-07-10 22:12:35
272阅读
代码链接:本代码可以在模拟器下进行跑。环境:windows10Android studio 3.6Sdk:android10 api 29Ndk:r15cNcnn:20200226Linux下的代码测试:cd mtcnn_linux/build cmake .. make ./mtcnn如果可以跑通,输出正确结果,证明mtcnn代码的准确性。实际操作的时候,首先基于linux把c++代码调试通,方
主要任务:将mobileNet模型转换为ncnn模型 参考博客:           实现方法: 1、前提条件:下载并成功编译ncnn (主要参考github文档:https://github.com/Tencent/ncnn/wiki/how-to-build) install g++ cmake protobuf
转载 2024-08-22 11:43:47
143阅读
目前主流的格斗游戏一般都是采用的P2P方式进行对战,国内的网络环境参差不齐,游戏对战体验极差,主流的加速器也仅仅是加速了大厅,对于对局并没有加速效果.最终在大佬的推荐下找到了N2N! 版本选择N2N存在众多的版本,如v1、v2、v3、v2s,如何选择适合自己的版本呢?V1此版本为官方N2N项目v1版本的修改版,最后一次Commit为2017年,目前已被弃用,不建议使用。V1项目地址:n2n
转载 2024-05-14 15:51:16
140阅读
0.调用实例先看一个调用实例,顺着调用流程探寻ncnn内部具体实现细节。#include "net.h" int main(int argc, char **argv) { ncnn::Mat in; ncnn::Mat out; ncnn::Net net; net.load_param("model.param"); net.load_mo
转载 2024-07-02 07:27:54
159阅读
ncnn git:https://github.com/Tencent/ncnnncnn 是一个为手机端极致优化的高性能神经网络前向计算框架。ncnn 从设计之初深刻考虑手机端的部署和使用。无第三方依赖,跨平台,手机端 cpu 的速度快于目前所有已知的开源框架。基于 ncnn,开发者能够将深度学习算法轻松移植到手机端高效执行,开发出人工智能 APP,将 AI 带到你的指尖。ncnn 目前已在腾讯多
转载 2024-06-05 07:16:22
215阅读
目录一、下载yolov5源码和模型二、导出onnx模型三、配置ncnn并生成param和binncnn环境搭建:记住生成的param和bin的名字编辑param文件设置动态尺寸推理记住permute三个值然后用ncnn的ncnnoptimize工具优化一下param和bin:四、调整yolov5.cpp源码并重新编译ncnn得到最新的yolov5执行程序第一个改动(上边说到的第一个对应起来):&n
转载 2024-07-01 16:36:45
393阅读
源码结构benchmark:一些常见模型的模型文件,如mobilenet,resnet,vgg等。 cmake:有关链接openmp和valkan的cmake文件,这两个都是并行计算加速用的 docs:文档,包括开发指南,构建指南等等 examples:使用ncnn的示例,包括几个常用模型的cpp调用示例,及其cmakelist文件 images:此目录无关紧要,是页面上的图片 src:ncnn
综述最近在研究ocr模型(包括文本检测和文本识别)在安卓端的部署,由于工作中用到的算法是基于百度研发的PPOCR算法,最终需要在安卓端落地应用,部署框架使用的是ncnn框架,中间涉及模型转换和部署的问题,所以特意在此做一个记录,本文主要讲一下模型部署的问题,关于模型转换的讲解详见我的另一篇文章:安卓端部署PPOCR的ncnn模型——模型转换说到模型部署,顾名思义,就是通过部署框架编写相关代码使模型
转载 2024-03-13 10:38:05
138阅读
编译版本,默认配置,android-ndk-r21d,cctools-port 895 + ld64-274.2 + ios 10.2 sdk libc++ncnn-android-lib 是 android 的静态库(armeabi-v7a + arm64-v8a + x86 + x86_64)ncnn-android-vulkan-lib 是 android 的静态库(armeabi-v7a
页面上一个button,点击之后触发一个function去请求数据,返回 pdf/epub 的URL,然后下载这个文件.本来是直接用 a 写的,href里放资源地址,target设为'_blank'效果良好.但这样所有的资源都会直接暴露而且不方便统计,所以就换用上面的方式.js构造a标签,js触发click.不加_blank是可以的,但会替换掉原来整个页面.加了_blank chrome就拦截,S
转载 2023-12-14 17:04:40
79阅读
  • 1
  • 2
  • 3
  • 4
  • 5