最近在搞反向连接,试来试去发现最好的工具还是nc。正好趁这个机会把nc的用法总结一下:
1.端口扫描:
  nc -vv ip port
  例:nc -vv 192.168.1.1 5000 扫描192.168.1.1的tcp 5000端口
  nc -vv -w secs ip port-port
  例:nc -vv -w 5 192.168.1.1 5000-5002 扫描192.168            
                
         
            
            
            
            A 深度学习算法要在手机上落地,caffe依赖太多,手机上也没有cuda,需要个又快又小的前向网络实现Q ncnn名字的来历A cnn就是卷积神经网络的缩写,开头的n算是一语n关。比如new/next(全新的实现),naive(ncnn是naive实现),neon(ncnn最初为手机优化),up主名字(←_←)Q 支持哪些平台A 跨平台,主要支持 android,次要支持 ios / linux            
                
         
            
            
            
            Because if you change the way you see the world, you can change the world you see.  如果你改变看世界的方式,你就能改变你眼前的世界!%26mdash; 微软Hololnes宣传片台词Windows 10 带了了什么呢?Windows 10是炎炎夏日的一场暴风雨,一扫酷热!一股新风给科技界注入新的活力!Hololne            
                
         
            
            
            
            综述最近在研究ocr模型(包括文本检测和文本识别)在安卓端的部署,由于工作中用到的算法是基于百度研发的PPOCR算法,最终需要在安卓端落地应用,部署框架使用的是ncnn框架,中间涉及模型转换和部署的问题,所以特意在此做一个记录,本文主要讲一下模型部署的问题,关于模型转换的讲解详见我的另一篇文章:安卓端部署PPOCR的ncnn模型——模型转换说到模型部署,顾名思义,就是通过部署框架编写相关代码使模型            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-13 10:38:05
                            
                                138阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            ncnn是腾讯开源的加速框架,对于移动端特别andriod做到了cpu上的极致优化,是工程落地的首选框架。对于pytorch模型转ncnn,一般的方法是先将.pt文件转为onnx,再通过ncnn库里的工具onnx2ncnn转换为ncnn模型。对于这种工程性质的落地,过程中会有数不清的坑,大家都懂!仅以此文记录一下在这个过程中踩过的坑!一、编译ncnn库的准备工作1.系统:ubuntu18.04 2            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-07-05 13:18:17
                            
                                110阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            ncnn 是一个为手机端极致优化的高性能神经网络前向计算框架。ncnn 从设计之初深刻考虑手机端的部署和使用。无第三方依赖,跨平台,手机端 cpu 的速度快于目前所有已知的开源框架。基于 ncnn,开发者能够将深度学习算法轻松移植到手机端高效执行。之前写了2篇博客,分别介绍了轻量级人像分割PP-HumanSeg的树莓派部署和ONNX windows部署。本篇博客将使用NCNN 将PP-HumanS            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-01-12 14:48:05
                            
                                437阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            windows上编译opencv使用cuda加速dnn模型推理环境资源准备软件安装Opencv源码下载CUDA资源准备进行编译cmake构建配置编译选项编译项目 环境资源准备本次编译环境是在windows11上使用VS2022+Cmake进行编译的。 硬件环境GPU:笔记本端的RTX3060软件环境:Windows11 Visual Studio 2022 专业版 cmake-3.25.2需要准            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-14 16:57:48
                            
                                195阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            开学时,给自己定的学习任务,直到今天才有闲空来完成。一方面是yolo代码初看觉得乱糟糟的,不想读;其次,yolo算法对于初触深度学习的我而言,还是有较大的难度。今天学习成果就是弄懂了,yolov5的Idea+模型的构建+实现源码类似ViT的阅读,阅读完后觉得,还是自顶向下解析比较清晰。YOLOv5系列:解析索引一、Yolo v5 模型结构 模型整体分为:1.BackBone2.Neck3            
                
         
            
            
            
            1.1 项目准备1.1.1. 安装Android studio这个百度上有很多对应的经验体随便找一个教程然后切换一下国内源即可安装成功这里不做赘述 这里需要说明一点我们应该安装NDK、Cmake这里根据自己的手机版本来选择对应的开发环境最后点击应用安装1.1.2. 下载解压源码下载解压NCNN和ncnn-android-yolov5工程                   
                
         
            
            
            
             目录1、刷机硬件准备2、刷机软件准备①、下载 jetson nano系统镜像②、下载 SD卡格式化软件-- SD Card Formatter③、将镜像文件写入microSD卡-- Etcher3、安装系统4、查看系统信息命令①、查看系统版本命令②、查看Linux版本号 1、刷机硬件准备①、 Jetson nano 开发套件,厂家标配;②、 MicroSD 卡,至少 16GB和读卡器;③、 5V            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-17 11:38:37
                            
                                144阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            Linux nc命令用法-g<网关>:设置路由器跃程通信网关,最多设置8个;
-G<指向器数目>:设置来源路由指向器,其数值为4的倍数;
-h:在线帮助;
-i<延迟秒数>:设置时间间隔,以便传送信息及扫描通信端口;
-l:使用监听模式,监控传入的资料;
-n:直接使用ip地址,而不通过域名服务器;
-o<输出文件>:指定文件名称,把往来传输的数据以            
                
         
            
            
            
            # NCNN部署Android的指南
在移动设备上进行深度学习推理变得越来越常见,尤其在Android平台上。NCNN是腾讯开源的高性能神经网络前向推理框架,特别适合在手机等嵌入式设备上部署。本文将介绍如何在Android上部署NCNN,并提供相应的代码示例。
## 一、准备工作
在开始之前,确保以下工具已安装:
- Android Studio
- CMake
- NDK (Native            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-10-31 11:43:25
                            
                                510阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            最近工作需要研究了CPU部署,为了在香橙派上部署模型(想吐槽一下这个板子,可能是树莓派jetson玩多了,对这个板子一脸嫌弃)。我试了很多种方案,其中部署最简单且效果还不错的CPU部署方案是onnxruntime。简单过一遍yolov5的ncnn部署参考上一篇export.pt文件导出onnx格式,记得形参加上--train 导出后安装onnx-simplifier,裁剪掉不需要的层。下文还有py            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-07-15 17:04:47
                            
                                237阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            前言1.ubuntu环境 安装opencv4 2.安装g++,cmake,protobuf 3.安装并测试ncnn 4.cmake编译ncnn项目 5.qt编译器内编译ncnn项目正文因为ncnn库依赖 opencv 和 protobuf 因此你需要先配置好依赖环境再编译ncnn。一、ubuntu环境 安装opencv4方法1:如果你不需要指定opencv的版本 ,可以通过指令sudo apt i            
                
         
            
            
            
            俗话说:"功夫不负有心人",通过编译Linux内核时才能真正体会到.曾经也失败过无数次,放弃过一段时间编译.最后通过自己不断的实践和在网上收集这方面资料,终于在前不久编译成功了.把我在网上收集的资料和自己编译的过程整理了一下,拿来和大家分享一下,希望能给有这方面需要的同仁以帮助,好让大家少走弯路.言归正传:环境:VMware5.0 for windows(在新建虚拟机向导的"虚拟机磁盘类型"本人选            
                
         
            
            
            
            前言nc被誉为网络安全界的瑞士军刀,一个简单而有用的工具,通过使用TCP或UDP协议的网络连接去读写数据。下载安装windows下下载地址:https://eternallybored.org/misc/netcat/
下载解压将nc.exe 复制到C:\Windows\System32的文件夹下cmd命令nc即可(也可以配环境变量)
linux下:管理员权限下apt-get install ne            
                
         
            
            
            
            1. 介绍开篇先介绍、先甩资料给大家看,之后再自己演示一下基本使用。Ninja 是Google的一名程序员推出的注重速度的构建工具,一般在Unix/Linux上的程序通过make/makefile来构建编译,而Ninja通过将编译任务并行组织,大大提高了构建速度。3. 使用3.1. cmake生成一般是通过cmake来生成ninja的配置,进而进行编译。先从cmake-examples入门:git            
                
         
            
            
            
            序言上一篇文章记录了paddle-lite在arm开发板上部署PaddleOCR的流程,文末也提到了自己使用NCNN去部署的预告,正好今天刚好有时间,就写一篇文章记录一下NCNN部署的过程,本文暂时是介绍了部署在PC上,后面会再出一篇在arm开发板上部署的文章,因为流程基本上是一样的,可能有些同学对NCNN的部署不是太了解,所以从PC端讲起会更容易理解一些。一、环境准备因为只是在PC上部署,所以只需要ubuntu电脑一台,CMake这些环境默认是安装好了的,然后编译NCNN,编译的流程如下:在这里插            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2021-11-18 16:08:42
                            
                                1303阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            序言之前一篇文章写yolox的训练,这篇文章写一下关于部署,yolox之所以刚出来就这么火爆,不仅是精度高、速度快,很大程度上还是因为直接把部署的代码叶开源了,可谓是从训练到部署一条龙服务,很良心,yolox里面开源的部署代码有四种:ncnn、openvino、onnx和tensorrt,刚好手上有一个nano的板子,所以打算试试yolox使用ncnn在nano上的效果,写一篇文章记录一下过程。一、模型转换pytorch->onnx使用ncnn部署,模型转换的步骤还是:pytorch ->            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2021-11-18 16:31:22
                            
                                2291阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            0.调用实例先看一个调用实例,顺着调用流程探寻ncnn内部具体实现细节。#include "net.h"
int main(int argc, char **argv)
{
    ncnn::Mat in; 
    ncnn::Mat out;
    
    ncnn::Net net;
    net.load_param("model.param");
    net.load_mo            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-19 20:28:41
                            
                                179阅读