已知旋转角度和旋转点和旋转后向量的模 计算向量的方向; 计算旋转后的角; 将已知的旋转后向量的模向x和y两个方向投影 旋转点分别加上投影后的长度即可得到旋转后另一端点坐标 def vectorTransform(p1, p2, p, angle, l): """ Function: get the point by vector transform Parameters: p1: [x, y], the start point of vector p2: [x, y], the end point of ...
TensorRT Custom Plugin
NVIDIA官方关于TensorRT所有的文档: NVIDIA Deep Learning SDK TensorRT Archives TensorRT介绍TensorRT安装TensorRT应用TensorRT自定义层
手撕image resize
// 功能: 采用双线性插值对图像进行尺寸变换// 参数: cv::Mat srcImg 输入图像// cv::Mat dstImg 输出图像// 说明:// 这里需要借助opencv读图像,所以函数的两个参数是opencv的格式void warpAffine(cv::Mat srcImg, cv::Mat dstImg){ // apply transform Eigen::Matrix<float, 3, 1> srcP; Eigen::Matrix<float, 3, 1> dstP; float x, y, ...
NanoPi-R1烧写lede固件到eMMC
这里着重介绍烧写至eMMC方式 介绍 NanoPi R1(以下简称R1)是友善之臂团队面向创客、嵌入式爱好者,电子艺术家、发烧友等群体推出的又一款完全开源的掌上创客神器。 NanoPi R1有两个网口,一个千兆网络,一个百兆网络,并支持2.4G Wi-Fi,友善之臂团队为NanoPi R1专门移植了OpenWRT系统,只需要简单的设置,就可打造一款完全属于你自己的路由器。 有两个版本主要差别在: DDR3 RAM: 512MB/1GB Storage: NC/8GB eMMC 准备工作 NanoPi R1主板 友善USB转TTL串口线USB2UART(eM ...
Caffe模型训练数据可视化
记录训练日志训练阶段需要加上-log_dir ./log/, 其中./log/为log文件存放文件文件夹: ~/caffe/build/tools/caffe train --solver=~/caffe/examples/mydata/slot_classifier/solver.prototxt -log_dir ./log/ 解析训练日志将caffe/tools/extra文件夹下的extract_seconds.py, parse_log.py, parse_log.sh, plot_training_log.py.example拷贝到上述的./log/文件夹下. 分步法 修 ...
GL-iNet AR750 官方固件安装SSR Plus 插件
简介GLiNet 他家路由系统采用的是开源 OpenWrt 系统并在 github 上开源并提供 sdk 和很多插件。 GLiNet 有自家刷不死的 uboot 可玩性很高。这里没有直接去刷第三方固件是因为喜欢他们家定制的UI可以比较方便的启用ap模式加入网络。所以就想着自建编译ipk插件在开源的openwrt固件内安装插件。 需要准备的环境和工具 一台出国留学的Linux(这里用了ubuntu16.04 LTS) L大开源的插件 Git-Lede GLiNet 官方 SDK 还有一台 AR750 (官方openwrt-ar750-3.010.bin固件) SSH客户端这里用了MobaXter ...
特征尺寸(Feature Map)和感受野(Receptive Field)计算
什么是感受野(Receptive Field)? The receptive field is defined as the region in the input space that a particular CNN’s feature is looking at (i.e. be affected by). 理论上定义,卷积神经网络中每层的特征图(Feature Map)上的像素点在原始图像中映射的区域大小,也就相当于高层的特征图中的像素点受原图多大区域的影响! 一个特征点的感受野可以用其所在的中心点位置(center location)和大小(size)来描述。然而,某卷积特征点所 ...
神经网络参数量(weights)计算
--> 最近在估计往TDA4上移植模型的大小,ResNet18实际模型大小大概为44M,而我自己计算的只有11M左右? 所以就想写一篇文章来讲一下如何计算网络的参数量。为了搞清楚参数量的计算,首先我们先搞清楚参数量的定义。 参数量就是指,模型所有带参数的层的权重参数总量。视觉类网络组件中带参数的层,主要有: 卷积层、BN层、全连接层等。(注意: 激活函数层(relu等)和Maxpooling层、Upsample层是没有参数的,不需要学习,他们只是提供了一种非线性的变换) 理论公式部分存储单位转换 1 bit = 2^8 1 Byte = 8 bits = 2^8 1 word ...