HarmonyOS实现简单的图像识别
本案例基于最近邻分类器这一分类器算法模型,在HarmonyOS上实现了简单的图像识别。事实上,最近邻分类器用在图像识别上的灵敏度并不高(错误率还是有点大的),而笔者编写这个案例的初衷,是为了能体验最近邻分类器的思维,以及探索如何在HarmonyOS中处理图像数据。开发环境要求
正文
下面是关于最近邻分类器的一个简单例子:
假设在传送带上有两种鱼,分别是鲈鱼(seabass)和鲑鱼(salmon)。现在我们需要用光学传感器对传送带上的鱼按品种进行分类,因此需要设计一个分类器,不妨设计一个最近邻分类器。假如我们只考虑鱼的两个特征——宽度和鱼身的亮度,现在我们选取十条鲈鱼和十条鲑鱼进行特征提取,并建立一个平面直角坐标系(y轴用于表示宽度特征的数值,x轴用于表示亮度特征的数值,这样就构成了一个二维特征空间),再将每条鱼的由其宽度值和亮度值确定的坐标在图中显示出来。
图中,红色点代表鲑鱼样本的特征向量,蓝色点代表鲈鱼样本的特征向量,它们都属于被训练的数据。当检测设备获取了某条品种未知的鱼的亮度特征和宽度特征时,最近邻分类器所要做的是:先将此品种未知的鱼的亮度值和宽度值表示成特征空间上的向量P,然后计算向量P与每个已训练样本向量的距离。其中,距离采用欧式范数,在二维空间中计算公式为:
由于先前已训练了20项数据,所以我们可以获取20项距离数据,将它们表示为d1, d2, ... ,d20。接着,分类器通过逐项比较获取最小距离di(i∈[1,20]∩N),这意味着第i个已训练样本是未知品种的鱼的最近邻。因此,当第i个已训练样本属于鲈鱼品种时,上述品种未知的鱼将被分类为鲈鱼,否则分类为鲑鱼。
基于最近邻分类器的图像识别算法
找出被测样本的最近邻后,我们便可以凭借此最近邻进行图片分类。
─entry/src/main├─ module.json5├─ resources│├─ zh_CN│├─ rawfile││├─ p1.png││├─ p2.png││├─ p3.png││├─ p4.png││├─ p5.png││├─ p6.png││├─ s1.png││└─ s2.png│├─ en_US│└─ base└─ ets├─ XL_Modules│└─ XL_Image_NNC.ts├─ pages│└─ Index.ets└─ entryability└─ EntryAbility.ts
在本案例中,不论是用于训练分类器的图片还是待检测的图片,都需要提前放入Demo
的rawfile目录下的。如果要获取某个图像资源,我们只需要知道此图像的名称(字符串数据),然后通过资源管理者模块resourceManager即可取得。如下给出以获取rawfile目录下名为'p1.png',大小为100px乘100px的图片资源为例,需要编写的相关操作语句。
let context = getContext(this)const resourceMgr = context.resourceManager
const imageSource = image.createImageSource(buffer)
const pixelMap = await imageSource.createPixelMap();
因为我们需要做图像处理,所以还需要创建一个ArrayBuffer实例(buffer对象),并读取PixelMap实例的数据至buffer中。这样,buffer就是一个储存了p1.png图像数据的BGRA_8888格式的数组(也可以称之为向量)了。
let dim = 100*100*4//维度let buffer = new ArrayBuffer(dim)await pixelMap.readPixelsToBuffer(buffer).catch(err => {console.error(`err: +${err}`)})
由于buffer是BGRA_8888格式的数组,所以buffer中第i,i+1,i+2, i+3(i∈[0,dim/4-1])分别代表某个像素点蓝色分量(B),绿色分量(G),红色分量(R)和透明度分量(A)。因为本案例的图像识别是在灰度图的基础上进行的,所以我们还需要将BGRA_8888格式的数组转化为灰度值数组。
RGB图转灰度图并不难,只需要将每个像素点的蓝色,绿色和红色分量加权求和,就可以得到每个像素点的灰度值。其中,灰度值 = (红色通道值 * 0.299) + (绿色通道值 * 0.587) + (蓝色通道值 * 0.114)。这里的加权系数是根据人眼对不同颜色敏感度的差异来确定的。
XL_Image_NNC.ts
import image from '@ohos.multimedia.image';import common from '@ohos.app.ability.common';//所操作图片的尺寸(图片的宽高一致)const OPERATION_SIZE = 100/* * 函数名: Get_NumberType_Array_MinValue_Index * 描述: 返回输入的number型Array中数值最小的元素所在索引 */function Get_NumberType_Array_MinValue_Index(arr:Array<number>):number{let location:number = 0for(var i = 0; i < arr.length; ++i){if(arr[i]<arr[location]){location = i}}return location}//最近邻分类器能力接口interface I_Nearest_Neighbor_Classifier{train(context:common.Context,Train_Data:Array<string>)identify(test_data:string)}/* * 类名: XL_Image_NNC * 描述: 基于最近邻分类器的图像识别模块 */class XL_Image_NNC implements I_Nearest_Neighbor_Classifier{//日志标签private TAG:string = '------[XL_Image_NNC] '//BGRA_8888图对应向量的规模private dim_rgb:number = 4*(OPERATION_SIZE**2)//灰度图对应向量的规模private dim_gray:number = OPERATION_SIZE**2//RGB图向量转化为灰度图向量时, 三原色(red green blue)通道值各自占灰度值的权重, 并且满足R_Weight + G_Weight + B_Weight = 1private R_Weight:number = 0.299private G_Weight:number = 0.587private B_Weight:number = 0.114//已加入的图像向量的集合(BGRA_8888)private Trained_Data_RGB:Array<Uint8Array> = []//已加入的图像向量的集合(灰度图)private Trained_Data_Gray:Array<Uint8Array> = []//存储距离(欧式范数)的数组private Distance_Array:Array<number> = []//储存资源管理模块的变量private resourceMgr = null/** 方法名: train* 描述: 为分类器填充数据, 使得分类器获取监督模式识别的功能* 参数: context: UIAbility的上下文对象Train_Data: 待训练的图片集(图片需要提前储存在rawfile目录下)*/public async train(context:common.Context,Train_Data:Array<string>) {//通过context获取ResourceManager(资源管理模块)this.resourceMgr = context.resourceManager//遍历和处理待输入的图片数据for (var item of Train_Data) {//通过resourceMgr的getRawFileContent方法(填入图片的文件名字符串),获取rawfile目录下某个图片所资源对应的UintArraylet rawData = await this.resourceMgr.getRawFileContent(item)//通过先前获取的UintArray创建ImageSource实例let imageSource = image.createImageSource(rawData.buffer)//通过ImageSource实例创建像素表let pixelMap = await imageSource.createPixelMap()//将像素表读取到新建的ArrayBuffer变量中let buffer = new ArrayBuffer(this.dim_rgb)await pixelMap.readPixelsToBuffer(buffer).catch(err => {console.error(this.TAG+`err: +${err}`)})//最后将ArrayBuffer携带的RGB型图像向量存入Trained_Data_RGB(向量集合)中this.Trained_Data_RGB.push(new Uint8Array(buffer))}//将获取的RGB型图像向量集合转化为灰度型图像向量集合for(var element of this.Trained_Data_RGB){let GrayScaleVector = new Uint8Array(this.dim_gray)let index:number = 0//遍历RGB型图像向量的元素for(var i = 0; i < element.length; i++){if((i+1)%4 == 0){//获取像素点的R,G,B通道值, 将他们加权求和得到灰度值var grayScale = this.R_Weight*element[i-3]+this.G_Weight*element[i-2]+this.B_Weight*element[i-1]//存储GrayScaleVector[index++] = grayScale}}//最后将GrayScaleVector携带的灰度型图像向量存入Trained_Data_Gray(向量集合)中this.Trained_Data_Gray.push(GrayScaleVector)}}/** 方法名: identify* 描述: 基于已获取的数据,完成监督模式识别,返回输入样本的最近邻在Trained_Data_Gray中的索引* 参数: test_data: 待识别的图片(图片需要储存在rawfile目录下)*/public async identify(test_data:string):Promise<number>{//排除异常情况if(this.resourceMgr == null){console.error(this.TAG+'Please train the image>
同往期一样,笔者青睐于将新开发的功能集成到一个ts文件里并导出,以方便管理与维护。在本模块中,功能被集成在类XL_Image_NNC中,其中,train方法用于为分类器训练数据(虽然不涉及迭代的过程,姑且将其称为"训练"吧),identify方法则是基于已训练的数据进行图像分类。
本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载者并注明出处:https://www.jmbhsh.com/muyingyongpin/36151.html