本文主要是介绍Android安卓麻将识别研发流程( 一 ),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Android安卓麻将识别研发流程( 一 )
未经过允许不得转载,转载请联系我,如何联系,点我头像。
连载已经完结,
百度网盘测试APP下载地址:
链接:https://pan.baidu.com/s/1grwUcLkI9i3OABsLtB5h3Q
提取码:pkbl
先见效果图,另外我已经上传到了抖音视频,想看NB效果,可以点击链接直接观看:
http://v.douyin.com/roLnjL/
本人从事机器学习有一些时间,感觉与一般做APP应用也没有啥差别,现在每天就是准备样本 ,调整参数,训练,验证结果。可能是我还没有达到哪些教授的水平能设计神经网络吧,感觉也就是一般马龙该做的杂七杂八事情。另外我更加关注移动设备AI的实现与效果,体验一样重要,识别的速度要快!
接下来的博客开始记录我研究过程,过程是:采集样本->标注->训练->测试。
先从准备样本开始。找一台高清拍照手机, 一张桌子, 一副麻将牌。刚好这些家里都有(* ̄︶ ̄)。
麻将一共27张不同的牌,先将麻将找出来。
一般训练都需要图片,打算每张麻将拍摄100张左右,80张用于训练,20张用于测试。样本可能算少了一点,考虑到麻将背景单一,结构比较简单,根据我经验,这些样本应该算是一般够用的。
拍摄图片拷贝到电脑,但是考虑到这些图片张数特别多100*27 = 2700张。这么多图片拷贝还是挺麻烦的,关键是图片还要按命名规范,重命名2700个图片就已经很累的,更别说去打标了。 由于这样,本人考虑可以拍摄视频,通过将视频裁剪出一张一张这样就简单多了,只用拍摄27个视频文件,只用重命名27个视频文件,通过python脚本将图片截出来,放到对应文件夹即可,既然会python,不得已才用人工啊 。
拍摄视频技巧: 内心假设有一个半球透明遮罩盖在麻将上面,打开相机录像,验证遮罩上下左右四面八方来一遍,记得过程要缓慢,运动过快拍摄视频会比较模糊,后期图片也会比较模糊。
上图就是拍摄的视频文件,实际多一个麻将背景图视频。
接下来就要上python了,将视频截图保存到对应目录,并且按照一定的命名规范。如下图,
当然算法裁剪后的图还是需要简单人工挑选的,删掉没有麻将的图,删掉比较模糊的图。
现在开始上代码了,下一节将讲如何打标。
算法虽然简单,但是包含了命名规范,避免文件名相同覆盖,自己感觉还是很特意的。
for videodir in dirs:print('dealing {}'.format(videodir))videopath = os.path.join(VIDEO_PATH,videodir)cap = cv2.VideoCapture(videopath)videoname=os.path.splitext(videodir)[0]if videoname.find('_')>=0: videoname=videoname.split('_')[0]print('videoname= {}'.format(videoname))imagepath_parrent = os.path.join(IMAGE_PATH,videoname)ret = cap.isOpened()if ret:if os.path.exists(imagepath_parrent)== False:os.mkdir(imagepath_parrent)imagepath = os.path.join(imagepath_parrent,videoname)frame_num = 0frame_step = 0frame_success = 0while ret:ret,cameraImg = cap.read()frame_num+=1if frame_num%8==0:frame_success+=1frame_step=frame_step+1;cv2.imwrite(getImageFilePath(imagepath,frame_step), cameraImg)print('done {},total {}'.format(videodir,frame_success))
这篇关于Android安卓麻将识别研发流程( 一 )的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!