kinect 学习笔记二(深度图像的利用--抠取用户躯体)

2024-04-09 12:18

本文主要是介绍kinect 学习笔记二(深度图像的利用--抠取用户躯体),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

今天主要把深度数据和骨骼还有视频数据同步起来。算是上一次的三个的组合吧。期间遇到点白痴的问题整治了一下午:带ID的数据的ID是否准确。而且差点把自己的质疑给发到博客上来,竟然是自己代码的错误。伤心伤心。。。


直接把代码贴出来吧,也许有人觉得贴代码没水平,嗨,给自己留个小版本说不定以后还用得着,而且自信自己代码写的还算是规范,方便后来人嘛。再有一点,那个getTheContour函数画蛇添足了,实际直接利用深度数据的ID就可以抠出任务的区域。


先上实验结果:这是实时图像


然后是深度图像、骨骼图像和抠出的人体区域


这是代码,希望可以帮助到大家,当然,如果有错误欢迎指正:

#include <iostream>
#include <fstream>
#include  "math.h"
#include "Windows.h"    
#include "MSR_NuiApi.h"    
#include "cv.h"    
#include "highgui.h" using namespace std;bool tracked[NUI_SKELETON_COUNT]={FALSE};
CvPoint skeletonPoint[NUI_SKELETON_COUNT][NUI_SKELETON_POSITION_COUNT]={cvPoint(0,0)};
CvPoint colorPoint[NUI_SKELETON_COUNT][NUI_SKELETON_POSITION_COUNT]={cvPoint(0,0)};void getColorImage(HANDLE &colorEvent, HANDLE &colorStreamHandle, IplImage *colorImage);
void getDepthImage(HANDLE &depthEvent, HANDLE &depthStreamHandle, IplImage *depthImage);
void getSkeletonImage(HANDLE &skeletonEvent, IplImage *skeletonImage, IplImage *colorImage, IplImage *depthImage);
void drawSkeleton(IplImage *image, CvPoint pointSet[], int witchone);
void getTheContour(IplImage *image, int whichone, IplImage *mask);//得到各个人物的轮廓int main()
{IplImage *colorImage = cvCreateImage(cvSize(640, 480), 8, 3);IplImage *depthImage = cvCreateImage(cvSize(320, 240), 8, 3);IplImage *skeletonImage = cvCreateImage(cvSize(320, 240), 8, 3);IplImage *mask = cvCreateImage(cvSize(320, 240), 8, 3);HANDLE colorEvent = CreateEvent( NULL, TRUE, FALSE, NULL );HANDLE depthEvent = CreateEvent( NULL, TRUE, FALSE, NULL );HANDLE skeletonEvent = CreateEvent( NULL, TRUE, FALSE, NULL );HANDLE colorStreamHandle = NULL;HANDLE depthStreamHandle = NULL;HRESULT hr = NuiInitialize(NUI_INITIALIZE_FLAG_USES_COLOR | NUI_INITIALIZE_FLAG_USES_DEPTH_AND_PLAYER_INDEX | NUI_INITIALIZE_FLAG_USES_SKELETON);  if( hr != S_OK )  {  cout<<"NuiInitialize failed"<<endl;  return hr;  }hr = NuiImageStreamOpen(NUI_IMAGE_TYPE_COLOR, NUI_IMAGE_RESOLUTION_640x480, NULL, 4, colorEvent, &colorStreamHandle);if( hr != S_OK )  {  cout<<"Open the color Stream failed"<<endl;NuiShutdown();return hr;  }hr = NuiImageStreamOpen(NUI_IMAGE_TYPE_DEPTH_AND_PLAYER_INDEX, NUI_IMAGE_RESOLUTION_320x240, NULL, 2, depthEvent, &depthStreamHandle);if( hr != S_OK )  {  cout<<"Open the depth Stream failed"<<endl;NuiShutdown();return hr;  }hr = NuiSkeletonTrackingEnable( skeletonEvent, 0 );//打开骨骼跟踪事件  if( hr != S_OK )  {  cout << "NuiSkeletonTrackingEnable failed" << endl;  NuiShutdown();return hr;  }//HANDLE hEvents[3];//int nEventIdx;//hEvents[0] = colorEvent;//hEvents[1] = depthEvent;//hEvents[2] = skeletonEvent;int a=0;while (1){//刚开始想用WaitForMultipleObjects,但是怎么调都是值显示视频,深度很少显示,骨骼直接不显示。//自己理解不深入,只能临时用WaitForSingleObject这样了。//nEventIdx = WaitForMultipleObjects(sizeof(hEvents)/sizeof(hEvents[0]), hEvents, FALSE, 10);cout << nEventIdx << endl;//switch(nEventIdx)//{//case 0://	//if(WaitForSingleObject(colorEvent, 0)==0)//	getColorImage(colorEvent, colorStreamHandle, colorImage);//	break;//case 1://	//if(WaitForSingleObject(depthEvent, 0)==0)//	getDepthImage(depthEvent, depthStreamHandle, depthImage);//	break;//case 2://	//if(WaitForSingleObject(skeletonEvent, 0)==0)//	getSkeletonImage(skeletonEvent, skeletonImage);//	break;//}if(WaitForSingleObject(colorEvent, 0)==0)getColorImage(colorEvent, colorStreamHandle, colorImage);if(WaitForSingleObject(depthEvent, 0)==0)getDepthImage(depthEvent, depthStreamHandle, depthImage);if(WaitForSingleObject(skeletonEvent, INFINITE)==0)//这里使用INFINITE是为了避免没有激活skeletonEvent而跳过此代码出现colorimage频闪的现象getSkeletonImage(skeletonEvent, skeletonImage, colorImage, depthImage);for (int i=0; i<6; i++){if(tracked[i] == TRUE){cvZero(mask);getTheContour(depthImage, i, mask);tracked[i] = FALSE;break;}}cvShowImage("mask", mask);cvShowImage("colorImage", colorImage);cvShowImage("depthImage", depthImage);cvShowImage("skeletonImage", skeletonImage);if(cvWaitKey(20)==27){cvReleaseImage(&colorImage);cvReleaseImage(&depthImage);cvReleaseImage(&skeletonImage);break;}}NuiShutdown();return 0;
}void getColorImage(HANDLE &colorEvent, HANDLE &colorStreamHandle, IplImage *colorImage)
{const NUI_IMAGE_FRAME *colorFrame = NULL;NuiImageStreamGetNextFrame(colorStreamHandle, 0, &colorFrame);NuiImageBuffer *pTexture = colorFrame->pFrameTexture;  KINECT_LOCKED_RECT LockedRect;pTexture->LockRect(0, &LockedRect, NULL, 0);  if( LockedRect.Pitch != 0 )  {  //cvZero(colorImage);for (int i=0; i<480; i++)  {  uchar* ptr = (uchar*)(colorImage->imageData+i*colorImage->widthStep);  BYTE * pBuffer = (BYTE*)(LockedRect.pBits)+i*LockedRect.Pitch;//每个字节代表一个颜色信息,直接使用BYTE  for (int j=0; j<640; j++)  {  ptr[3*j] = pBuffer[4*j];//内部数据是4个字节,0-1-2是BGR,第4个现在未使用  ptr[3*j+1] = pBuffer[4*j+1];  ptr[3*j+2] = pBuffer[4*j+2];  }  }  //cvShowImage("colorImage", colorImage);//显示图像//cvWaitKey(1);}  else  {  cout<<"捕捉视频帧时发生错误"<<endl;  }  NuiImageStreamReleaseFrame( colorStreamHandle, colorFrame );  
}void getDepthImage(HANDLE &depthEvent, HANDLE &depthStreamHandle, IplImage *depthImage)
{const NUI_IMAGE_FRAME *depthFrame = NULL;NuiImageStreamGetNextFrame(depthStreamHandle, 0, &depthFrame);NuiImageBuffer *pTexture = depthFrame->pFrameTexture;  KINECT_LOCKED_RECT LockedRect;pTexture->LockRect(0, &LockedRect, NULL, 0);  RGBQUAD q;//q.rgbBlue = q.rgbGreen = q.rgbRed = 0;//cvZero(depthImage);if( LockedRect.Pitch != 0 ){for (int i=0; i<240; i++){uchar *ptr = (uchar*)(depthImage->imageData+i*depthImage->widthStep);BYTE *buffer = (BYTE*)(LockedRect.pBits)+i*LockedRect.Pitch;USHORT *bufferRun = (USHORT*)buffer;for (int j=0; j<320; j++){int player = bufferRun[j]&7;int data = (bufferRun[j]&0xfff8) >> 3;uchar imageData = 255-(uchar)(256*data/0x0fff);q.rgbBlue = q.rgbGreen = q.rgbRed = 0;switch(player){case 0:  q.rgbRed = imageData / 2;  q.rgbBlue = imageData / 2;  q.rgbGreen = imageData / 2;  break;  case 1:  q.rgbRed = imageData;  break;  case 2:  q.rgbGreen = imageData;  break;  case 3:  q.rgbRed = imageData / 4;  q.rgbGreen = q.rgbRed*4;  //这里利用乘的方法,而不用原来的方法可以避免不整除的情况q.rgbBlue = q.rgbRed*4;  //可以在后面的getTheContour()中配合使用,避免遗漏一些情况break;  case 4:  q.rgbBlue = imageData / 4; q.rgbRed = q.rgbBlue*4;  q.rgbGreen = q.rgbBlue*4;  break;  case 5:  q.rgbGreen = imageData / 4; q.rgbRed = q.rgbGreen*4;  q.rgbBlue = q.rgbGreen*4;  break;  case 6:  q.rgbRed = imageData / 2;  q.rgbGreen = imageData / 2;  q.rgbBlue = q.rgbGreen*2;  break;  case 7:  q.rgbRed = 255 - ( imageData / 2 );  q.rgbGreen = 255 - ( imageData / 2 );  q.rgbBlue = 255 - ( imageData / 2 );}ptr[3*j] = q.rgbBlue;ptr[3*j+1] = q.rgbGreen;ptr[3*j+2] = q.rgbRed;}}//cvShowImage("depthImage", depthImage);//cvWaitKey(1);}else{cout << "捕捉深度图像出现错误" << endl;}NuiImageStreamReleaseFrame(depthStreamHandle, depthFrame);}void getSkeletonImage(HANDLE &skeletonEvent, IplImage *skeletonImage, IplImage *colorImage, IplImage *depthImage)
{/*两者效果竟然不一样。奇怪NUI_SKELETON_FRAME *skeletonFrame = NULL;NUI_SKELETON_FRAME skeletonFrame;*/NUI_SKELETON_FRAME skeletonFrame;bool bFoundSkeleton = false; if(NuiSkeletonGetNextFrame( 0, &skeletonFrame ) == S_OK )  {  for( int i = 0 ; i < NUI_SKELETON_COUNT ; i++ )  {  if( skeletonFrame.SkeletonData[i].eTrackingState == NUI_SKELETON_TRACKED ){  bFoundSkeleton = true;  //cout << "ok" << endl;break;}  }  }else{cout << "没有找到合适的骨骼帧" << endl;return; }if( !bFoundSkeleton )  {  return; }  NuiTransformSmooth(&skeletonFrame,NULL);//平滑骨骼帧,消除抖动  cvZero(skeletonImage);  for( int i = 0 ; i < NUI_SKELETON_COUNT ; i++ )  {  if( skeletonFrame.SkeletonData[i].eTrackingState == NUI_SKELETON_TRACKED &&  skeletonFrame.SkeletonData[i].eSkeletonPositionTrackingState[NUI_SKELETON_POSITION_SHOULDER_CENTER] != NUI_SKELETON_POSITION_NOT_TRACKED)  {  float fx, fy;  for (int j = 0; j < NUI_SKELETON_POSITION_COUNT; j++)//所有的坐标转化为深度图的坐标  {  NuiTransformSkeletonToDepthImageF(skeletonFrame.SkeletonData[i].SkeletonPositions[j], &fx, &fy );  skeletonPoint[i][j].x = (int)(fx*320+0.5f);  skeletonPoint[i][j].y = (int)(fy*240+0.5f);  }  for (int j=0; j<NUI_SKELETON_POSITION_COUNT ; j++)  {  if (skeletonFrame.SkeletonData[i].eSkeletonPositionTrackingState[j] != NUI_SKELETON_POSITION_NOT_TRACKED)//跟踪点一用有三种状态:1没有被跟踪到,2跟踪到,3根据跟踪到的估计到  {  LONG colorx, colory;NuiImageGetColorPixelCoordinatesFromDepthPixel(NUI_IMAGE_RESOLUTION_640x480, 0, skeletonPoint[i][j].x, skeletonPoint[i][j].y, 0,&colorx, &colory);colorPoint[i][j].x = int(colorx);colorPoint[i][j].y = int(colory);//存储坐标点cvCircle(colorImage, colorPoint[i][j], 4, cvScalar(0, 255, 255), -1, 8, 0);//cvCircle(depthImage, skeletonPoint[i][j], 3, cvScalar(0, 255, 255), -1, 8, 0);cvCircle(skeletonImage, skeletonPoint[i][j], 3, cvScalar(0, 255, 255), -1, 8, 0);tracked[i] = TRUE;}}drawSkeleton(colorImage, colorPoint[i], i);//drawSkeleton(depthImage, skeletonPoint[i], i);drawSkeleton(skeletonImage, skeletonPoint[i], i);}}  //cvShowImage("skeletonImage", skeletonImage);  //cvShowImage("skeletsdfonImage", colorImage);  //cvWaitKey(1);  
}void drawSkeleton(IplImage *image, CvPoint pointSet[], int witchone)
{CvScalar color;switch(witchone)//跟踪不同的人显示不同的颜色{case 0:color = cvScalar(255);break;case 1:color = cvScalar(0,255);break;case 2:color = cvScalar(0, 0, 255);break;case 3:color = cvScalar(255, 255, 0);break;case 4:color = cvScalar(255, 0, 255);break;case 5:color = cvScalar(0, 255, 255);break;}if((pointSet[NUI_SKELETON_POSITION_HEAD].x!=0 || pointSet[NUI_SKELETON_POSITION_HEAD].y!=0) &&(pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER].x!=0 || pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_HEAD], pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER], color, 2);if((pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER].x!=0 || pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER].y!=0) &&(pointSet[NUI_SKELETON_POSITION_SPINE].x!=0 || pointSet[NUI_SKELETON_POSITION_SPINE].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER], pointSet[NUI_SKELETON_POSITION_SPINE], color, 2);if((pointSet[NUI_SKELETON_POSITION_SPINE].x!=0 || pointSet[NUI_SKELETON_POSITION_SPINE].y!=0) &&(pointSet[NUI_SKELETON_POSITION_HIP_CENTER].x!=0 || pointSet[NUI_SKELETON_POSITION_HIP_CENTER].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_SPINE], pointSet[NUI_SKELETON_POSITION_HIP_CENTER], color, 2);//左上肢if((pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER].x!=0 || pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER].y!=0) &&(pointSet[NUI_SKELETON_POSITION_SHOULDER_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_SHOULDER_LEFT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER], pointSet[NUI_SKELETON_POSITION_SHOULDER_LEFT], color, 2);if((pointSet[NUI_SKELETON_POSITION_SHOULDER_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_SHOULDER_LEFT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_ELBOW_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_ELBOW_LEFT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_SHOULDER_LEFT], pointSet[NUI_SKELETON_POSITION_ELBOW_LEFT], color, 2);if((pointSet[NUI_SKELETON_POSITION_ELBOW_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_ELBOW_LEFT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_WRIST_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_WRIST_LEFT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_ELBOW_LEFT], pointSet[NUI_SKELETON_POSITION_WRIST_LEFT], color, 2);if((pointSet[NUI_SKELETON_POSITION_WRIST_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_WRIST_LEFT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_HAND_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_HAND_LEFT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_WRIST_LEFT], pointSet[NUI_SKELETON_POSITION_HAND_LEFT], color, 2);//右上肢if((pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER].x!=0 || pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER].y!=0) &&(pointSet[NUI_SKELETON_POSITION_SHOULDER_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_SHOULDER_RIGHT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_SHOULDER_CENTER], pointSet[NUI_SKELETON_POSITION_SHOULDER_RIGHT], color, 2);if((pointSet[NUI_SKELETON_POSITION_SHOULDER_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_SHOULDER_RIGHT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_ELBOW_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_ELBOW_RIGHT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_SHOULDER_RIGHT], pointSet[NUI_SKELETON_POSITION_ELBOW_RIGHT], color, 2);if((pointSet[NUI_SKELETON_POSITION_ELBOW_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_ELBOW_RIGHT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_WRIST_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_WRIST_RIGHT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_ELBOW_RIGHT], pointSet[NUI_SKELETON_POSITION_WRIST_RIGHT], color, 2);if((pointSet[NUI_SKELETON_POSITION_WRIST_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_WRIST_RIGHT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_HAND_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_HAND_RIGHT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_WRIST_RIGHT], pointSet[NUI_SKELETON_POSITION_HAND_RIGHT], color, 2);//左下肢if((pointSet[NUI_SKELETON_POSITION_HIP_CENTER].x!=0 || pointSet[NUI_SKELETON_POSITION_HIP_CENTER].y!=0) &&(pointSet[NUI_SKELETON_POSITION_HIP_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_HIP_LEFT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_HIP_CENTER], pointSet[NUI_SKELETON_POSITION_HIP_LEFT], color, 2);if((pointSet[NUI_SKELETON_POSITION_HIP_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_HIP_LEFT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_KNEE_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_KNEE_LEFT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_HIP_LEFT], pointSet[NUI_SKELETON_POSITION_KNEE_LEFT], color, 2);if((pointSet[NUI_SKELETON_POSITION_KNEE_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_KNEE_LEFT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_ANKLE_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_ANKLE_LEFT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_KNEE_LEFT], pointSet[NUI_SKELETON_POSITION_ANKLE_LEFT], color, 2);if((pointSet[NUI_SKELETON_POSITION_ANKLE_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_ANKLE_LEFT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_FOOT_LEFT].x!=0 || pointSet[NUI_SKELETON_POSITION_FOOT_LEFT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_ANKLE_LEFT], pointSet[NUI_SKELETON_POSITION_FOOT_LEFT], color, 2);//右下肢if((pointSet[NUI_SKELETON_POSITION_HIP_CENTER].x!=0 || pointSet[NUI_SKELETON_POSITION_HIP_CENTER].y!=0) &&(pointSet[NUI_SKELETON_POSITION_HIP_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_HIP_RIGHT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_HIP_CENTER], pointSet[NUI_SKELETON_POSITION_HIP_RIGHT], color, 2);if((pointSet[NUI_SKELETON_POSITION_HIP_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_HIP_RIGHT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_KNEE_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_KNEE_RIGHT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_HIP_RIGHT], pointSet[NUI_SKELETON_POSITION_KNEE_RIGHT],color, 2);if((pointSet[NUI_SKELETON_POSITION_KNEE_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_KNEE_RIGHT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_ANKLE_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_ANKLE_RIGHT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_KNEE_RIGHT], pointSet[NUI_SKELETON_POSITION_ANKLE_RIGHT], color, 2);if((pointSet[NUI_SKELETON_POSITION_ANKLE_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_ANKLE_RIGHT].y!=0) &&(pointSet[NUI_SKELETON_POSITION_FOOT_RIGHT].x!=0 || pointSet[NUI_SKELETON_POSITION_FOOT_RIGHT].y!=0))cvLine(image, pointSet[NUI_SKELETON_POSITION_ANKLE_RIGHT], pointSet[NUI_SKELETON_POSITION_FOOT_RIGHT], color, 2);
}void getTheContour(IplImage *image, int whichone, IplImage *mask)//根据给定的深度数据的关系(在getDepthImage()中的)确定不同的跟踪目标
{for (int i=0; i<240; i++){uchar *ptr = (uchar*)(image->imageData+i*image->widthStep);uchar *ptrmask = (uchar*)(mask->imageData+i*mask->widthStep);for (int j=0; j<320; j++){if (ptr[3*j]==0 && ptr[3*j+1]==0 && ptr[3*j+2]==0)//都为0的时候予以忽略{ptrmask[3*j]=ptrmask[3*j+1]=ptrmask[3*j+2]=0;}else if(ptr[3*j]==0 && ptr[3*j+1]==0 && ptr[3*j+2]!=0)//ID为1的时候,显示绿色{ptrmask[3*j] = 0;ptrmask[3*j+1] = 255;ptrmask[3*j+2] = 0;}else if (ptr[3*j]==0 && ptr[3*j+1]!=0 && ptr[3*j+2]==0)//ID为2的时候,显示红色{ptrmask[3*j] = 0;ptrmask[3*j+1] = 0;ptrmask[3*j+2] = 255;}else if (ptr[3*j]==ptr[3*j+1] && ptr[3*j]==4*ptr[3*j+2])//ID为3的时候{ptrmask[3*j] = 255;ptrmask[3*j+1] = 255;ptrmask[3*j+2] = 0;}else if (4*ptr[3*j]==ptr[3*j+1] && ptr[3*j+1]==ptr[3*j+2])//ID为4的时候{ptrmask[3*j] = 255;ptrmask[3*j+1] = 0;ptrmask[3*j+2] = 255;}else if (ptr[3*j]==4*ptr[3*j+1] && ptr[3*j]==ptr[3*j+2])//ID为5的时候{ptrmask[3*j] = 0;ptrmask[3*j+1] = 255;ptrmask[3*j+2] = 255;}else if (ptr[3*j]==2*ptr[3*j+1] && ptr[3*j+1]==ptr[3*j+2])//ID为6的时候{ptrmask[3*j] = 255;ptrmask[3*j+1] = 255;ptrmask[3*j+2] = 255;}else if (ptr[3*j]==ptr[3*j+1] && ptr[3*j]==ptr[3*j+2])//ID为7的时候或者ID为0的时候,显示蓝色{ptrmask[3*j] = 255;ptrmask[3*j+1] = 0;ptrmask[3*j+2] = 0;}else{cout <<"如果输出这段代码,说明有遗漏的情况,请查询getTheContour函数" << endl;}}}
}


这篇关于kinect 学习笔记二(深度图像的利用--抠取用户躯体)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/888127

相关文章

51单片机学习记录———定时器

文章目录 前言一、定时器介绍二、STC89C52定时器资源三、定时器框图四、定时器模式五、定时器相关寄存器六、定时器练习 前言 一个学习嵌入式的小白~ 有问题评论区或私信指出~ 提示:以下是本篇文章正文内容,下面案例可供参考 一、定时器介绍 定时器介绍:51单片机的定时器属于单片机的内部资源,其电路的连接和运转均在单片机内部完成。 定时器作用: 1.用于计数系统,可

问题:第一次世界大战的起止时间是 #其他#学习方法#微信

问题:第一次世界大战的起止时间是 A.1913 ~1918 年 B.1913 ~1918 年 C.1914 ~1918 年 D.1914 ~1919 年 参考答案如图所示

[word] word设置上标快捷键 #学习方法#其他#媒体

word设置上标快捷键 办公中,少不了使用word,这个是大家必备的软件,今天给大家分享word设置上标快捷键,希望在办公中能帮到您! 1、添加上标 在录入一些公式,或者是化学产品时,需要添加上标内容,按下快捷键Ctrl+shift++就能将需要的内容设置为上标符号。 word设置上标快捷键的方法就是以上内容了,需要的小伙伴都可以试一试呢!

Tolua使用笔记(上)

目录   1.准备工作 2.运行例子 01.HelloWorld:在C#中,创建和销毁Lua虚拟机 和 简单调用。 02.ScriptsFromFile:在C#中,对一个lua文件的执行调用 03.CallLuaFunction:在C#中,对lua函数的操作 04.AccessingLuaVariables:在C#中,对lua变量的操作 05.LuaCoroutine:在Lua中,

AssetBundle学习笔记

AssetBundle是unity自定义的资源格式,通过调用引擎的资源打包接口对资源进行打包成.assetbundle格式的资源包。本文介绍了AssetBundle的生成,使用,加载,卸载以及Unity资源更新的一个基本步骤。 目录 1.定义: 2.AssetBundle的生成: 1)设置AssetBundle包的属性——通过编辑器界面 补充:分组策略 2)调用引擎接口API

Javascript高级程序设计(第四版)--学习记录之变量、内存

原始值与引用值 原始值:简单的数据即基础数据类型,按值访问。 引用值:由多个值构成的对象即复杂数据类型,按引用访问。 动态属性 对于引用值而言,可以随时添加、修改和删除其属性和方法。 let person = new Object();person.name = 'Jason';person.age = 42;console.log(person.name,person.age);//'J

大学湖北中医药大学法医学试题及答案,分享几个实用搜题和学习工具 #微信#学习方法#职场发展

今天分享拥有拍照搜题、文字搜题、语音搜题、多重搜题等搜题模式,可以快速查找问题解析,加深对题目答案的理解。 1.快练题 这是一个网站 找题的网站海量题库,在线搜题,快速刷题~为您提供百万优质题库,直接搜索题库名称,支持多种刷题模式:顺序练习、语音听题、本地搜题、顺序阅读、模拟考试、组卷考试、赶快下载吧! 2.彩虹搜题 这是个老公众号了 支持手写输入,截图搜题,详细步骤,解题必备

《offer来了》第二章学习笔记

1.集合 Java四种集合:List、Queue、Set和Map 1.1.List:可重复 有序的Collection ArrayList: 基于数组实现,增删慢,查询快,线程不安全 Vector: 基于数组实现,增删慢,查询快,线程安全 LinkedList: 基于双向链实现,增删快,查询慢,线程不安全 1.2.Queue:队列 ArrayBlockingQueue:

硬件基础知识——自学习梳理

计算机存储分为闪存和永久性存储。 硬盘(永久存储)主要分为机械磁盘和固态硬盘。 机械磁盘主要靠磁颗粒的正负极方向来存储0或1,且机械磁盘没有使用寿命。 固态硬盘就有使用寿命了,大概支持30w次的读写操作。 闪存使用的是电容进行存储,断电数据就没了。 器件之间传输bit数据在总线上是一个一个传输的,因为通过电压传输(电流不稳定),但是电压属于电势能,所以可以叠加互相干扰,这也就是硬盘,U盘

人工智能机器学习算法总结神经网络算法(前向及反向传播)

1.定义,意义和优缺点 定义: 神经网络算法是一种模仿人类大脑神经元之间连接方式的机器学习算法。通过多层神经元的组合和激活函数的非线性转换,神经网络能够学习数据的特征和模式,实现对复杂数据的建模和预测。(我们可以借助人类的神经元模型来更好的帮助我们理解该算法的本质,不过这里需要说明的是,虽然名字是神经网络,并且结构等等也是借鉴了神经网络,但其原型以及算法本质上还和生物层面的神经网络运行原理存在