Android OpenGL ES 2.0 屏幕坐标和3D世界坐标转换

2024-08-22 15:08

本文主要是介绍Android OpenGL ES 2.0 屏幕坐标和3D世界坐标转换,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

背景

由于项目中需要用到屏幕坐标和3d坐标相互转换的功能。经过我查询大量资料,发现很多文章都只是说明了OpenGL的坐标系统和坐标变换的过程。并没有实现转换坐标的代码示例。介绍坐标系统的文章很多,请自行百度。下面我说一下实现坐标变换的思路和代码。

坐标变换思路

在网上查询了很久,有写文章说到OpenGL 有一种拾取方式为射线拾取,是可以获取的屏幕到3D模型坐标之间的转换的。但是我并没有找到代码实现示例。后来看到有一种方法拾取很巧妙,用的是OpenGL 的FBO。

FBO实现思路

关于FBO的解释,请看网友写的博客【OpenGL】OpenGL帧缓存对象(FBO:Frame Buffer Object)

我的思路是这样的,在传输顶点数据到渲染管线的时候,开启一个FBO,然后FBO的颜色选用的是传进来的坐标。

假设我一个点的坐标为(x,y,z),那么我在改点设置的颜色值为 RGBA (x ,y ,z ,1.0) , 这样处理的时候我就在FBO中绘制了一个相同的模型,但是我的颜色值包含了顶点的数据。这时候只需要调用 glReadPixels ,就能读取一个屏幕的颜色值,进而转化为坐标系。

本人代码用JNI实现,具体实现如下

屏幕坐标转换3D坐标

使用FBO实现

Shader程序

static const char mPickVertexShader[] ="attribute vec3 a_position;\n""uniform highp mat4 u_mvpMatrix;\n""uniform lowp float u_modeIndex;\n""varying lowp vec4 v_color;\n""void main(){\n""v_color = vec4(a_position.x,a_position.y,a_position.z,1.0);\n""gl_Position = u_mvpMatrix * vec4(a_position,1.0);\n""}\n";static const char mPickFragmentShader[] ="uniform highp mat4 u_mvpMatrix;\n""uniform highp vec2 u_dimensionFactors;\n""varying lowp vec4 v_color;\n""void main(){\n""gl_FragColor = v_color;\n""}";

在Shader中我把顶点数据封装在 v_color 中,然后在片元着色代码中把v_color 传送带渲染管线

加载着色器程序

    mPickProgram = createProgram(mPickVertexShader,mPickFragmentShader);mPickMVPMatrix = glGetUniformLocation(mPickProgram,"u_mvpMatrix");mPickPosition = glGetAttribLocation(mPickProgram,"a_position");

绑定FBO

    glDeleteTextures(1, &colorTexture);glDeleteFramebuffers(1, &mFBO);glDeleteRenderbuffers(1, &depthRenderbuffer);// Create a texture object to apply to modelglGenTextures(1, &colorTexture);glBindTexture(GL_TEXTURE_2D, colorTexture);// Set up filter and wrap modes for this texture objectglTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S,GL_CLAMP_TO_EDGE);glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T,GL_CLAMP_TO_EDGE);glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER,GL_LINEAR);glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER,GL_LINEAR_MIPMAP_LINEAR);// Allocate a texture image we can render into// Pass NULL for the data parameter since we don't need to// load image data. We will be generating the image by// rendering to this texture.glTexImage2D(GL_TEXTURE_2D,0,GL_RGBA,width,height,0,GL_RGBA,GL_UNSIGNED_BYTE,NULL);glGenRenderbuffers(1, &depthRenderbuffer);glBindRenderbuffer(GL_RENDERBUFFER, depthRenderbuffer);glRenderbufferStorage(GL_RENDERBUFFER, GL_DEPTH_COMPONENT16,width, height);glGenFramebuffers(1, &mFBO);glBindFramebuffer(GL_FRAMEBUFFER, mFBO);glFramebufferTexture2D(GL_FRAMEBUFFER,GL_COLOR_ATTACHMENT0,GL_TEXTURE_2D, colorTexture, 0);glFramebufferRenderbuffer(GL_FRAMEBUFFER, GL_DEPTH_ATTACHMENT, GL_RENDERBUFFER, depthRenderbuffer);if(glCheckFramebufferStatus(GL_FRAMEBUFFER) != GL_FRAMEBUFFER_COMPLETE) {LOGI("failed to make complete framebuffer object %x", glCheckFramebufferStatus(GL_FRAMEBUFFER));mFBO = 0;}LOGI("bindFBO success : %d" ,mFBO);glClearColor(0.11f, 0.25f, 0.0f, 1.0f);glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);glUseProgram(mPickProgram);const GLfloat *mMVPMatrix = (*env)->GetFloatArrayElements(env, array, GL_FALSE);glUniformMatrix4fv(mPickMVPMatrix,1,GL_FALSE,mMVPMatrix);glVertexAttribPointer(mPickPosition, 3, GL_FLOAT, GL_FALSE, 3 * 4, mVertices);(*env)->ReleaseFloatArrayElements(env, array, mMVPMatrix, 0);glEnableVertexAttribArray(mPickPosition);glDrawArrays(GL_TRIANGLE_STRIP, 0, vCount);

我这里做的操作是绑定FBO之后进行一次绘制,绘制的时候把顶点数据(mVertices)和总变换矩阵(mMVPMatrix)传入了OpenGL中,然后就可以通过glReadPixels 来获取屏幕中的一个像素了。

获取像素

    JNIEXPORT jobject JNICALL Java_com_package_className_screenToProjectionPosition(JNIEnv *env, jobject obj, jint x, jint y) {GLubyte pixelColor[4];glReadPixels(x, y, 1, 1, GL_RGBA, GL_UNSIGNED_BYTE, pixelColor);glBindFramebuffer(GL_FRAMEBUFFER,0);jclass glkvector2class = (*env)->FindClass(env,"com/package/GLKVector3");jmethodID constructId = (*env)->GetMethodID(env,glkvector2class,"<init>","(FFF)V");jobject outObject = (*env)->NewObject(env,glkvector2class,constructId,(GLfloat)pixelColor[0] / 256,// red component(GLfloat)pixelColor[1] / 256,// green component(GLfloat)pixelColor[2] / 256);LOGI("model color r:%f g:%f b:%f",(GLfloat)pixelColor[0],(GLfloat)pixelColor[1],(GLfloat)pixelColor[2]);return outObject;}

上面代码中我对读出来的像素 除以256是因为我模型最大值为1,所以除以256刚好得到实际坐标。

在获取坐标的时候,首先需要绑定FBO,然后调用glDrawArrays一次,然后就可以用glReadPixels获取到坐标了。。

另外需要注意的是这些操作需要在OpenGL的上下文中调用才会生效。不然的话,glReadPixels获取到的数据都是0。我的实现方式是通过Handler 发送一个任务然后在onDrawFrame中执行这些操作。等这些任务执行完毕之后就能获取到3D的坐标了。

3D坐标转换屏幕坐标

这个简单了,只需要将3D坐标经过传入OpenGL的最终变换矩阵执行一次变换即可。

public GLKVector2 projectionToScreenPosition(GLKVector3 position) {GLKVector3 v = GeoUtils.GLKMatrix4MultiplyAndProjectVector3(MatrixState.mMVPMatrix, position);return new GLKVector2(v.x, v.y);}

其中GLKMatrix4MultiplyAndProjectVector3具体实现如下:

/*** 将物体坐标转换成世界坐标* @param matrixLeft* @param vectorRight* @return*/public static GLKVector3 GLKMatrix4MultiplyAndProjectVector3(float[] matrixLeft, GLKVector3 vectorRight) {GLKVector4 v4 = GLKMatrix4MultiplyVector4(matrixLeft, GLKVector4Make(vectorRight.x, vectorRight.y, vectorRight.z, 1.0f));return GLKVector3MultiplyScalar(GLKVector3Make(v4.x, v4.y, v4.z), 1.0f / v4.w);}public static GLKVector3 GLKVector3Make(float x, float y, float z) {GLKVector3 v = new GLKVector3();v.x = x;v.y = y;v.z = z;return v;}public static GLKVector4 GLKMatrix4MultiplyVector4(float[] matrixLeft, GLKVector4 vector) {GLKVector4 v4 = new GLKVector4();v4.x = matrixLeft[0] * vector.x + matrixLeft[4] * vector.y + matrixLeft[8] * vector.z + matrixLeft[12] * vector.w;v4.y = matrixLeft[1] * vector.x + matrixLeft[5] * vector.y + matrixLeft[9] * vector.z + matrixLeft[13] * vector.w;v4.z = matrixLeft[2] * vector.x + matrixLeft[6] * vector.y + matrixLeft[10] * vector.z + matrixLeft[14] * vector.w;v4.w = matrixLeft[3] * vector.x + matrixLeft[7] * vector.y + matrixLeft[11] * vector.z + matrixLeft[15] * vector.w;return v4;}public static GLKVector4 GLKVector4Make(float x, float y, float z, float w) {GLKVector4 v4 = new GLKVector4();v4.x = x;v4.y = y;v4.z = z;v4.w = w;return v4;}

这是屏幕坐标和3d坐标相互转换的一种解决方案。笔者已经实现了转换,误差并没有多少,基本上都是正确的。如果有什么问题,欢迎提出。

这篇关于Android OpenGL ES 2.0 屏幕坐标和3D世界坐标转换的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1096617

相关文章

无人叉车3d激光slam多房间建图定位异常处理方案-墙体画线地图切分方案

墙体画线地图切分方案 针对问题:墙体两侧特征混淆误匹配,导致建图和定位偏差,表现为过门跳变、外月台走歪等 ·解决思路:预期的根治方案IGICP需要较长时间完成上线,先使用切分地图的工程化方案,即墙体两侧切分为不同地图,在某一侧只使用该侧地图进行定位 方案思路 切分原理:切分地图基于关键帧位置,而非点云。 理论基础:光照是直线的,一帧点云必定只能照射到墙的一侧,无法同时照到两侧实践考虑:关

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

Android平台播放RTSP流的几种方案探究(VLC VS ExoPlayer VS SmartPlayer)

技术背景 好多开发者需要遴选Android平台RTSP直播播放器的时候,不知道如何选的好,本文针对常用的方案,做个大概的说明: 1. 使用VLC for Android VLC Media Player(VLC多媒体播放器),最初命名为VideoLAN客户端,是VideoLAN品牌产品,是VideoLAN计划的多媒体播放器。它支持众多音频与视频解码器及文件格式,并支持DVD影音光盘,VCD影

android-opencv-jni

//------------------start opencv--------------------@Override public void onResume(){ super.onResume(); //通过OpenCV引擎服务加载并初始化OpenCV类库,所谓OpenCV引擎服务即是 //OpenCV_2.4.3.2_Manager_2.4_*.apk程序包,存

从状态管理到性能优化:全面解析 Android Compose

文章目录 引言一、Android Compose基本概念1.1 什么是Android Compose?1.2 Compose的优势1.3 如何在项目中使用Compose 二、Compose中的状态管理2.1 状态管理的重要性2.2 Compose中的状态和数据流2.3 使用State和MutableState处理状态2.4 通过ViewModel进行状态管理 三、Compose中的列表和滚动

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

Android 10.0 mtk平板camera2横屏预览旋转90度横屏拍照图片旋转90度功能实现

1.前言 在10.0的系统rom定制化开发中,在进行一些平板等默认横屏的设备开发的过程中,需要在进入camera2的 时候,默认预览图像也是需要横屏显示的,在上一篇已经实现了横屏预览功能,然后发现横屏预览后,拍照保存的图片 依然是竖屏的,所以说同样需要将图片也保存为横屏图标了,所以就需要看下mtk的camera2的相关横屏保存图片功能, 如何实现实现横屏保存图片功能 如图所示: 2.mtk

android应用中res目录说明

Android应用的res目录是一个特殊的项目,该项目里存放了Android应用所用的全部资源,包括图片、字符串、颜色、尺寸、样式等,类似于web开发中的public目录,js、css、image、style。。。。 Android按照约定,将不同的资源放在不同的文件夹中,这样可以方便的让AAPT(即Android Asset Packaging Tool , 在SDK的build-tools目

Android fill_parent、match_parent、wrap_content三者的作用及区别

这三个属性都是用来适应视图的水平或者垂直大小,以视图的内容或尺寸为基础的布局,比精确的指定视图的范围更加方便。 1、fill_parent 设置一个视图的布局为fill_parent将强制性的使视图扩展至它父元素的大小 2、match_parent 和fill_parent一样,从字面上的意思match_parent更贴切一些,于是从2.2开始,两个属性都可以使用,但2.3版本以后的建议使

Android Environment 获取的路径问题

1. 以获取 /System 路径为例 /*** Return root of the "system" partition holding the core Android OS.* Always present and mounted read-only.*/public static @NonNull File getRootDirectory() {return DIR_ANDR