Three.js--》探秘虚拟现实VR展厅的视觉盛宴

2024-04-21 12:20

本文主要是介绍Three.js--》探秘虚拟现实VR展厅的视觉盛宴,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

今天简单实现一个three.js的小Demo,加强自己对three知识的掌握与学习,只有在项目中才能灵活将所学知识运用起来,话不多说直接开始。

目录

项目搭建

初始化three代码

camera-controls控制器使用

添加画框

画框处理事件

添加机器人模型


项目搭建

本案例还是借助框架书写three项目,借用vite构建工具搭建vue项目,vite这个构建工具如果有不了解的朋友,可以参考我之前对其讲解的文章:vite脚手架的搭建与使用。搭建完成之后,用编辑器打开该项目,在终端执行 npm i 安装一下依赖即可。接下来对项目进行一些初始化操作:

在项目中我们都会用到一些标签,但是这些标签可能本身自带一些默认样式,这些默认样式可能会影响我们的排版布局,如果每次引用就去清除一遍默认样式有点太过繁琐,因此这里需要我们清除一下默认样式。执行如下命令安装第三方包: 

npm install reset.css --save

因为我搭建的是vue3项目,为了便于代码的可读性,所以我将three.js代码单独抽离放在一个组件当中,在App根组件中进入引入该组件。具体如下:

<template><div class="container"><Show></Show></div>
</template><script setup>
import Show from "./pages/index.vue"</script><style lang="scss">
.container {width: 100%;height: 100%;
}
</style>

初始化three代码

本次项目使用three.js代码必须要基于下面的基础代码才能实现:

导入three库

import * as THREE from 'three'

初始化场景

const scene = new THREE.Scene()

初始化相机

const camera = new THREE.PerspectiveCamera(75, window.innerWidth / window.innerHeight, 0.1, 1000)
camera.position.set(5, 1, 0)
camera.lookAt(0, 0, 0)
scene.add(camera)

初始化渲染器

const renderer = new THREE.WebGLRenderer({ antialias: true })
renderer.setSize(window.innerWidth, window.innerHeight) // 设置渲染器大小
renderer.setPixelRatio(window.devicePixelRatio) // 设置像素比

监听屏幕大小的改变,修改渲染器的宽高和相机的比例

window.addEventListener("resize",()=>{ renderer.setSize(window.innerWidth, window.innerHeight)camera.aspect = window.innerWidth / window.innerHeightcamera.updateProjectionMatrix()
})

导入轨道控制器

const controls = new OrbitControls(camera, renderer.domElement)
controls.enableDamping = true // 设置控制阻尼

设置渲染函数: 

const render = () =>{ controls.update()renderer.render(scene,camera)requestAnimationFrame(render)
}

页面加载调用

<template><div class="exhibition" ref="exhibition"></div>
</template><script setup>
import { ref, onMounted } from 'vue'// 获取dom实例
let exhibition = ref(null)onMounted(() => {exhibition.value.appendChild(renderer.domElement)render()
})
</script>

ok,写完基础代码之后,接下来开始具体的Demo实操。 

camera-controls控制器使用

因为本次项目vr展厅需要我们去进行视角的移动,采用three本身的控制器是无法满足我们的需求的,所以这里我们需要换一个新的控制器去进行视角的移动和切换,首先我们先加载好我们的场景,借助three库自带的GLTFLoader函数来加载场景,GLTFLoader函数是一个用于加载和解析 glTF(GL Transmission Format)文件的 JavaScript 库,其可以让开发人员在Web应用程序中轻松地加载和显示 glTF 格式的3D模型和场景。它提供了一种简单而有效的方式来将 glTF 文件加载到WebGL渲染器中,使开发人员能够通过JavaScript代码轻松地操作和展示3D内容。

接下来我们直接引入该库,然后加载场景,并给场景中添加环境光源:

// 加载GLTF模型
import { GLTFLoader } from 'three/examples/jsm/loaders/GLTFLoader';// 加载模型
let gltfLoader = new GLTFLoader();
gltfLoader.load("/public/assets/room1/msg.gltf", (gltf) => {scene.add(gltf.scene)
})// 添加环境光源
const ambientLight = new THREE.AmbientLight(0xffffff, 1) // 环境光
scene.add(ambientLight)

添加完成之后,我们运行我们的项目,可以看到如下场景,说明我们的场景已经加载完成:

接下来我们开始安装新的控制器,终端执行如下命令安装新的控制器,详情查看:官网

npm i camera-controls

我们在官网的案例中,随便打开一个demo,可以看到该控制器的效果还是不错的,如下:

接下来我们通过three.js 中的 Raycaster(射线投射器):一个用于在3D场景中进行射线投射和检测碰撞的工具。允许开发人员在三维空间中进行准确的拾取操作,即确定射线与场景中的对象是否相交,并获取与射线相交的对象的相关信息。来获取场景当中的模型信息,代码如下:

// 获取容器div点击事件
const handleClick = (e) => {// 获取鼠标位置mouse.x = (e.offsetX / window.innerWidth) * 2 - 1 mouse.y = -(e.offsetY / window.innerHeight) * 2 + 1 // 计算射线坐标raycaster.setFromCamera(mouse, camera)// 计算物体和射线的焦点const intersects = raycaster.intersectObjects(scene.children)// 判断是否有焦点if (intersects.length > 0) {console.log(intersects[0].object.name)}
}

呈现的效果如下所示:

点击事件肯定只适用展厅中的内容,为了防止点击其他模型触发点击事件,我们需要给计算物体和射线的焦点处设置展厅场景内容,具体修改如下:

接下来我们开始引入camera-controls库中的内容:

import * as THREE from 'three'
import CameraControls from 'camera-controls';
CameraControls.install( { THREE: THREE } );

在html中,这里我给了场景容器的div设置了点击事件,鼠标按下和抬起事件,三种事件,点击事件很容易理解,鼠标的按下和抬起事件合并起来就是鼠标的拖动事件:

<template><div class="exhibition" ref="exhibition" @click="handleClick"@mousedown="handleMouseDown" @mouseup="handleMouseUp"></div>
</template>

接下来就是对这三个事件进行处理了,判断用户是执行了点击事件还是拖动事件:

let isDragging = false // 判断是否拖动
// 获取容器div点击事件
const handleClick = (e) => {// 如果发生了拖动,则不执行点击事件if (isDragging) return// 获取鼠标位置mouse.x = (e.offsetX / window.innerWidth) * 2 - 1 mouse.y = -(e.offsetY / window.innerHeight) * 2 + 1 // 计算射线坐标raycaster.setFromCamera(mouse, camera)// 计算物体和射线的焦点const intersects = raycaster.intersectObjects(eventMeshs)// 判断是否有焦点const mesh = intersects[0]if (mesh) {const v3 = mesh.point // 获取焦点位置if (mesh.object.name === 'meishu01') {cameraControls.moveTo(v3.x, 1, v3.z, true)}}
}let startXY
// 获取容器div鼠标按下事件
const handleMouseDown = (e) => {// 获取鼠标位置startXY = [e.offsetX, e.offsetY]
}// 获取容器div鼠标抬起事件
const handleMouseUp = (e) => {// 获取鼠标位置const [ endX, endY ] = startXYif (Math.abs(e.offsetX - endX) > 3 || Math.abs(endY - e.offsetY) > 3) {// 标记发生了拖动isDragging = true} else {// 标记未发生拖动isDragging = false}
}

最终呈现的效果如下:

添加画框

接下来开始编写相应的函数给展厅场景中添加对应的图片了,如下:

// 添加画框
const loadItem = (items, deepth) => {items.forEach(async (item) => {// 加入到画布当中const { id, url, position, scale, rotation } = item// 绘制画框,贴图const texture = await new THREE.TextureLoader().loadAsync(url)let width, heightlet originwidth = texture.image.width // 获取图片原始宽度let originheight = texture.image.height // 获取图片原始高度let maxSize = 10 // 最大尺寸if (width > maxSize) {width = maxSizeheight = (maxSize / originwidth) * originheight} else {height = maxSizewidth = (maxSize / originheight) * originwidth}const geometry = new THREE.BoxGeometry(width, height, deepth) // 创建画框const material = new THREE.MeshBasicMaterial({ color: 0xffffff }) // 创建贴图const imgMaterial = new THREE.MeshBasicMaterial({ color: 0xffffff,map: texture})const mesh = new THREE.Mesh(geometry, [ material, material, material, material, material, imgMaterial ]) // 创建画框scene.add(mesh)})
}

执行如下函数,给图片添加对应的信息,函数如下:

loadItem([{ url: "/public/assets/pictures2/1.jpg",name: "名称",desc: "信息描述",scale: { x: 0.1, y: 0.1, z: 0.1 },position: { x: 24.23375412142995, y: 2.3, z: 10.729648829537796 },view: { x: 24.011, y: 2.1, z: 4.379 },id: "1",rotation: { x: 0, y: 0, z: 0 },type: "picture",}
], 0.1)

最终呈现的效果如下,总体来说还是不错的,现在的问题就是将图片铁道场景的墙壁上:

如何把画框贴到墙壁上,换句话说如何知道画框与墙壁之间的具体位置呢?这里我们需要借助three给我们提供的TransformControls库,使用TransformControls可以为用户提供更直观、友好的界面,使他们能够轻松地在 3D 场景中进行对象的编辑和操作,代码如下:

import { TransformControls } from 'three/examples/jsm/controls/TransformControls';// 实例化TransformControls
const transformControls = new TransformControls(camera, renderer.domElement)
transformControls.setSpace('local') // 设置空间
transformControls.addEventListener('mousedownn', () => {controls.enabled = false
})
transformControls.addEventListener('mouseup', () => {controls.enabled = true
})
transformControls.addEventListener('objectChange', () => {const { position, scale, rotation } = transformControls.objectconsole.log(JSON.stringify({ position, scale, rotation: { x: rotation.x, y: rotation.y, z: rotation.z } }))
})
scene.add(transformControls)

我们通过 TransformControls控制器移动画框到墙壁上,并通过监听事件拿到对应的位置数据:

将数据复制到外部存放图片相关信息资源的js文件当中:

export const items = [{id: 1,url: "./assets/pictures/01.jpg",position: { x: 54.44612606517201, y: 3.679549096713978, z: 50.93531019361985 }, scale: { x: 1, y: 1, z: 1 }, rotation: { x: 0, y: 0, z: 0 },},{id: 1,url: "./assets/pictures/02.jpg",position: { x: 42.53326413580169, y: 3.679549096713978, z: 50.93531019361985 }, scale: { x: 1, y: 1, z: 1 }, rotation: { x: 0, y: 0, z: 0 },},{id: 1,url: "./assets/pictures/03.jpg",position: { x: 29.007956809298168, y: 3.679549096713978, z: 50.93531019361985 }, scale: { x: 1, y: 1, z: 1 }, rotation: { x: 0, y: 0, z: 0 },},
];

通过手动的修改,将图片全部铁道墙壁上,最终达到的效果如下,还是很完美的:

画框处理事件

在上文讲述贴好图片之后,接下来我们需要给图片设计一个点击事件,拿到当前点击图片的相关讯息进行进一步的处理,首先我们先思考一下,该如何设计点击事件拿到相关讯息呢?步骤如下:

在展厅中当我们点击相应的图片的时候,控制台会给出对应的信息:

ok,拿到相应的图片信息之后,接下来就是如何展示数据了,这里用到一款插件,安装命令如下:

npm i zoomtastic

当然我们也可以在npm平台找到这个对应的包,可以看看相关的使用教程:地址

我们这里就不再具体讲解该包的使用了,这里直接拿来用,上展示:

// 导入第三方库
import Zoomtastic from 'zoomtastic';
// 挂载
Zoomtastic.mount();// 设置画框点击事件
const handleClickPicture = (item) => {// 展示当前的图片Zoomtastic.show(item.url);
}

现在当我点击对应的图片之后,得到如下结果:

添加机器人模型

接下来给场景中添加两个机器人模型并设置一下动画效果,代码如下:

// 加载机器人模型
let robotLoader = new GLTFLoader();
robotLoader.load("/public/assets/robot/robot.glb", (gltf) => {gltf.scene.scale.set(5, 5, 5)gltf.scene.position.set(0.1324808945523861, -10.232245896556929, -30.95853005109946)eventMeshs.push(gltf.scene)gltf.scene.odata = { id: "robot" }const mixer = new THREE.AnimationMixer(gltf.scene) // 创建动画控制器const ani = gltf.animations[0] // 获取动画mixer.clipAction(ani).setDuration(5).play() // 播放动画mixer.update(0) // 更新动画animateFuns.push(d => mixer.update(d))scene.add(gltf.scene)
})

在渲染函数的时候调用数组当中的动画数据:

let animateFuns = []
const clock = new THREE.Clock();
// 设置渲染函数
const render = () =>{ const delta = clock.getDelta();controls.update( delta );renderer.render(scene,camera)animateFuns.forEach((fun) => {fun(delta)})requestAnimationFrame(render)
}

效果如下:

接下来再在场景中添加一个机器人模型:

let robotLoader1 = new GLTFLoader();
robotLoader1.load("/public/assets/robot/robot1.gltf", (gltf) => {gltf.scene.scale.set(5, 5, 5)gltf.scene.position.set(0.25734022000060963, -10.237542382614008, 30.602748751354614)gltf.scene.rotation.set(-3.1353226226906985, -0.014796136198272362, -3.141104770940116)eventMeshs.push(gltf.scene)gltf.scene.odata = { id: "robot1" }const mixer = new THREE.AnimationMixer(gltf.scene) // 创建动画控制器const ani = gltf.animations[0] // 获取动画mixer.clipAction(ani).setDuration(5).play() // 播放动画mixer.update(0) // 更新动画animateFuns.push(d => mixer.update(d))scene.add(gltf.scene)
})

最终呈现的效果如下:

ok,后面展厅添加的图片和上文讲解的原理一样,这里就不再赘述了,demo写完给个赞吧!

这篇关于Three.js--》探秘虚拟现实VR展厅的视觉盛宴的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/923070

相关文章

JS常用组件收集

收集了一些平时遇到的前端比较优秀的组件,方便以后开发的时候查找!!! 函数工具: Lodash 页面固定: stickUp、jQuery.Pin 轮播: unslider、swiper 开关: switch 复选框: icheck 气泡: grumble 隐藏元素: Headroom

在JS中的设计模式的单例模式、策略模式、代理模式、原型模式浅讲

1. 单例模式(Singleton Pattern) 确保一个类只有一个实例,并提供一个全局访问点。 示例代码: class Singleton {constructor() {if (Singleton.instance) {return Singleton.instance;}Singleton.instance = this;this.data = [];}addData(value)

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件

EasyPlayer.js网页H5 Web js播放器能力合集

最近遇到一个需求,要求做一款播放器,发现能力上跟EasyPlayer.js基本一致,满足要求: 需求 功性能 分类 需求描述 功能 预览 分屏模式 单分屏(单屏/全屏) 多分屏(2*2) 多分屏(3*3) 多分屏(4*4) 播放控制 播放(单个或全部) 暂停(暂停时展示最后一帧画面) 停止(单个或全部) 声音控制(开关/音量调节) 主辅码流切换 辅助功能 屏

使用JS/Jquery获得父窗口的几个方法(笔记)

<pre name="code" class="javascript">取父窗口的元素方法:$(selector, window.parent.document);那么你取父窗口的父窗口的元素就可以用:$(selector, window.parent.parent.document);如题: $(selector, window.top.document);//获得顶级窗口里面的元素 $(

js异步提交form表单的解决方案

1.定义异步提交表单的方法 (通用方法) /*** 异步提交form表单* @param options {form:form表单元素,success:执行成功后处理函数}* <span style="color:#ff0000;"><strong>@注意 后台接收参数要解码否则中文会导致乱码 如:URLDecoder.decode(param,"UTF-8")</strong></span>

js react 笔记 2

起因, 目的: 记录一些 js, react, css 1. 生成一个随机的 uuid // 需要先安装 crypto 模块const { randomUUID } = require('crypto');const uuid = randomUUID();console.log(uuid); // 输出类似 '9b1deb4d-3b7d-4bad-9bdd-2b0d7b3dcb6d'

学习记录:js算法(二十八):删除排序链表中的重复元素、删除排序链表中的重复元素II

文章目录 删除排序链表中的重复元素我的思路解法一:循环解法二:递归 网上思路 删除排序链表中的重复元素 II我的思路网上思路 总结 删除排序链表中的重复元素 给定一个已排序的链表的头 head , 删除所有重复的元素,使每个元素只出现一次 。返回 已排序的链表 。 图一 图二 示例 1:(图一)输入:head = [1,1,2]输出:[1,2]示例 2:(图

计算机视觉工程师所需的基本技能

一、编程技能 熟练掌握编程语言 Python:在计算机视觉领域广泛应用,有丰富的库如 OpenCV、TensorFlow、PyTorch 等,方便进行算法实现和模型开发。 C++:运行效率高,适用于对性能要求严格的计算机视觉应用。 数据结构与算法 掌握常见的数据结构(如数组、链表、栈、队列、树、图等)和算法(如排序、搜索、动态规划等),能够优化代码性能,提高算法效率。 二、数学基础

uuid.js 使用

相关代码 import { NIL } from "uuid";/** 验证UUID* 为空 则返回 false* @param uuid* @returns {boolean}*/export function MyUUIDValidate(uuid: any): boolean {if (typeof uuid === "string" && uuid !== NIL) { //uuid