先来个预告效果图开场
前言:浏览苹果官网时,你会看到发现每个设备在介绍页底部有这么一行文字:“用增强现实看看***”。使用苹果设备点击之后就能将该设备投放于用户所在场景视界,在手机摄像头转动的时候,也能看到物体对象不同的角度,感觉就像真的有一台手机放在你的面前。(效果如下图。注意:由于该技术采用苹果自有的 arkit 技术,安卓手机无法查看)
聪明的你可能已经想到了,为什么只能用苹果手机才能查看,那有没有一种纯前端实现的通用的 web AR 技术呢?
纯前端解决方案纯前端技术的实现可以用下图总结:
以 JSARToolKit 为例:
好比每个领域都有对应的主流开发框架,Web AR 领域比较成熟框架的就是 AR.js,它在增强现实方面主要提供了如下三大功能:
由于使用到摄像头敏感权限,调试时必须基于 https 环境打开才能正常运行。如果是以往,自己手动搭建个 https 环境调试对于很多新手来说还是比较麻烦耗费时间,好在最新的基于 vite vue3 的脚手架搭建的项目,可以轻松用一行命令开启 https 访问。用脚手架初始化好代码之后,先修改 package.json 文件,在 dev 命令中加上--host 暴露网络请求地址(默认不开启),如下图:
接着用下面命令运行即可开启 https:
npm run dev -- --https
学习一门新框架或语言,最好的方式就是先将官方 demo 跑起来体验看看。
下面是官方代码展示的案例效果(注:该录制动图体积较大,请耐心等待加载)
wow ~ 是不是感觉还蛮有意思的?接下来正式进入文章的主题,开始撸猫吧
开始引入依赖库前面有提到,AR.js 基于三种方式展示内容,下面将使用基于图像追踪(Image Tracking) 方式实现。顾名思义,图像追踪就是基于一张图片,根据图片的特性点识别图片并跟踪展示 AR 内容,例如当摄像头捕捉到该图片时,就可以将要展示的内容悬浮于该图片上方展示。
Ar.js 从版本 3 开始采用了新的架构,使用jsartoolkit5[1]进行跟踪定位,而渲染库有两种方式可选:A-Frame 或 Three.js。A-Frame 方式就是通过 html 标签的方式简化创建场景素材,比如说展示一张图片,可以直接使用 <a-image></a-image>方式展示。
修改 index.html 文件:
先将 vue 代码注入注释掉
然后引入依赖:
<script src='./src/sdk/ar-frame/aframe-master.min.js'></script>
<script src='./src/sdk/ar-frame/aframe-ar-nft.js'></script>
撸猫姿势一:展示猫图片
<body>
<a-scene embedded arjs>
<a-assets>
<img id="my-image" src="./src/assets/cat.jpg">
</a-assets>
<a-marker preset="hiro">
<a-image rotation="90 0 0" src="#my-image"></a-image>
<!-- <a-box position="0 0.5 0" material="color: green;"></a-box> -->
</a-marker>
<a-entity camera></a-entity>
</a-scene>
</body>
简单解释下上面的代码:
看下效果:
撸猫姿势二:播放视频除了展示图片,还可以展示视频,先看效果:
代码如下:
<a-scene vr-mode-ui="enabled: false;" renderer='antialias: true; alpha: true; precision: mediump;' embedded
arjs='trackingMethod: best; sourceType: webcam; debugUIEnabled: false;'>
<a-assets>
<video
src="https://ugcydzd.qq.com/uwMROfz2r57CIaQXGdGnC2ddPkb5Wzumid6GMsG9ELr7HeBy/szg_52471341_50001_d4615c1021084c03ad0df73ce2e898c8.f622.mp4?sdtfrom=v1010&guid=951847595ac28f04306b08161bb6d1f7&vkey=3A19FB37CFE7450C64A889F86411FC6CE939A42CCDAA6B177573BBCB3791A64C441EFF5B3298E3ED4E99FFA22231772796F5E8A1FCC33FE4CAC487680A326980FFCC5C56EB926E9B4D20E8740C913D1F7EBF59387012BEC78D2816B17079152BC19FCEF09976A248C4B24D3A5975B243614000CAA333F06D850034DA861B01DCA1D53B546120B74F""
preload="auto" id="vid" response-type="arraybuffer" loop crossorigin webkit-playsinline muted playsinline>
</video>
</a-assets>
<a-nft videohandler type='nft' url='./src/assets/dataNFT/pinball' smooth="true" smoothCount="10"
smoothTolerance="0.01" smoothThreshold="5">
<a-video src="#vid" position='50 150 -100' rotation='90 0 180' width='300' height='175'>
</a-video>
</a-nft>
<a-entity camera></a-entity>
</a-scene>
<script>
window.onload = function () {
AFRAME.registerComponent('videohandler', {
init: function () {
var marker = this.el;
this.vid = document.querySelector("#vid");
marker.addEventListener('markerFound', function () {
// 识别到标识图,开始播放视频
this.vid.play();
}.bind(this));
marker.addEventListener('markerLost', function () {
// 丢失标识图,停止播放视频
this.vid.pause();
this.vid.currentTime = 0;
}.bind(this));
}
});
};
</script>
:喵~是不是感觉更酷更好玩了?
撸猫姿势三:配合声网技术,与你家的猫隔空喊话如果你是一位前端开发者,相信你一定知道阮一峰这个大佬。曾经在他的每周科技周刊看到这么一个有趣的事情:在亚马逊某片雨林里,安装了录音设备,实时将拾取到的鸟叫声传到一个网站,你可以打开该网站听到该片雨林里的实时鸟叫声,简单的说就是该网站可以听到该片雨林的”鸟叫直播 "。(可惜现在一时找不到该网站网址)
而作为工作党,爱猫人士的我们,可能有着上述同样的情感需求:要出差几天,家里的猫一时没法好好照顾,想要实时看到家里的爱猫咋办?
买台监控摄像头呗
当然是打开声网找到解决方案:
视频通话[2] (这里为声网文档点个赞,整个产品的文档分类规划的特别清晰,不像某些云服务产品文档像是垃圾桶里翻东西)
使用 vue3 写法改造文档 demo先安装依赖包:
"agora-rtc-sdk-ng": "latest"
app.vue 中代码:
<script setup>
import AgoraRTC from "agora-rtc-sdk-ng";
import { ref } from "vue";
const joinBtn = ref(null);
const leaveBtn = ref(null);
let rtc = {
localAudioTrack: null,
client: null,
};
let options = {
appId: "2e76ff53e8c349528b5d05783d53f53c",
channel: "test",
token:
"0062e76ff53e8c349528b5d05783d53f53cIADkwbufdA1BIXWsCZ1oFKLEfyPRrCbL3ECbUg71dsv8HQx f9gAAAAAEAACwxdSy/6RYQEAAQDK/pFh",
uid: 123456,
};
rtc.client = AgoraRTC.createClient({ mode: "rtc", codec: "vp8" });
rtc.client.on("user-published", async (user, mediaType) => {
await rtc.client.subscribe(user, mediaType);
console.log("subscribe success");
if (mediaType === "video") {
const remoteVideoTrack = user.videoTrack;
const remotePlayerContainer = document.createElement("div");
remotePlayerContainer.id = user.uid.toString();
remotePlayerContainer.textContent = "Remote user " user.uid.toString();
remotePlayerContainer.style.width = "640px";
remotePlayerContainer.style.height = "480px";
document.body.append(remotePlayerContainer);
remoteVideoTrack.play(remotePlayerContainer);
}
if (mediaType === "audio") {
const remoteAudioTrack = user.audioTrack;
remoteAudioTrack.play();
}
rtc.client.on("user-unpublished", (user) => {
const remotePlayerContainer = document.getElementById(user.uid);
remotePlayerContainer.remove();
});
});
// 加入通话
const handleJoin = async () => {
await rtc.client.join(
options.appId,
options.channel,
options.token,
options.uid
);
rtc.localAudioTrack = await AgoraRTC.createMicrophoneAudioTrack();
rtc.localVideoTrack = await AgoraRTC.createCameraVideoTrack();
await rtc.client.publish([rtc.localAudioTrack, rtc.localVideoTrack]);
const localPlayerContainer = document.createElement("div");
localPlayerContainer.id = options.uid;
localPlayerContainer.textContent = "Local user " options.uid;
localPlayerContainer.style.width = "640px";
localPlayerContainer.style.height = "480px";
document.body.append(localPlayerContainer);
rtc.localVideoTrack.play(localPlayerContainer);
console.log("publish success!");
};
// 离开通话
const handleLeave = async () => {
rtc.localAudioTrack.close();
rtc.localVideoTrack.close();
rtc.client.remoteUsers.forEach((user) => {
const playerContainer = document.getElementById(user.uid);
playerContainer && playerContainer.remove();
});
await rtc.client.leave();
};
</script>
<template>
<div>
<button ref="joinBtn" @click="handleJoin" type="button" id="join">
加入
</button>
<button ref="leaveBtn" @click="handleLeave" type="button" id="leave">
离开
</button>
</div>
</template>
<style></style>
跑起来效果:
这时就相当于在家安装了一个摄像头,如果我们需要远程查看,就可以通过声网官方提供的一个测试地址[3]
加入通话手机打开上述网址,输入你的项目 appId 跟 token,可以看到成功加入通话:
下方图片是手机摄像头捕捉到的画面,原谅我用猫照片代替
让视频画面跑在 AR.js 画面中这个由于个人时间关系,暂时就不研究实现。这里提供一个想法就是:单纯的视频画面看起来有点单调,毕竟有可能猫并不在视频画面中出现,结合撸猫姿势一提到的展示图片,其实我们可以在 ar 场景中视频区域周围,布置照片墙或其他酷炫一点的 subject,这样的话我们打开视频即使看不到猫星人,也可以看看它的照片之类的交互。
结束语本文借征文活动,简单入手了解了下 web AR 相关知识,在这几天学习的过程中觉得还是蛮好玩的,此文也当抛砖引玉,希望更多开发者了解 AR 相关的知识。
AR 在体验上真的很酷,未来值得期待。
最近几年苹果一直致力于推进 AR 技术体验并带来相关落地产品,例如为了配合提升 AR 体验,带来雷达扫描,空间音频功能。值得一提的是,今年的苹果秋季发布会,苹果的邀请函也是利用到了 AR 空间音频技术,即使你不是果粉,当你实际上手体验的时候,你依然会真正发自内心的感觉:wow ~ cool。可以点此视频[4]观看了解。
而目前的 Web AR 技术相比于苹果自有的 ARkit 技术,在体验上还存在一些差距(如性能问题,识别不稳定),同时缺乏生态圈,希望 Web AR 技术在未来得到快速发展,毕竟 web 端跨平台通用特性,让人人的终端都可以跑起来才是实现 AR 场景大规模应用的前提。
Facebook 押注的元宇宙概念中,其实也包含了 AR 技术,所以在元宇宙世界到来之前,AR 技术值得我们每一个前端开发者关注学习。
彩蛋如果你问我最喜欢什么猫,我会说--“房东的猫”,~哈哈哈 ~
参考资料[1]
https://github.com/artoolkitx/jsartoolkit5
[2]
https://docs.agora.io/cn/Video/start_call_web_ng?platform=Web
[3]
https://webdemo.agora.io/basicVideoCall/index.html
[4]
https://www.bilibili.com/video/BV1R3411i7LL?from=search&seid=17803327188398196779&spm_id_from=333.337.0.0
作者:码克吐温
https://juejin.cn/post/7030342557825499166
作者:码克吐温 https://juejin.cn/post/7030342557825499166
Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved