今日芯声|充满科技感的虚拟健身房,让健身变成一件轻松事儿

今日芯声|充满科技感的虚拟健身房,让健身变成一件轻松事儿

首页休闲益智健身房模拟器更新时间:2024-04-24

1. 充满科技感的虚拟健身房,让健身变成一件轻松事儿

初秋的天气,赶走了燥热感,正好适合把夏天未执行的健身计划恢复日程,但秋天也因为天气变幻无常,要担心空气不好,运动人数过多没有场地,雨天路滑,原本想好的计划就这样一次次落空。

尽管有健身房,可以利用室内健身器材,不必担心外界因素影响,可面对室内四壁枯燥无味始终缺少真实的爽快感。

虽然,健身行业一直在试图提高运动时的趣味性,比如让大家在运动的同时可以看电视节目,但是效果却都不甚理想。

于是,VR 健身房的新型运动方法进入了大众视野。FreeSpin虚拟现实动感单车就是一款融合了虚拟现实技术的新型动感单车,采用VR技术模拟了十几种虚拟场景。

健身者在每一种情境下都能自由骑行,感受无限视界,甚至可以进行游戏竞技。这种的健身方式,提高了健身房的运动氛围,不禁让人感叹,原来健身也可以这么的有意思!

与传统意义上的动感单车相比,FreeSpin具有其明显的优势和特色,真实模拟自行车运动。

在这辆神奇的自行车上,你可以一边骑车,一边享受动感音乐,一边欣赏虚拟世界的风景,让枯燥的健身过程变得生动有趣。

你可以亲临那些从来没有去过的雄山大川、峡谷险境,安全地体验极限运动的惊险刺激。

但实际上在目前市场,VR 健身自行车市场还是面临很大的挑战的。

比如带着VR眼镜脖子受重容易累,不易擦汗,VR眩晕问题等,因此,David Lloyd健身房就想到了别样的解决方案。

使用全屏幕投影技术。David Lloyd是首家配备了旋转式全屏幕投影的健身房,提供了一种不同于以往的健身体验。

四面墙壁是弧形大屏幕,结合声、光、电等,让健身者可以在一个奇妙的、沉浸式的虚拟环境进行运动,而不必再面对无聊的白墙或是镜子。

快节奏的音乐、充满未来感的旋转画面,能带来非常新奇的健身体验,使健身达人更加酣畅淋漓。

不仅如此,此健身房还可以自行定制内容、音乐、环境等内容,十分受健身达人热爱。

当硬件设施不能再满足人们的日常需求时,就需要通过软件去填补硬件的不足。

被高科技加持的健身房,目的主要是为了让人们在健身的过程中也能充满趣味。

说不定在未来,虚拟健身会成为健身房的普遍现象。

2. 德国西门子公司推出世界上第一辆人工智能自动电车

世界上第一辆人工智能的自动电车以不引人注目的外表风格在柏林西部的波茨坦市推出。

这款人工智能自动电车是由德国工程公司西门子公司的50名计算机科学家,工程师,数学家和物理学家组成的团队开发的。

该电车配备多个雷达,激光雷达(来自激光的光)和相机传感器,形成数字眼睛,在每次旅途中拍摄电车及其周围环境,电车对轨道信号作出反应,并且比人类更快地应对危险。

西门子公司表示,目前它还不具备商业上的可行性,它能够为更广泛的无人驾驶技术领域做出贡献,并称其为自动驾驶的重要里程碑。

他们在从波茨坦运输公司ViP的电车仓库进行实际交通旅行时对该人工智能电车做了模拟测试:

一名西门子员工将一辆婴儿车推到电车将要通过的路径上。在传感器发出警报后,自动电车立刻响应。一旦将婴儿车安全地拉回到人行道上,自动电车就会平静地重新启动自动驾驶系统。

“未来,如果将该人工智能自动电车部署在波茨坦后,司机将被简单地部署在系统的其他地方。

例如在平台上整理乘客或帮助残疾人或婴儿车,高科技电车不会导致裁员。”波茨坦运输公司的经理Oliver Glaser说。

3. 苏宁成立智能终端公司 发布10款“苏宁极物”品牌智能硬件

苏宁智能产品2018秋季发布会在北京举办。

在发布会上,苏宁智能终端公司发布苏宁小Biu智能音箱极智版、智能闹钟、苏宁极物系列智能魔镜、智能安防套件、智能烟灶机、智能新风机、智能晾衣机、智能云锁,以及PPTV新一代激光电视、QLED电视等10款智能硬件产品。

并发布苏宁BiuOS,成立苏宁智能Biu 生态联盟,宣布全面进军智能生活硬件领域。

作为零售平台巨头,苏宁*入智能生活硬件领域筹备已久。

2018年初,苏宁宣布成立智能终端公司,基于苏宁互联网技术、内容优势及智慧零售生态,致力于打造服务于家庭及个人消费者的硬件产品及智能生活解决方案。

本次发布会也是苏宁智能终端公司成立以来首次大规模推出智能硬件产品。

在发布会上,苏宁智能终端公司常务副总裁刘东皓表示,推出苏宁极物智能硬件产品,苏宁进行了长时间的准备。

公司依托苏宁技术、内容、平台优势,围绕智能家电、智能家居、影音显示、运动健康、智能穿戴和车联网等场景进行产品布局。

并聘请了全球顶级工业设计大师Frank Stephenson担任创意总监,打造“科技”、“时尚”、“品质”的苏宁极物智能硬件。

在此次发布的10款产品中,既有新一代苏宁小Biu智能音箱极智版、国内首款液晶屏智能闹钟、家庭智能健康助理、智慧卫浴入口智能魔镜、智慧厨房入口智能烟机等重量级入口级产品。

也有获得德国红点奖的苏宁极物智能安防套件,采用金融行业专用C级锁芯,五种解锁方式、防特斯拉线圈破解的智能云锁,可语音控制升降的智能晾衣机,“内外双循环”、功能秒*空净产品的智能新风机。

进军智能硬件领域,苏宁出手不凡。此次发布的产品集成了人工智能、IOT、大数据等最前沿的创新技术,同时具备高端时尚的品牌个性,极简智慧的工业设计美学,按照Frank Stephenson的说法,可谓“充满动力和惊喜”。

发布会现场,苏宁智能终端公司联合业内知名的智能语音、影音内容、硬件制造、工业设计、智能家电家居厂商等众多上下游合作伙伴,共同成立了苏宁智能Biu 生态联盟。

苏宁智能终端公司常务副总裁刘东皓表示,苏宁智能Biu 生态联盟成立的意义在于,真正构建一个平等、开放、协作、共赢的行业合作联盟。

通过苏宁的平台优势,一方面整合优势技术、产品、内容、供应链、运营资源,打造更智能的硬件产品及智能生活解决方案。

一方面打破行业封闭现状,实现不同品牌之前的互联互动,通过BiuOS及苏宁零售平台,将苏宁的技术、内容、渠道、平台、服务优势与合作伙伴共享,为行业良性、快速发展带来全新动力。

业内人士评价,苏宁成立智能终端公司,依托苏宁技术、内容及平台优势,一口气推出10款智能硬件产品,成立苏宁智能Biu 生态联盟。

以推出BiuOS及自有品牌的入口级智能硬件为支点,撬动整个智能家居行业,实现智能硬件跨品牌的互联互通,此举必将在已经全面爆发的智慧生活硬件领域内掀起新的高潮。

4. 使用深度学习完成自动驾驶

毫无疑问,自动驾驶汽车将成为未来的标准运输方式。从优步和谷歌到丰田和General Motors的大公司都愿意花费数百万美元来实现这一目标,因为预计未来市场将达到数万亿美元。

在过去的几年里,我们看到该领域发生了巨大的变化,优步,特斯拉,Waymo的汽车在他们的记录中总共有800万英里。

当然,由于硬件和软件方面许多不同技术的进步,自动驾驶汽车现在已成为现实。

激光雷达传感器,摄像机,GPS,超声波传感器正在协同工作,以便从各种可能的来源接收数据。使用高级算法实时分析这些数据,使自动驾驶仪功能成为可能。

按以下顺序形成自动驾驶pipeline有5个基本步骤:1. 定位2. 感知3. 预测4. 规划5. 控制。

定位是自动驾驶汽车如何确切知道它在世界上的位置的基本要素。在这一步中,他们从上述所有传感器(传感器融合)获取数据,并使用称为卡尔曼滤波器的技术以尽可能高的精度找到它们的位置。

卡尔曼滤波器是一种概率方法,它使用随时间的测量值来估计物体位置的状态。另一种广泛使用的技术是粒子滤波器。

感知是汽车如何感知和理解环境。这是计算机视觉和神经网络发挥作用的地方。稍后会有更多介绍。

在预测步骤中,汽车预测周围环境中每个目标(车辆或人)的行为。他们将如何移动,朝哪个方向移动,以何种速度移动,他们将遵循什么样的轨迹。

这里使用的最常见模式之一是递归神经网络,因为它可以从过去的行为中学习并预测未来。

路径规划是可自我解释的。这是汽车计划遵循的路线或换句话说产生的轨迹。这是通过搜索算法(如A*),Lattice规划和强化学习来完成的。

最后,控制工程师从这里开始。他们根据前一步骤中生成的轨迹来相应地改变汽车的转向,加速和刹车。

最常见的方法是PID控制,但还有一些其他方法,如线性二次调节器(LQR)和模型预测控制(MPC)。

我们将使用Udacity的开源自动驾驶汽车模拟器。要使用它,您需要安装Unity游戏引擎。现在是有趣的部分:

现在模拟器已经从3个不同的角度产生了1551个帧,并且还记录了517种不同状态下的转向角,速度,油门和刹车。

在我们使用keras构建模型之前,我们必须读取数据并将它们分成训练集和测试集。

def load_data(): data_df = pd.read_csv(os.path.join(os.getcwd(),data_dir, 'driving_log.csv'), names=['center', 'left', 'right', 'steering', 'throttle', 'reverse', 'speed']) X = data_df[['center', 'left', 'right']].values y = data_df['steering'].values X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) return X_train, X_test, y_train, y_test

在那之后,我们将构建我们的模型,其具有5个卷积,一个Dropout和4个Dense层。

def build_model(): model = Sequential() model.add(Lambda(lambda x: x/127.5-1.0, input_shape=INPUT_SHAPE)) model.add(Conv2D(24, kernel_size=(5, 5),strides=(2,2) ,activation='elu')) model.add(Conv2D(36, kernel_size=(5, 5),strides=(2,2) ,activation='elu')) model.add(Conv2D(48, kernel_size=(5, 5),strides=(2,2),activation='elu')) model.add(Conv2D(64, kernel_size=(3, 3), activation='elu')) model.add(Conv2D(64, kernel_size=(3, 3), activation='elu')) model.add(Dropout(0.5)) model.add(Flatten()) model.add(Dense(100, activation='elu')) model.add(Dense(50, activation='elu')) model.add(Dense(10, activation='elu')) model.add(Dense(1)) #model.summary() return model

网络将仅输出一个值,转向角度。

在我们传递模型的输入之前,我们应该做一些预处理。请注意,这是通过OpenCV完成的,OpenCV是一个用于图像和视频操作的开源库。

首先,我们必须生成更多数据,我们将通过增加现有数据来实现这一目标。例如我们可以翻转现有图像,平移它们,添加随机阴影或改变它们的亮度。

image, steering_angle = choose_image(data_dir, center, left, right, steering_angle)image, steering_angle = random_flip(image, steering_angle)image, steering_angle = random_translate(image, steering_angle, range_x, range_y)image = random_shadow(image)image = random_brightness(image)

接下来,我们必须确保裁剪和调整图像大小以适应我们的网络。

def preprocess(image): image = crop(image) image = resize(image) image = rgb2yuv(image) return image

训练时:

def train_model(model, X_train, X_valid, y_train, y_valid): model.compile(loss='mean_squared_error', optimizer=Adam(lr=0.001)) #Fits the model on data generated batch-by-batch by a Python generator. model.fit_generator(batch_generator(data_dir, X_train, y_train, batch_size, True), steps_per_epoch, num_epochs, verbose=1, validation_data=batch_generator(data_dir, X_valid, y_valid, batch_size, False), validation_steps=40 )

现在我们有训练的模型。它基本上克隆了我们的驾驶行为。让我们看看我们是如何做到的。

为此,我们需要一个简单的服务器(socketio服务器)来实时将模型预测发送到模拟器。我不打算了解有关服务器内容的许多细节。

重要的是我们使用模拟器实时生成的帧和日志预测转向角的部分。

steering_angle = float(data["steering_angle"]) throttle = float(data["throttle"]) speed = float(data["speed"]) image = Image.open(BytesIO(base64.b64decode(data["image"]))) image = np.asarray(image) image = preprocess_data.preprocess(image) image = np.array([image]) steering_angle = float(model.predict(image, batch_size=1)) throttle = 1.0 - steering_angle ** 2 - (speed / speed_limit) ** 2#send prediction to the simulatorsend_control(steering_angle, throttle)

结果如下:

不错。一点也不差。

我们确实做到了。我认为Udacity的模拟器是让人开始学习自动驾驶车辆的最简单方法。

总而言之,自动驾驶汽车已经开始成为主流,毫无疑问,它们比我们大多数人想象的要早得多。

构建一个是非常复杂的,因为它需要从传感器到软件的许多不同组件。但在这里,我们只做了非常小的第一步。

素材来源:搜狐科技、机器之心等

如需转载,请后台留言,遵守转载规范

查看全文
大家还看了
也许喜欢
更多游戏

Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved