Apple Vision Pro 叫做 Vision 。我想这表明了它的愿景是参与管理控制人类的视觉输入输出。
按照苏老师的说法,人类在信息上的终极需求是数码信息内容无缝与物理世界融合。即所谓的比特与原子的融合。目前视觉上我们几乎只能借助有限亮度色彩的平面屏幕从一个数码世界的切面里窥看到有限大小的,二维的内容。
AVP 则赋予了用户掌控自己视觉的能力。在无论虚实的任何环境。给予你任何内容在任何空间位播放的能力。
我们可以将对人的内容输入输出分为四点展开:数字内容的输入与输出,现实内容的输入与输出。
作为类比,听觉是人类第二大重要感官,这可以在耳机上联想到。四点论下,APP2这个形态与功能目前已经做到了对人类听觉输入输出不嵌入式情况下的大部分接管。分别是外界环境音输入,内部流媒体音频输入,数字麦克疯输出,只有一个你自己的声音输出没法控制。也就是你打电话他人会听见的问题,这或许需要脑科学的介入了。除此以外,APP2与赛博朋克中的听觉义体在效果上没有质上的区别了。
AVP 的对人现实的输入则是 see through ,通过摄像头获取然后极低延迟展示到屏幕上。对数字内容的输入是M2渲染的画面实时叠加在 see through 的画面上,只叠加一个窗口的大小是所谓 AR ,除了手臂叠加则是 VR 。现实的输出就是 eyesight 与 Persona 将你的被遮挡眼睛展示给聊天的对方。输出则依靠 Persona 在网络中展示。
类比一下 APP2 作为一个接管控制人类对听觉的设备,有以下几点与AVP相对照。
- APP2 的噪音/自适应/通透控制以及不同环境声对应AVP Environment的比例与不同场景
- APP2 的空间音频对应 AVP 的任何位置播放的能力。(当然在非空间计算设备上只会来自设备或者你的面前两种选择)
- APP2 的降噪下的对话感知对应 AVP 的开启 Environment 后他人的模糊浮现
- APP2 的麦克风一定程度上对应 Persona
对于苹果,讨论问题我往往有一个特别的角度,辅助功能。我想听觉的辅助功能能类比到视觉中。
听觉辅助功能里有在左侧,我类比的近似内容会在括号里
背景音(Environment)
对话增强(对话转文字,实时翻译?)
实时收听(放大镜?)
使用一只耳朵降噪(单眼使用AVP 或者单眼虹膜录入?)
声音持续识别(视觉识别?siri物品介绍与建议?现实版本大爆炸?)
自定义音频设置(自定义视觉设置?红绿色盲映射?纯色盲的颜色识别器?)
或许vision pro以后或者下一代能带给一些色盲,视觉障碍人士一些更多的帮助。譬如带着它出门,雷达与摄像头可以更好的识别环境告诉视力障碍人士。(现在 iPhone 放大镜已经有了)对于色盲患者,可以用覆盖式的图案表示不同东西的颜色或者红绿色盲也能选择合适的衣服搭配。或者当你看不清远处的字牌就放大给你看。用到翻译上,你可以实时看着一个被翻译过的世界,路牌菜单一切都直接翻译好了给你。与人对话直接显示字幕与翻译后的内容在他嘴边。
当然只是一些浅薄的想法