最近,我们看到可穿戴技术领域出现了许多“颠覆性创新产品”。
这些技术很可能会给我们的生活、工作甚至全球经济带来改变。
发生翻天覆地的变化。
这些产品包括Google Glass、Apple Watch和Oculus Rift,它们不仅重新定义了我们获取信息的方式,也重新定义了我们彼此互动的方式。
确实,我们已经看到了新一代的人机交互机制。
从现在开始,我们看待科技产品的方式以及与之互动的方式需要重新调整。
如何在逐渐崛起的巨大“可穿戴技术市场”中获得自己的一席之地,如何认识并有效利用可穿戴技术的价值,是摆在很多企业面前的难题。
在这篇文章中,我们将讨论可穿戴技术产品中有效的交互设计应该是什么,以及其背后隐藏着什么样的心理动机。
可穿戴科技产品要实现什么样的交互设计才能满足人们的需求?内心深处的需求。
认知神经病学是心理学和神经病学的交叉学科。
它与生理心理学、认知心理学和神经学有重叠。
该理论以认知为基础,结合了神经心理学和神经学。
计算机建模方面的东西。
在考虑界面设计时,神经科学是一个很好的工具,因为它决定了人们如何处理信息。
对于一个前所未见的全新科技产品,人们看待它、与之互动的方式并不取决于设计师能够提供多么惊艳的UI,而是取决于电子消费者本身的认知过程。
。
当人们接触到这种新奇的产品时,随时都会产生一些意想不到的反应,那么我们应该如何设计可穿戴技术产品呢?我们应该摆脱以前传统的设计方法,比如画线框图,而是关注产品角色本身,即你最终希望用户达到什么结果。
基于这个最终考虑,设计了一条适合用户对产品的本能反应以及后续交互方式的路径。
当你脑子里有了一些画面之后,你就不需要去弄清楚用户在接触产品后每一步应该采取什么,也不需要评估产品本身应该有什么功能,不应该有什么功能。
上面说的有点太抽象了,我们举个例子吧!为了激发程序员的创造力,Google Glass专门开发了5款小游戏供他们玩。
可以看到,在与产品交互的过程中,脑海中浮现的图像发挥着非常重要的作用。
用户无需经历学习曲线即可知道下一步操作是什么。
当游戏中的某些元素突然出现时,用户已经知道如何与它们交互,并且学习曲线被最小化。
因此,在设计新技术产品时,必须提前预测用户看到某个元素后会有什么行为,然后遵循这个想法,让这种反应自然发生。
请记住,在用户与产品交互的过程中,用户脑海中会出现三种不同类型的图像。
他们共同拼凑出一个足够人性化、足够有效的交互界面。
它们包括: 代表现在的图像 代表过去的图像可以代表预定未来的图像。
不用担心,您不需要对每个用户进行核磁共振成像来弄清楚这些图像在他们的脑海中是如何组合在一起的。
相反,你需要的是你所设计的心理图像的有效性和普遍性。
当一项新技术产品推出时,人们最看重的当然是用户体验。
这时候我们就需要在现实中测试一下之前设想的用户交互方式,看看他们是否按照我们当时的想法来使用产品。
我们已经多次看到产品在这里失败了。
现实给了产品设计师狠狠的一巴掌。
事实证明,现实中所期待的那种互动根本不存在!在无法确认这些前提的情况下,贸然开工、设计、生产,最终只会造成浪费。
更重要的是,无数人倒在了这块石头上,比你想象的还要多! 在可穿戴产品中调动多种感官可穿戴技术产品有其自身的优势。
与智能手机和移动设备相比,它们可以更好地与人的身体连接和互动。
您应该从产品开发的早期阶段就意识到这一事实,而不应该专注于手动交互。
以眼睛为例。
在对可穿戴设备的研究中,人们发现,人们在不需要手的环境中的反应与在需要手的环境中的反应完全不同。
一旦眼睛发挥作用,就会有另一套反馈机制。
人们常常本能地做出反应,有时甚至是不合逻辑的。
为了完成某个动作,他们常常希望走更容易、更快的捷径,但这些路径从来都不是直线。
有一款产品能够成为充分调动用户各种感官的代表,它就是为 Apple Watch 设计的 Evernote 应用。
手表上的应用程序追求的目的实际上与桌面应用程序 Evernote 和移动 Evernote 所追求的目的相同,但其做法却完全不同。
智能手表上只有一个按钮。
只需一按,您将自动进入应用程序并享受应用程序的所有功能。
您不需要多级菜单。
如果您开始说话,应用程序会立即创建您的命令注释并将其同步到您的日历。
作为用户,您沉浸在最接近本能反应的体验中,并对自己所做的事情拥有完全有效的控制,而您所处的操作环境几乎没有图形用户界面(GUI)可以发挥作用!除了视觉、触觉和听觉之外,我们还有其他难以捕捉的感知吗?我们还需要考虑这些因素,比如压力、恐惧和快乐,这些因素都会在这种环境下被放大。
您应该非常清楚您的产品将如何影响这些感觉,并利用它或消除它。
再次,利用人们的自然认知过程进行产品设计,而不是试图让产品改变人们的认知过程。
用户语音交互 过去,设计语音交互(VUI)非常困难。
首先是语音软件识别的技术还不够成熟,语音交互的概念也很难捕捉。
如今,语音交互设计已经有了一些进步,至少在当前市场上得到了部分用户的认可。
用户可以说话,机器也使用语音来给出反馈。
然而,这类产品仍然存在一些过去存在的局限性和缺点。
所以在这里,本文想简单分析一下人们喜欢语音交互系统的什么,不喜欢什么。
对于刚接触此类产品的初学者来说,他们不喜欢与机器交谈。
一般来说,当人们进行交谈时,过程是这样的:你发送消息(仔细选择词语、音量和语气,以确保消息能够完整地传达给对方),而对方对方收到消息后会回复。
给你一些反馈,以确保他完全理解你的信息。
但如果你面对的是一台机器,这样的过程根本不存在。
与其说你是在对话,不如说你是在下达命令,要求它给你一些有用的信息。
当你说话的时候,你根本就不是生活中最自然的状态,你抛开一切外在因素,只专注于语言本身,需要机器真正理解你所说的每一个字。
更重要的是,使用语言作为向用户提供信息的手段是非常低效的。
声音会打开菜单并允许用户做出选择。
每一项的阅读都极其耗时(想象一下拨打国内电话时的焦急,“中文请按1,英文请按2”!)而且,用户没有办法看到数据的结果,他们也不记得从行动开始到实现目标的路径。
这些都是新型智能交互硬件面临的现实障碍和挑战,目前确实还没有完美的解决方案。
如果有必要,那么在语音控制过程中要及时添加一些人工辅助服务。
然而,必须仔细考虑应用领域,以最大限度地发挥人工服务的价值。
或者在操作过程中添加一些触摸和视觉辅助工具。