符合用户流量、环境或个性的智能产品已经非常普遍。随着越来越多的智能产品出现在市场上,用户往往希望与它们有更多的交互,就像人与人之间的交互一样。
在21世纪的最初几十年,工艺的限制使得我们作为设计师不可能创造出完全满足这些期望的智能产品。因此,在设计智能产品的过程中,需要管理用户对交互的期望。
在这里,你会学到人们如何与智能产品互动的基本心理学,以及设计不违背用户期望的智能产品的指导原则。
什么是智能产物?
在一个普通的生活中,智能产品和用户界面在我们身边随处可见,它们可以执行一系列令人惊叹的动作。在这种情况下,我们将智能产品定义为能够告知网络用户及其使用环境,并对其进行处理,使其行为符合用户或特定环境的产品。
比如阳光普照时,遮阳帘会自动放下,再比如某个旅游app会根据你之前去过的地方推荐一个新的度假地址——甚至用自然的声音大声朗读。基本上,任何产品都可以使用网络用户或各种环境因素的信息,并以智能的方式使用它们,自动调整其行为。
在某些情况下,用户与智能产品的交互更像是交流,而不是工具的使用。例如,当你使用类似自然语音的声音来命令与智能家居的交互时,你的家人会以同样自然的方式响应你的命令,你可能会接受你与家人进行简短对话的事实。
作者/版权:吉列尔莫·费尔南德斯。版权条款和许可:公共领域
亚马逊Dot是一款具有语音控制功能的音箱,搭配智能个人助理Alexa,随着时间的推移,Alexa会了解你的喜好。它可以帮你选择音乐、关灯或者点中餐。
当产品在没有被命令的情况下自动执行操作,并且看起来能够交流的时候,在用户看来会比自己更聪明。
人类一直在寻找关于我们周围世界的智力线索,而具有一定智力和意图的最基本线索就是某物或某人能自行接受行动。
当我们遇到一个看起来很聪明的存在,比如另一个人或一只狗,我们知道我们可以期待他们有一些智慧,因为我们可以根据过去的经验来判断。
当我们碰到一个智能的产品,它有智能的行为,可以自己执行操作,我们没有太多的简历可以依据。因此,准确地期待期望是一项困难的义务。这将在设计与智能产品的交互时带来不同的挑战。
因此,对智能化产品的期待如何引起来自两方面的这些挑战就显得尤为重要。现在让我们来看看。
1. 用户对智能产物的期望
ByronReeves和Clifford Nash等学者的心理学研究告诉我们,用户倾向于将智能产品视为具有智能和意图的产品。所以首先我们会研究用户的期望是基于什么,如何管理。
2. 设计师对智能产物的期望
作为设计师,我们有时会低估用户及其环境的广阔性。
在本文的后半部分,我们将为您提供一些关于如何展望用户环境的信息。
作者/版权:Nest版权条款和许可:CC BY-NC-ND 2.0
在使用的第一周,Nest恒温器会了解你白天的习惯。然后,它会自动设置温度,以适应您的习惯。这是很多用户可以期待的一个主要组成部分——全自动住宅。
用户对智能产物的期望是什么?
人们的反应说明媒体不仅仅是工具。媒体被礼貌对待,他们可以侵犯我们的身体空,他们可以和我们有相同的人格,他们可以是队友,他们可以导致性别刻板印象。-《媒体方程式》的作者拜伦·里维斯和克利福德·纳什。
我们都可以想到这样的例子,在这些例子中,我们把科学技术看作是一种智慧的社会存在,而不是一种工具。我们有时候会把扫地机器人当成宠物,而不是清洁工具。
我们对我们的电脑感到愤怒,因为我们认为我们被误解了,或者因为它们没有做我们希望它们做的事情。如果你曾经对电脑蓝屏死机感到愤怒,你会喜欢这样的想法:你对着你的笔记本电脑大喊大叫,因为它显示“蓝屏死机”,然后试图重置它。当我看到它正常启动时,我低声说:“哟——谢谢你!”。
我们知道科技产品只是物体,但在某些情况下,我们把它们看成是有意向的、有情感的、有智慧的存在物。
斯坦福大学的Byron Reeves和Clifford Nash教授在一系列实验中发现,尽管人们有意识地认为计算机是物体而不是人,但他们对计算机的直接行为有时与他们对另一个人的行为相似。这就解释了,即使我们有意识地知道某个东西是一个工具,没有任何意图,我们也可能会接受它,就好像它是一个有生命的、有意识的或有意识的存在。
这很有意思,尤其是因为这表明这个标志其实是人类的一种自然倾向,而不仅仅是一种感性的人类特质;那么,是什么工艺让我们做到这一点呢?
我们有时会把技术看作是一种社会性的智能生物,这似乎有点新鲜。即便如此,如果看看我们是如何感知这个世界背后的基本心理,还是很有意义的。成长得益于我们与周围世界的不断互动。
从一个很小的瞬间,我们知道不同的物体是如何相互联系的,无生命的物体与有生命的物体是如何不同地存在的。例如,Gergely Csibra及其同事的一项著名研究解释说,在我们一岁之前,我们知道无生命的物体在没有外力的情况下不会移动,而有意识的物体可以自己移动。换句话说,我们可以区分有生命的个体和无生命的物体。
从进化论的角度来看,我们不断寻找意向性的线索具有重要的现实意义。这意味着我们可以很容易地发现哪些设备有意图,以及这些意图是什么。它让我们的眼睛保持敏锐,让我们的耳膜为第一个威胁信号做好准备。举个例子,如果你走在海边人行道上,钱包掉在了卵石滩上,你会毫不犹豫地跳下来捡起来。但是,如果我们把海滨长廊改成横跨鳄鱼保护区的桥,你会认真重新考虑的。
抛开僵尸幽默,石头,巨石等惰性物体,因为“死”的物体不会危及我们。当然,我们可能会为它们做出异常糟糕的选择(比如,出于某种新鲜的原因,我们把电锯的开伞索从两腿之间拉回到前面),但无论是出于本能还是意志,它们都不会因为无法“想要”制造任何器械而危及我们。
作者/版权所有者:Margaret A.McIntyre。版权条款和许可:公共领域
以前人们很容易区分物体和生物。随着技术的成长,这条线变得越来越模糊。
几千年来,区分无生命物体和具有社会智能的生物一直是相对简单的。时至今日,21世纪见证了科学进步的快速增长,也给我们人类这个物种带来了一个全新的问题:随着产品变得越来越智能,它们显得有意为之;它们的显示似乎并不总是满足用户的期望。
如果我的扫地机器人可以自己移动,知道什么时候吸尘,为什么它看不到厨房角落的灰尘?如果我iPhone上的语音助手可以告诉我天气,回答我今晚应该去哪家餐厅的问题,为什么它不能有个人的看法或感受?理性来说,我知道它不能,因为它没有意识,但我很难知道它的能力上限是多少。
如何解决文章写作效率低的问题?快速撰写新媒体文章的3个技巧和4个步骤。
作者/版权所有者:苹果公司。版权条款和许可:合理使用
在语音交互方面(这里是我iPhone上的Siri个人助理),这种工艺的交流方式类似于人类的交流,但这种交互的局限性可能并不清楚。用户不了解一个产品在做什么或者不做什么,不了解一个产品有什么,会带来负面的用户体验。在一项关于人们如何感知智能环境并与之互动的研究中,研究员Eija Kassinen和她的合著者指出,如果他们不了解智能产品,用户就会失去对它们的信任和满意。你可以拥有最大最真实的应用或设备,但用户需要理解它才能快乐。
若何不设计智能产物
所以我们知道,当智能产品看起来有了自己的心智,用户就会去寻找更多有意的线索。这意味着,如果你的产品不能满足用户的期望,不能极其聪明,你就不应该让它看起来极其聪明。
一个典型的设计例子是微软臭名昭著的office assistantClippy。1997年首次亮相的Clippy是一个动画回形针,它会自动弹出并提供协助,帮助用户完成与office相关的不同职责。但是,用户无法控制何时弹出Clippy而且它的建议也不是很有帮助,所以很快被很多office用户吐槽。
Clippy的一个问题是,尽管它表面上看起来像一个智能生物(它有一张脸,可以在文本气球中“说话”),但它对用户的流量理解有限或没有理解。从表面上看,Clippy似乎很善于社交,所以用户希望它具备一定的社交智能。
但是,由于Clippy并没有真正理解用户或者用户的流动,它无法按照社会规则行事。所以大部分用户认为Clippy很鲁莽,很讨厌。Clippy可能看起来很体谅你(或者撅嘴),但它无法以事物的形状提供内容。最后在2003年停产。
作者/版权持有人:simonbarsinister。版权条款和许可:CC BY 2.0
上世纪90年代末,微软的Office助手“Clippy”广受诟病,如今它仍活在笑话和艺术品中..
Clippy显然没有处理好用户的期望;那么,如果你想处理掉它们,你会怎么做?
看看最近成功的智能产品的例子,比如亚马逊的Dot和Nest的恒温器,你会发现许多公司都接受了不同的方式来设计智能产品,但这些产品完全不像社交产品。两款产品都有令人愉悦的简单设计,看起来都像是自己:一件工艺品。通过这种方式,他们停止了导致用户犯错的期望。
显然,你应该考虑应用于智能产品用例的社交规则,即使你的产品看起来根本不像社交工具。想想苹果iPhone的自动纠错功能,可以自动纠正用户短信中的文字,但有时会导致极其尴尬或粗鲁的文字。
基于用户与智能产品的交互,我们可以将我们的学习总结为设计智能产品时应该考虑的三个原则。
治理用户期望的指南
永远不要做出超出你能力的承诺——只有当你能做到的时候,你才能创造出一个外观和行为都具有社交能力的设备。
如果可能的话,请明确告知用户产品的功效以及目前在做什么。如果一个产品是智能的,那么用户会期望它在某种程度上拥有社交技术。想想你所在领域明显的社会规则,不要打破它们。比如你不知道用户在做什么,千万不要打断他。
手艺能够展望用户的环境吗?
Clippy的一个基本问题是,虽然它看起来像一个智能产品,但它的智能或感知用户行为的能力是有限的。当你有一个智能产品,它可以检测更多的周围环境,并提出良好的行动建议,那么你能让它自动做到哪一步呢?哪些操作需要用户批准或提议?
要理解这一点,你需要深入了解人类的互动和环境。
“我的论点是,要设计一种工具,我们必须尽力理解它将在其中发挥作用的更大的社会和物理环境。”——比尔·巴克斯顿(Bill Buxton),微软首席研究员,也是人机交互领域的先驱。
Clippy打破了一个主要的社会规则:它打断了用户,并且不知道什么时候该做什么。社交上,是极其不计后果的!你可以通过设计你的智能产品来阻止这种情况,这样它就不会在没有用户需求的情况下吸引用户的注意力。或者,你可以试着去了解用户和当时的场景,从而了解产品什么时候可能会引起用户的注意,或者在没有被要求的情况下做一些事情。
这需要对用户的环境和习惯有一个透彻的了解,这是一个众所周知的困难,因为环境和习惯是不断变化的。
作者/版权所有者:SpotifyTechnology S.A .版权条款和许可:合理使用
音乐服务Spotify会学习你的音乐习惯,并根据你的喜好提出建议。这些建议可以很容易地在不同的部门找到,但它们不会惹恼用户或引起注意。
在经典著作《设计与情境行动:人与机器的同一个问题》中,露西·苏克曼(Lucy Suchman)详细展示了为了创造更具社会性和智能的交互,技术需要理解人所处的环境和相同的习惯。她认为在设计人机交互时,很难建立一个合作的基础或者双方都能理解的环境。人与人之间的交流总是在一定的语境中,也只有同样了解语境的人才清楚。
当人们互动时,我们将永远感受不到关注,在交流中找到新的轨道,锻炼我们的互动历史知识,协调我们的行动。我们可以做到这一点,因为我们对环境有清晰的认识,这是技术很难做到的,即使它是智能的,可以检测到关于环境和用户的信息。
例如,它可能会帮助我们理解普通生活中一些简单情况的巨大性:我和丈夫刚刚回到一个寒冷的家。我看着他问:“你能把温度调高一点吗?”通过这个简单的互动,我丈夫明白了:
我在跟他语言,由于我在看着他;
把温度调高若干,由于他知道家里的温度通常是多说;
我说的恒温器是什么,由于他知道我们在哪个房间,我们通常在那里调高温度。
大多数情况下,我甚至不用问,因为他自己也会觉得冷,想要更高的温度。如果我有亚马逊的Alexa和Nest的恒温器,我可以让Alexa调高温度,但我需要让指令更详细,比如:“Alexa,把厨房的恒温器调高5度。”我需要告诉Alexa我正在和它说话,我指的是什么恒温器,以及将温度提高到多高。
这看似简单,但你必须训练用户传达准确的订单,因为不清楚智能产品需要多详细。你真的需要你的用户明白,如果他们想准备好接受他们需要的行动,他们需要微调他们的话。
或者,假设我安装了一个传感器,它知道我在哪个房间,我平时喜欢什么温度。Nest发现我的存在,会自动升温。这在大多数情况下是可行的,但是因为它不知道其他任何靠山环境,所以当我只在家10分钟或者需要离开家几分钟的时候,它就会变得很烦人。
在这种情况下,考虑如何传达产品正在做的事情可能是一个好主意。例如,Alexa可以问:“我必须先预热恒温器,这样可以吗?”这也给了我关闭自动操作的选项。
如果我让门开着,它也可以问,“嘿,我调高了暖气,因为我以为你可能会在房间里呆一会儿,但我看到门是开着的。”。你关门时,我可以开门吗?“与用户沟通产品在运行中的功效是有帮助的,也就是说你不必对家里可能出现的每一种情况都瞻前顾后。
综上所述,人是庞大的,即使是智能产品也不可能知道正在发生的一切。因此,您应该考虑以下几点:
治理限制的指南
不要假设你的产品能够完全理解用户的使用场景。
为用户提供方便的选项和建议,但不要中途打断用户行为。Spotify会推荐新音乐,但不会自动播放。如果你有疑问,找一些有限的场景,在那里你可以对正在发生的事情有一个概念。始终为用户提供关闭自主操作或自适应功能的简单方法。
你可以学到的
当人看起来是智能产品或者是具有社交属性的智能产品时,往往意味着产品能够自动适应当时人的行为和使用场景。这意味着——无论何时你在设计一个智能产品——你必须清楚地传达你的产品能做什么和不能做什么。即使你的产品很大,你也应该停止让它看起来很聪明或者有社交能力。
人们可以从周围的环境和简单的线索中了解许多乐器。但是,这对于智能产品来说,难度要大得多。在制作自动适应用户或环境的产品时要认真,始终提供关闭自动运行或自适应效果的简单方法。
明白自己创作的局限,比用户无法期待的通常生活场景领先一步,会让你的设计符合现代的期待,让你的产品走上成功之路。