: usability test: user test[1]

CPU使

ユーザビリティテストではないこと

編集

調調使[2]調

稿沿使

手法

編集

ユーザビリティテストでは観察者が記録する中、入念に設計されたシナリオや現実的な状況下で、被験者は検証対象である商品を使ったいくつかのタスクを行う。合わせて、指示書やペーパープロトタイプ、事前/事後アンケートなども商品についてのフィードバックを得るために用いられることがある。例えばメールの添付機能を検証するにあたっては、シナリオ上ではユーザが添付メールを送らなければならない状況下にある事を説明し、そのタスクを行うことを要求する。開発者が問題点や人々の嗜好を見つけるために、ユーザが現実的で普段通りの行動を行うところを観察することが目的である。思考発話、共同発見学習、アイトラッキングなどの手法が、ユーザビリティテスト中にデータを集める目的で多用される。

ホールウェイテスト

編集

ホールウェイテストはユーザビリティテストの安価な手法の一つで、無作為に選ばれたユーザーに(例:そのあたりの廊下・街頭を歩いている人)商品やサービスを使用してもらうものである。このテストは新デザインの初期段階における「煉瓦の壁」、すなわち使用するにあたって進めなくなるほどの致命的な問題を発見する一助となる。プロジェクト関係者やエンジニア以外が対象となる(プロジェクトに近しい者は一般的ではない「専門家」として意見を述べてしまいがちになるため)。

リモートユーザテスト

編集

WebEx[3]

[4]調

WebExGo-to-meeting[5]調調/調[6]使[7]

専門家審査

編集

199410[8] 調
  • システム状態の視認性
  • システムと実世界の調和
  • ユーザーコントロールと自由度
  • 一貫性と標準化
  • エラーの防止
  • 記憶しなくても、見ればわかるように
  • 柔軟性と効率性
  • 美的で最小限のデザイン
  • ユーザーによるエラー認識、診断、回復をサポートする
  • ヘルプとマニュアル

自動化された専門家審査

編集

専門家審査と同様に、自動化された専門家審査は、良いデザインやヒューリスティックのルールに基づいたプログラムを通してテストを行う。自動化された評価は人が行う場合と比べて得られる具体性や見識に劣る場合があるが、より早く安定して完了することができる。代理ユーザーを立ててユーザビリティテストを行う発想は、AIコミュニティにおける野望的な発想である。

A/Bテスト

編集

Web開発やマーケティングおいて、ABテストもしくは多変量テストはWebデザイン(特にユーザーエクスペリエンスデザイン)に対する実験的なアプローチであり、特定の出力結果(例:バナー広告のクリック・スルー率)を最大化させるWebページ上の要因を特定することを目的としている。その名の示す通り、ユーザーの行動の影響を及ぼしうる一つの要因を除いて全く同一のページの、二つのバージョン(AとB)が比較される。例えば、e-コマースサイトにおける購入過程は、ドロップオフ率のわずかな成長もセールス全体の大幅な増益につながりかねない為、A/Bテストの典型的な比較例である。セールス文言、レイアウト、画像や色使いなどの要素を検証することで大幅な改善が見られる場合がある。多変量テストやバケツテストはA/Bテストと似ているが、それらは同時に二つ以上のバージョンをテストするものである。

何人テストする?

編集

199052, 35[9]

5U[10]

 

pn

 

[11] [12] 

(一)

(二)/[13]

55調5101121352450100

2使[14]

550100

テスト例

編集

1982Apple Computer[15]

(一)

(二)

(三)12

[15]:

5656231

使

95

脚注

編集


(一)^ Nielsen, J. (1994). Usability Engineering, Academic Press Inc, p 165

(二)^ http://jerz.setonhill.edu/design/usability/intro.htm

(三)^ Andreasen, Morten Sieker; Nielsen, Henrik Villemann; Schrøder, Simon Ormholt; Stage, Jan (2007). What happened to remote usability testing?. Proceedings of the SIGCHI conference on Human factors in computing systems - CHI '07. p. 1405. doi:10.1145/1240624.1240838. ISBN 9781595935939. 

(四)^ Dray, Susan; Siegel, David (2004). Remote possibilities?. Interactions 11(2): 10. doi:10.1145/971258.971264. 

(五)^ http://www.techved.com/blog/remote-usability

(六)^ Dray, Susan; Siegel, David (March 2004). Remote possibilities?: international usability testing at a distance. Interactions 11(2): 1017. doi:10.1145/971258.971264. 

(七)^ Chalil Madathil, Kapil; Joel S. Greenstein (May 2011). Synchronous remote usability testing: a new approach facilitated by virtual worlds. Proceedings of the 2011 annual conference on Human factors in computing systems. CHI '11: 22252234. doi:10.1145/1978942.1979267. ISBN 9781450302289. 

(八)^ Heuristic Evaluation. Usability First. 201349

(九)^ Usability Testing with 5 Users (Jakob Nielsen's Alertbox). useit.com (2000313). 201561; references Jakob Nielsen, Thomas K. Landauer (April 1993). "A mathematical model of the finding of usability problems". Proceedings of ACM INTERCHI'93 Conference (Amsterdam, The Netherlands, 2429 April 1993).

(十)^ Virzi, R. A. (1992). Refining the Test Phase of Usability Evaluation: How Many Subjects is Enough?. Human Factors 34(4): 457468. doi:10.1177/001872089203400407. 

(11)^ http://citeseer.ist.psu.edu/spool01testing.html

(12)^ Caulton, D. A. (2001). Relaxing the homogeneity assumption in usability testing. Behaviour & Information Technology 20(1): 17. doi:10.1080/01449290010020648. 

(13)^ Schmettow, Heterogeneity in the Usability Evaluation Process. In: M. England, D. & Beale, R. (ed.), Proceedings of the HCI 2008, British Computing Society, 2008, 1, 89-98

(14)^ Bruce Tognazzini. Maximizing Windows. 201561

(15)^ abMeyers, Joe; Tognazzini, Bruce (1982). Apple IIe Design Guidelines. Apple Computer. pp. 1113, 15. http://www.apple2scans.net/files/1982-A2F2116-m-a2e-aiiedg.pdf 

関連項目

編集

外部リンク

編集