ユーザーインタビューは主に言語情報からインサイトを引き出す手法ですが、インタビュイーの表情や仕草、使い方のクセなど「非言語的なサイン」から得られる知見も膨大です。この非言語情報を観察(オブザベーション)することで、ユーザーの言葉にならない不安・不満、あるいは気づいていないニーズを浮き彫りにできます。
今回は「オブザベーション×ユーザーインタビュー」をテーマに、非言語的な情報を捉えるメリットや、具体的な観察ポイント、データ整理方法、フレームワークを解説します。インタビュー結果にオブザベーションを掛け合わせることで、より正確かつ深いユーザー理解を目指しましょう。
ユーザーインタビューの基本全体像に興味がある方は、「ユーザーインタビューの目的・設計・やり方・分析まで完全ガイド」もあわせてご参照ください。

なぜ「非言語的情報」が重要なのか?
ユーザーが言葉で話す内容は、本人が意図的または無意識にバイアスをかけている可能性があります。
一方、表情のわずかな変化、マウス操作の迷いやため息などは、本人の意図を超えた“自然な反応”として現れることが多いです。
そんな非言語情報と言語情報の双方が合わさることで、ユーザーの“本音”や潜在的課題がより鮮明になります。
Albert & Tullis (2013)によると、視線や操作速度といった非言語的要素は、ユーザーが感じる「使いづらさ」や「違和感」を示す客観的な指標になり得ると報告されています。実際の行動に着目することで、本人の言葉の裏に潜む意図や本当の使い勝手を推察できるのです。
「非言語情報」のオブザベーション時に注目するポイント
視線の動き
ユーザーは「本当に気になる部分」や「理解できない部分」を凝視する傾向があります。画面上のどこを見ているのか、どの要素を見逃しているのかを把握することで、設計上の改善ヒントを得られます。
可能であれば、目線トラッキングツールを使うか、画面共有しながら観察すると効果的です(ただ、実際にインタビューで目線トラッキングツールを使っているのを僕はみたことがありません)。
マウスカーソルやタップの迷い
クリックやタップまでに時間がかかっている場所は、操作に迷いがある可能性が高いです。
「Lostness」や「タスク間連関分析」といったユーザビリティ指標も参考に、どのステップで迷子になっているかを定量的に確認すると、UIの課題が見えてきます。
インタビューメモを取るときに、どこで操作が詰まったり手戻ったりしたかを記録しておきましょう。

ため息・表情の変化・姿勢
使っている最中に軽いため息が出たり、顔が曇ったり、急に身体が前のめりになったりなど、本人が無意識に示す反応こそが宝の山。
「言葉では不満を口にしていないけど、なぜか表情が暗くなる」という瞬間は、製品上のストレスポイントや心理的抵抗を示しているかもしれません。
発話と行動のギャップ
「使いやすい」と口では言いながら、実際は操作に時間がかかっていたり、何度も同じ画面を行き来しているケースもあります。
この矛盾を見つけることで、本当の改善ポイントを見抜けます。
この辺りの「非言語情報」ですが、実はインタビューをしている本人は話すこと、聞くことに必死で気づかないか、気づいてもすぐ忘れてしまいがち。なので、インタビューのペアとなる「メモ係」がここは抑えて漏れずに記録してあげましょう。インタビュアーは事前にメモ担当に、表情の変化、マウス操作時の停止、目線の動きなどいくつか注目ポイントを設定して、それがみられたらメモをとってもらうようにしましょう。
合わせて使うべきツール&データ整理方法
非言語情報は、テキスト化が難しいぶん見逃しやすいです。そこで、以下のツール・方法を組み合わせて補完するのがおすすめです。
動画録画・スクリーンレコーディング
ZoomやTeamsなど、リモートインタビューツールには画面共有と録画機能が備わっている場合が多いです。ユーザーの顔と画面操作の両方を録画しておけば、あとで分析しやすくなります。
タイムスタンプを活用したメモ
インタビュー中、気になる仕草や表情があったら、その瞬間にタイムスタンプをメモ。後で再生しながら振り返る際、重要ポイントをすぐ参照できます。
ChatGPTでユーザーインタビューの分析を爆速にする方法なども参考に、テキストログとの紐付けを強化するのがおすすめです。

スクリーンキャプチャ+アノテーション
ユーザーが戸惑った画面やエラー画面など、重要シーンをキャプチャし、そこに注釈を入れる形で保存。
「どの部分にマウスが滞留していたか」「画面右上のボタンを見落としていた」などを可視化すると、チーム共有がスムーズになります。
非言語情報をヒアリング結果に統合するフレームワーク
非言語情報とインタビュー内容を別々に扱うと、分析が散らばりやすくなります。そこでおすすめなのが「行動+言葉+背景」の3層フレームワーク。
- 行動: 実際の操作、表情、仕草など非言語的要素
- 言葉: インタビューでの発言、回答内容
- 背景: ユーザーが置かれている環境や心理状態
この3つを一体で捉えると、
- なぜ、その行動に至ったのか?
- 言葉で肯定しているが、行動は矛盾していないか?
といった関連性が明確になります。
たとえば「操作がスムーズに見えるのになぜか不満げに見える → 実は既存ツールの方が慣れていて、そちらと比較してしまう心理が働いている」など、単なる発話だけでは捉えきれない洞察が得られます。
今日から実践できるアクション
- 「動画録画+リアルタイムメモ」
最低限、画面共有とユーザーの表情がわかる形で録画する。その際、気になったタイミングをメモし、後でピンポイントで再チェック。 - 「矛盾探し」を意識
ユーザーの発言と行動にズレがないかを観察。言葉では好意的だが操作はぎこちない場合こそ要チェック。 - 観察結果をチームで共有
録画クリップを短く編集し、重要シーンだけをまとめて見てもらうと、開発・デザインチームの理解が一気に深まる。
Q&A
- Q1. オブザベーションは必ず対面でやる必要がありますか?
- リモートでもユーザーの表情や操作画面を録画し、観察することは十分可能です。ネットワーク環境が安定しているなら、遠隔のユーザーにも気軽に実施できます。
- Q2. ユーザーが緊張して“普段通り”にならないのでは?
- 確かにホーソン効果などが懸念されますが、事前に雑談でラポール形成する、リモートで自宅などの自然な環境から参加してもらうなどで緩和できます。
- Q3. 非言語情報を見ても結局どう活かせばいいのかわかりません
- まずはユーザーの「隠れたストレス」や「言葉にしづらい満足感」を明らかにすることを目指してください。そこから製品改善や新機能のヒントが得やすくなります。
参考情報
- Albert, W. & Tullis, T. (2013). Measuring the User Experience. Morgan Kaufmann.
- Kuniavsky, M. (2003). Observing the User Experience. Morgan Kaufmann.
- Nielsen, J. (2001). First Rule of Usability? Don’t Listen to Users.
- 「Lostness」「タスク間連関分析」については、こちらの記事でも解説しています。
- https://pm-ai-insights.com/lostness/
コメント