「新機能リリース前に、Figmaでプロトタイプを作ってユーザーインタビューをやったけど、結局良かったのか悪かったのかよくわからない……。」
これは、プロダクトマネージャーやリサーチャーの多くがぶつかるジレンマだと思います。すでに何度かプロトタイプを用いたインタビューを経験しているはずなのに、ユーザーからは漠然とした感想しか引き出せなかったり、矛盾する意見ばかりが集まって結論が見えなかったり。
本記事では、そんな“インタビューの結論があいまいになりがち”なケースの背景を整理しつつ、解決策や視点を考察します。
なぜ「結局わからなかった」という事態が起こるのか
「なんとなく刺さっているような、いないような……..」——そう感じてしまう原因は代表的な要因を以下です。
- 検証の着眼点が不明瞭:
新機能の狙いや評価基準(KPI/KGI)が曖昧なまま、使い勝手だけを漠然と聞いているため、ユーザーも「うーん、悪くはない…かな?」としか答えられないし、振り返る時も良し悪しを判断する基準がない。 - ユーザーの利用シーンが想定されていない:
ただプロトタイプを見せても、「これはどんな状況で使うの?」とユーザー自身がイメージしにくく、回答が表面的になる。 - インタビューの質問設計が浅い:
「どうですか?」「好きですか?」など抽象的な聞き方が多いと、意見が散漫になりやすい。 - テスト対象ユーザーが適切ではない:
実際のターゲット層とかけ離れたユーザーをリクルーティングしてしまい、意見がピント外れになる。 - 矛盾するフィードバックが混在:
ユーザーによって前提や価値観が異なるまま、一気に意見を集約しようとした結果、「いい」「悪い」の両方が出てしまう。 - シンプルに、本当に刺さってない:
ユーザーにめちゃくちゃ深く刺さっているときは(満塁ホームラン級)、実は細かい指標なんてなくてもわかります。ユーザーから「これ、いつから使えますか?」とか聞かれます。が、これは頻繁に起こる現象ではないのでちゃんと設計して計測しましょう。
こうした課題を解決するには、「どこを」「どのように」検証したいかを明確にし、インタビュー全体を最適化していく必要があります。
ステップ1:検証の”軸”を先に固める
新機能の検証でゴールや評価観点が曖昧だと、いくらユーザーに聞いても“よくわからない感想”で終わってしまいがちです。まずは次のような検証軸をはっきり定義します。
1. ビジネス的な評価指標
- リリース後、この機能はどのKPI/KGIに寄与するのか?
例:ユーザーのアクティブ率、チャーン率低下、課金転換率など。
2. ユーザー課題に対する価値仮説
- 「〇〇なシーンで、ユーザーは△△な課題を抱えている。それをこの新機能で解決できるはず」
→ この前提が合っているかを確かめるためのインタビュー質問を設定する。
3. 操作性・UIに関する評価指標
- 特定の操作が分かりやすいか、あるいは複雑すぎないか
→ 例:操作フローをタスク化して「何秒で理解できるか」「どのタイミングで戸惑うか」を観察する。
これらの軸を持ったうえでプロトタイプを用意しておくと、ユーザーに「どんな背景で、どこを見て欲しいか」がはっきり伝わり、曖昧な感想に振り回されなくなります。
ステップ2:インタビュー設計をアップデート
すでに何度かプロトタイプテストを行っている方は、一歩進んだ設計・質問手法で深い洞察を得られるよう工夫することで、より確度を上げる示唆を得ることができます。
1. シナリオベースのタスク指示
新機能を使う“想定シーン”を具体化し、ユーザーにシナリオを提示します。
「たとえば、出社前にスマホでサクッと注文しないといけない状況だとしたら、どう操作しますか?」など、具体的な状況を伝えて操作してもらうことで、実運用に近いフィードバックが得られます。
2. 全肯定・全否定質問を織り交ぜる
肯定的な観点と否定的な観点、両方の質問を意図的に混ぜることで、ユーザーが「いいかも」「微妙かも」の両面を語りやすい環境を作ります。
「もしこの機能が存在しなかったら、あなたは代わりにどうしますか?(普段どうしていますか?)」などの質問を投げると、“実はそこまで必要性を感じていない”という本音が出るかもしれません。
3. 比較対象の提示(相手の頭の中にベンチマークを設ける)
インタビューは時間の関係もあり、つい「ぼくが考えた最強の1つのアイデア(新機能など)」になりがち。ただ、1つだけ聞いても比較対象がないからなんとも言えないし、ユーザーからしても評価がなかなかしにくいです。そこで、あえて他社事例やまったく異なるUIサンプルを示して、ユーザーの想像力を刺激したり、比較してもらう手法があります。
「こういうUIと比べてどう思うか」「なぜこの方が魅力的に映るのか」「普段使っているxxxを10点中5点とすると、今体験してもらったプロトタイプは何点か?」などとをヒアリングすることで、ユーザーが自分でも気づいていなかった本当のニーズを発見できる可能性があります。
ステップ3:インタビュー後の結果を明確に可視化する
聞いた内容が「よくわからない」で終わる最大の要因は、インタビュー後の情報整理が不十分だからです。定性データをどう可視化し、次の判断材料に落とし込むかを見直します。
1. タスク成功率・所要時間など簡易定量化
「操作に要した時間」や「どこで迷ったかの発言数」などをざっくり記録し、全参加者の平均を出すと、定量指標として意思決定に使いやすくなります。
「Aのフローでは平均20秒かかったが、Bのフローは10秒で済んだ。Bの方が操作性が高い可能性がある」——といった形で、感覚的な話を数値で補強します。
つまり、NPSでもいいんですがインタビューでもきちんと数値を置きましょう、ということです。
2. ユーザータイプ別に仕分け
「矛盾したフィードバックが出る」場合は、ユーザーごとに背景や目的、利用頻度が異なることが多いです。あらかじめセグメントを設定し、タイプAユーザーの意見、タイプBユーザーの意見に分類してまとめると、矛盾点が必ずしも“誤り”ではなく、“多様な利用シーン”があったり、刺さる人刺さらない人が分かれる新機能であると捉えやすくなります。
3. LLM(大規模言語モデル)の活用で発言を再編
文字起こしをそのまま読んでも発言がバラバラで判断しにくい場合、LLMツールで要約+タグ付けを試す方法があります。
たとえば「ユーザー発言を、価値仮説への肯定意見・否定意見に分けて列挙して」と指示すると、かなり短時間でカテゴライズが完了します。最後は人の目で検証し、信頼性を補強すると良いです。
ステップ4:不十分な場合は別の検証手法を組み合わせる
それでも判断に至らない場合は、オンラインA/Bテストやクローズドβ版のリリースなど、別のアプローチを織り交ぜることを検討しましょう。
「インタビュー単体で結論を出そうとし過ぎない」のがポイントでで、一定ユーザーもポジティブな反応を示していて、自分たちもファクトをベースに本気で考えたのなら、よっぽど不可逆な新機能じゃない限りはリリースしてしまいましょう。定量的データと定性的な深掘りを組み合わせれば、より確実なエビデンスを得られます。
- オンラインテストツールの活用:MazeやUserTestingなどを利用し、クリック数や離脱率を可視化する
- 本番環境の一部ユーザーへの限定公開:『Dark Launch』や『Feature Flags』で特定のユーザーだけに機能を見せ、利用状況を追う
こうした複数手段を併用することで、「確証に近い段階まで検証」できるようになります。
今日から実践できるアクション
- 評価基準のチェックリスト化:新機能で達成したい指標やユーザー課題をリストに書き出し、インタビューで“何を聞くべきか”を明文化する
- シナリオテストの導入:単なる「どうですか?」でなく、「あなたが●●の状況にあるとき、この画面をどう使いますか?」と具体的なシーンを設定し、ユーザーの行動を観察する
- ネガティブ質問の用意:全肯定的な意見だけでなく、「この機能がなくても良いと思う場面は?」と聞く項目をあらかじめ仕込む
- 発言の簡易定量化:「○○に困惑した発言が全体の30%あった」など、Excelやスプレッドシートで集計し可視化する
- 補完データの収集:判断が難しければ、クローズドβやA/Bテスト、オンラインツール分析など別の観点から再検証を行う
Q&A
Q1. 矛盾した意見が多すぎて、どれを採用すればいいかわかりません。
A. ユーザータイプ(頻度・目的・背景など)を分けて整理し、どのタイプ向けの機能なのかを明確にする必要があります。複数のセグメントすべてを“同じ解”で満たそうとするとブレが大きくなるため、まずは主要セグメントにフォーカスして意思決定しましょう。Q2. フィードバックが「普通に使えそう」「そこそこ良い」など曖昧でした。
A. 質問設計とインタビューの進行を見直す余地があります。具体的な利用シーンを提示し、タスクを実行してもらう方法を採用すると「ここが分かりにくい」「意外に面倒」という本音を引き出しやすくなります。あるいは「なくても良いか?」という切り口で聞くのも有効です。Q3. 結論が出なかったので、もっと多くの人数でインタビューをやるべきでしょうか?
A. インタビュー対象を増やすより先に、深度(シナリオテスト、ネガティブ質問、簡易定量化など)を高めることをおすすめします。むやみにサンプル数を増やしても、結局あいまいな意見が増えるだけでモヤモヤしたままになるケースが多いです。
参考情報
- Gothelf, J. (2013). Lean UX: Applying Lean Principles to Improve User Experience. O’Reilly Media.
- Blandford, A., Furniss, D., & Makri, S. (2016). “Qualitative HCI Research,” In The Encyclopedia of Human-Computer Interaction (2nd ed.). Interaction Design Foundation.
- Torres, T. (2021). Continuous Discovery Habits. Product Talk.
- Alberto Savoia (2019). The Right It: Why So Many Ideas Fail and How to Make Sure Yours Succeed. Harper Business.
コメント