今回は「ChatGPTなどの生成AIを活用してユーザーインタビューの分析を効率化する具体的な手法」をテーマにした記事です。
ユーザーリサーチの現場では、インタビュー後のログ整理や発言のファクト抽出、インサイトの可視化などに多くの時間がかかりがちです。しかし、近年の生成AI(ChatGPTなど)を賢く使えば、これまで数時間~数日かかっていた作業を短時間かつ高精度で実施できるようになっています。
ユーザーインタビューの基本的な流れや実施方法について復習したい場合は、以下の記事もあわせてご覧ください。
【ユーザーインタビューの始め方と具体的手順】
ChatGPT×ユーザーインタビュー分析の狙い
ChatGPTなどの生成系AIは、大量のテキストから要約やテーマ抽出を高速に行うのが(なんなら我々人間よりも)得意。ユーザーインタビューのログを丸ごと入力すれば、以下のような場面で役立ちます。
- 要点・サマリーを自動生成し、Slack投稿用のまとめがインタビュー後1分で作れる(これ、個人的には絶対にやった方が良いと思っています)
- インサイト抽出:KJ法や上位下位分析をAIが下書きし、仮説をスピーディに得られる
- 課題一覧の作成や、バックログ化&ICEスコア付与による優先順位づけ
- 「課題を全クリアしたバージョン」を想定したGPT Builderでの実験(プロダクトの理想形を仮想的に検証)
- 特定の機能に絞ったファクトを抽出して集計する:僕はこの使い方を多用していて、各種ステークホルダーとコミュニケーションしています
実際、OpenAIの公式ガイドなどでも、長文テキストを一度に要約・分析するケースは有力なユースケースとして挙げられています[1]。また、PM領域ではChatGPTが施策アイデアの発散や仮説検証プロセスの短縮に貢献するという報告事例が増えつつあります[2]。
ユーザーインタビュー後のChatGPT活用ポイント
ここからは、インタビュー後の具体的なChatGPTの使い所を挙げていきます。どれも短時間で実践できるものばかりなので、ぜひ参考にしてみてください。
● インタビュー後のSlack投稿用まとめをクイックに作成
インタビュー直後にチームへ共有するとき、長文のログを貼るだけでは読むハードルが高いですよね。ChatGPTに「このテキストを要約し、5行程度でポイントを箇条書きにしてほしい」と指示すればすぐにサマリを作成可能。
「対象者情報」「主なファクト」「ポジティブポイント」「ネガティブポイント」「繰り返されたフレーズ」「裏側のslackスレッドでの主な会話」をまとめてもらうのが個人的なおすすめです。
● インタビューログからのファクト整理
ユーザーの生の発言に含まれる定量的・定性的ファクトを抽出するときもChatGPTが便利です。たとえば、次のようなプロンプトを使います。
"以下のインタビューテキストから{xxxの目的で}定量的ファクト(実際の数値や頻度)と定性的ファクト(ユーザーが具体的に述べた行動や状況)をリストアップしてください。"
この一手間で、施策の根拠となる「事実だけ」を一元化できます。後から施策を検討するときに、根拠の裏付けがしやすくなるでしょう。
● KJ法や上位下位分析でのインサイト・課題抽出
ユーザーインタビュー結果を複数人分まとめてKJ法をしたり、上位下位分析で「具体的な行動→行為目標→本質ニーズ」を整理したりする工程は、人力で付箋を使って行うと1日以上かかる場合もあります。ここでChatGPTに大量テキストを入力し、「似た内容をグルーピングし、それぞれにラベルを付与して」「上位の概念をまとめて」という指示を出すと、一瞬でラフ案が得られます。
もちろん最終的には人間が取捨選択し、違和感を修正する必要がありますが、初期案をAIに生成させるだけでも作業時間が大幅に削減できます[3]。
僕は博報堂の研修時代にまともにKJ法をやったことありますがえげつないくらい時間がかかりますので、2025年にいる我々はGPTを使って一瞬で作り、何度もビルドしましょう。
● 課題表やバックログの自動作成&ICEスコア付与
ChatGPTはユーザー発言から抽出した課題をテーブル形式にまとめたり、各課題にICEスコア(Impact, Confidence, Ease)を仮で付与するよう指示することも可能で、こんなプロンプト。
"以下の課題一覧をテーブル形式にまとめ、それぞれにICEスコアを算出してください。Impactは市場やユーザーへの影響度、Confidenceは施策成功の確信度、Easeは実現までの容易さとし、各5点満点で評価して総計を記載してください。"
これで、インタビューログをもとにチャットで課題リストを作成し、施策優先度の検討を効率化できます。
実際にSean Ellis氏が提唱するICEスコアはスタートアップ界隈でよく使われており[4]、定量ファクトをまとめてスレッドでGPTとそのまま会話すればスムーズにICEスコアをつけてくれます。
● GPT Builderで「課題を全てクリアしたversion」を作成
「課題を全てクリアした理想的なプロダクト」をGPT Builder(またはChatGPT Plugins機能)で試作させ、ユーザーがどのように感じるかの反応をシミュレーションする方法もあります。
実サービス化には実際のユーザーテストが不可欠ですが、早期段階のブレストには十分に役立ちます。
個人的には、ここまでやりきってそのプロトをチームで共有することをおすすめしています。なぜなら、そうすることで次に検証すべき仮説が見つかるからです(そしてまた次のインタビューへ…….)。
実際の分析手順:録音→文字起こし→AI要約→上位下位分析 etc.
では、ChatGPTを活用したユーザーインタビュー分析の全体フローを整理してみましょう。例えば、以下のようなステップです。
- 録音データの文字起こし
Zoom録画やボイスレコーダーの音声ファイルを、NottaやAmazon Transcribe、Google Cloud Speech-to-Text等で文字起こし。
が、そんなことをやるのは結構面倒なので、最初から二人一組でインタビューしてちゃんとインタビューログをこれでもか!というくらい詳細に残すことをおすすめします。 - ChatGPTに要約を依頼
文字起こしのテキストをChatGPTへ貼り付け、箇条書き要約・事実抽出・感情分析などをプロンプトで指示。 - KJ法・上位下位分析の“下書き”をAIに作らせる
例えば「これらの発言をグルーピングし、上位カテゴリとそれに含まれる発言例を表示して」と依頼。大きなカテゴリがまとまったら、人間が最終調整。 - JOBS-TO-BE-DONEの発見
「ユーザーが本当に達成したい進歩(Job)は何か?」をChatGPTに問いかけ、仮のJTBDを提示してもらう。実際には自分で検証するが、インスピレーションとしては有用。 - 課題一覧の生成&優先度付け
AIに課題表を作成させ、Impact/Confidence/Easeなどの指標をそれぞれ5点満点で仮評価→総合スコア順にソート。ここで出た順位を参考に施策の優先度を議論する。 - GPT Builderで理想版を試作
全課題をクリアしたサービス像を仮想的に作り、ユーザーシナリオをChatGPTに生成させる。「実際に本当に有効?」という検証材料に。
このように、ChatGPTの活用はあくまで“補助”として使い、最終判断は人間のユーザー理解や既存知識と照合しつつ行うのがベストです。
セキュリティ・プライバシー面の注意点
ユーザーインタビューのログには、個人情報や機密情報が含まれる可能性があります。ChatGPTに機密情報を入力する場合は以下の点に留意しましょう。
- 個人を特定できる情報は伏せ字または削除してから入力する
- 社内規定や法規制(個人情報保護法、GDPR等)を遵守し、必要に応じて社内の法務部門と相談
- OpenAIのプライバシーポリシーにも注意
(API利用時は入力データを学習に使わない設定が可能だが、Web版ChatGPTは既定で学習に使われる場合がある[1])
たとえばAWSやAzureなど、大企業向けにクラウド上でセキュアに動かせる生成AIサービスも登場しているので、必要に応じて検討すると良いでしょう。
今日から実践できるアクション
- ツールセットを準備
文字起こしサービス(Notta、Amazon Transcribeなど)とChatGPTを連携できる環境を整えましょう。 - 実際のインタビュー音声をAIで文字起こし→ChatGPTに要約させる
まずは短いインタビュー(5~10分)から試し、自動要約の精度を確かめてみてください。 - KJ法の下書きをAIに任せてみる
5名以上のインタビューがあれば、複数テキストをまとめて「グルーピング&ラベリング」をChatGPTに依頼。人間は調整役に回ると時間が大幅に削減できます。 - 課題リスト&ICEスコア算出
AIに“課題名・原因・仮施策・ICEスコア”を含むテーブル作成を依頼して、優先度検討に役立ててください。 - GPT Builderで理想形シミュレーション
「課題を全クリアしたらどんなUXになるのか?」を実験的に対話してみる。あくまでアイデア出し段階ですが、思わぬ発見があるかもしれません。
Q&A
Q1. ChatGPTにインタビュー全文を貼り付けると上限文字数を超えてしまいます…
A. 一度に貼れる文字量には制限があります。長文の場合は要所ごとに分割して投入し、「前の会話内容を覚えていて」というプロンプトを使うとよいでしょう。
Q2. AIに頼りすぎると、誤情報やバイアスが混じりませんか?
A. AIの提案はあくまで補助的なもの。最終的な解釈と検証は人間の役割です。ユーザーインタビュー本来の醍醐味は生の声を深く理解する点にあるので、ChatGPTから出てきた結果を鵜呑みにせず、必ず自身の知見や追加検証で裏付けを取るのが重要です。
Q3. 既存の分析手法(KJ法やJTBD理論)がAIで崩れることはありませんか?
A. KJ法やJTBDは、実務の現場で数十年培われてきたフレームワークです。AIはそれらをより効率的に実践する補助ツールと考えるとよいでしょう。重要なのは“AI任せにしすぎずフレームワークの背景を理解した上で使う”というバランスです。
参考情報
- [1] OpenAI. (2023). OpenAI Docs. Retrieved from https://platform.openai.com/docs/introduction
- [2] Nielsen, J. (1993). Usability Engineering. Morgan Kaufmann. (AI時代のUXリサーチへの応用に言及されることが増えている)
- [3] Kawakita, J. (1967). The KJ Method. Kawakita Research Institute. (伝統的なKJ法の概念)
- [4] Ellis, S. (2010). ICE Score Model. Startup Marketing. (施策優先度決定手法)