🎙️ EP40 《合成心智,真實市場》
副標題:AI 消費者市調預測的崛起,正在重寫市場研究的規則。
幾十年來,全球品牌每年花上數十億美元,只為回答一個問題: 「消費者到底想要什麼?」
我們熟悉那些黃金標準——問卷調查、焦點小組、專家分析。 但問題是,它們太慢、太貴,而且往往太偏。
在 AI 時代,這一切正被徹底改寫。 今天,我們要談的,就是大型語言模型——LLMs——如何讓我們創造出一種全新的市場研究角色: 「合成消費者」(Synthetic Consumers)。
這不是科幻小說。這是行銷與研究正邁入的下一個真實階段。
🧩 第一段:LLMs 的首次挫敗——「詭異谷」現象
LLMs 擁有龐大的語言理解能力,能學習數萬億個人類語句,看似能反映人類的偏好與情緒。 於是,研究人員嘗試讓 LLM 扮演「受訪者」,在問卷中回答問題。
結果卻完全崩壞。
這個方法叫做「直接李克特評分法」(Direct Likert Rating, DLR)。 簡單說,就是讓模型直接在 1 到 5 分之間選一個分數。
但結果出現了「詭異谷」現象—— 模型幾乎全部選「3」,不極端、不鮮明。 它的分佈和人類數據幾乎對不上,KS 相似度低到只有 0.26。
為什麼? 因為問題不在於模型「不懂消費者」,而在於我們問錯了問題。 我們逼一個以自由語言思考的模型,用「數字」回答—— 就好比你要一位詩人用二進位制寫情詩。
結果當然失真。
🧭 第二段:典範轉移——語意相似度評分 (SSR)
於是研究人員提出了新的方法: 語意相似度評分(Semantic Similarity Rating, SSR)。
這是一場典範轉移,它讓模型以自己最擅長的方式思考——用語意、而非數字。
SSR 分兩步走。
第一步,建構角色。 研究人員先給模型一個明確身份: 年齡、收入、性別、地區。 這不是多此一舉,而是「激活推理引擎」的關鍵。 有了角色,模型就能模擬那個消費者的真實心智,從「模仿語言」變成「模擬行為」。
然後,它被要求寫一小段自由文本,描述是否會購買產品,還有為什麼。
第二步,語意轉換成分數。 這時不再直接取數字,而是用 AI 的語意空間去比對。 研究人員預先定義 5 個「錨點句」: 像是「我一定會買這個」(5 分)或「我絕不會買」(1 分)。
接著,將 LLM 的回答轉成語意向量, 用餘弦相似度算出它與各錨點的距離。 最後轉成一個機率分佈—— 比如 60% 機率是「4」,30% 機率是「5」。
這就像語意三角測量: 模型說「我在這裡」,錨點告訴你它「靠近哪一邊」。 不再強迫它自評,而是讓它自然地表達自己。
📊 第三段:從理論到市場的實戰驗證
SSR 方法後來被用在高露潔-棕欖的一項實際研究裡, 用 9,300 條人類回應做驗證。
結果令人驚訝: SSR 驅動的「合成消費者」在產品排序上 達到了 超過 90% 的人類重測信度。 KS 分數也達到 0.85 以上,遠勝傳統方法。
更重要的是,它不只給出分數,還給出「理由」。 你不僅知道消費者喜歡什麼,還知道「為什麼」。
這帶來幾個實際突破: 1️⃣ 加速創新流程: 原本幾週才能完成的焦點研究,現在幾小時內完成。 2️⃣ 融合質化與量化洞察: 你不只得到統計結果,還能看到背後的情緒。 3️⃣ 超個人化行銷素材: AI 角色生成的理由,能直接變成廣告文案、影片腳本。 4️⃣ 策略模擬能力: 品牌可以在無風險的環境裡測試策略—— 「價格漲 10%,顧客還會買嗎?」 這類問題不再需要真錢試錯。
⚖️ 第四段:倫理的警鐘——誰在操縱誰?
但當我們能創造「合成消費者」,問題也隨之而來。
1️⃣ 偏見的反饋循環: AI 是從人類數據學來的,而人類數據本身就有偏見。 如果用偏見模型做市場研究,產生的回饋會強化偏見, 形成「合成偏見迴圈」。
2️⃣ 說服與操縱的界線: AI 的超個人化能力能幫助我們更理解顧客, 但也可能被用來利用心理弱點。 當廣告懂得「挑動恐懼」或設計「黑暗介面」時, 說服就變成操縱。
3️⃣ 問責與透明: 越強大的 AI,越像黑盒子。 品牌若想保持信任, 就必須讓消費者知道:這些洞察是 AI 模擬出來的, 並保留「人類在迴路中」的監督角色。
💡 結語:AI 與人類的共生洞察
LLMs 在市場研究上的第一次失敗—— 讓我們發現真正的突破口在「如何問問題」。
SSR 證明了一件事: AI 不只是可以模擬人類,還能幫我們放大洞察速度。
未來的市場研究將是人與 AI 的協作: AI 模擬大量場景、生成假設, 人類則負責驗證、解釋、賦予意義。
成功的企業,將不只是用 AI 來省錢, 而是把「理解人類」變成一種 核心競爭力。