• <center id="sm46c"></center>
  • <dfn id="sm46c"></dfn>
  • <strike id="sm46c"></strike>
  • <cite id="sm46c"><source id="sm46c"></source></cite>
    • <strike id="sm46c"><source id="sm46c"></source></strike>
      <option id="sm46c"></option>
      国产精品天天看天天狠,女高中生强奷系列在线播放,久久无码免费的a毛片大全,国产日韩综合av在线,亚洲国产中文综合专区在,特殊重囗味sm在线观看无码,中文字幕一区二区三区四区在线,无码任你躁久久久久久老妇蜜桃

      行業(yè)趨勢 | 2025 年如何利用生成式人工智能進(jìn)行研究

      用戶體驗 (UX) 領(lǐng)域正在經(jīng)歷一場令人眼花繚亂的人工智能 (genAI) 接管。

      簡而言之:今年是人工智能 (AI) 接管用戶體驗 (UX) 的一年。在本文中,我將解釋其中的原因,并更新我使用人工智能進(jìn)行用戶體驗研究的方法,重點介紹 ChatGPT 的深度研究功能如何顯著加速定性研究分析。

      (注意:我將使用術(shù)語“AI”、“genAI”和“model”作為“生成性 AI”的簡寫,主要指大型語言模型 (LLM),即創(chuàng)建文本的特定類型的生成性 AI。)

      十個月前,我在 Medium 上發(fā)表了一篇關(guān)于AI 用戶體驗的原創(chuàng)文章,之后它迅速躥紅,閱讀量達(dá)數(shù)千次,遠(yuǎn)超本博客迄今為止的任何其他文章。但在生成式人工智能領(lǐng)域,十個月就像十年狗年;日新月異的變化速度已經(jīng)讓那篇文章的部分內(nèi)容顯得過時。

      因此,當(dāng)我的母校倫敦大學(xué)城市圣喬治學(xué)院人機交互設(shè)計系聯(lián)系我,邀請我在他們的年度會議上發(fā)言時,我抓住了這個機會,重新開始我對這個學(xué)科的興趣,尤其是當(dāng)我的老教授透露他們聯(lián)系我的部分原因是我的 Medium 文章很受歡迎時。

      這是我對 UX 的 AI 的第二次看法,已更新至 2025 年,并涵蓋了我在 HCID 2025 會議上的演講(即使是我自己這么說,這次演講也進(jìn)行得相當(dāng)順利)。

      這已經(jīng)發(fā)生了。2025年,人工智能將接管用戶體驗

      將顯示縮放圖像
      一張幻燈片上寫著“人工智能會搶走你的工作嗎?”,還有一張圖片寫著“如果你不能打敗他們,那就加入他們”,旁邊還有一些關(guān)于人工智能在用戶體驗中使用的統(tǒng)計數(shù)據(jù)
      人工智能會搶走你的工作嗎?這是我關(guān)于 HCID 2025 演講的幻燈片。(圖片來源:我的)

      2024年初,當(dāng)我開始在工作中使用人工智能時,我感覺自己就像一位勇敢的探險家,踏入了陌生的領(lǐng)域。誠然,人工智能已經(jīng)存在了一段時間,我們大多數(shù)人也只是在家里用它來制作儲藏室菜譜或視覺效果圖。但我們中很少有人有機會讓人工智能真正地重塑我們的工作,這主要是因為“人工智能會以你給它的任何東西為食”的數(shù)據(jù)隱私問題,以及由此產(chǎn)生的對人工智能用于工作的嚴(yán)格禁令。

      將顯示縮放圖像
      一張幻燈片上寫著“數(shù)據(jù)隱私的胡扯。如果數(shù)據(jù)是石油,那么人工智能就是……石油怪獸”,標(biāo)題是“敏感代碼泄露后,三星禁止員工使用 ChatGPT”。
      數(shù)據(jù)隱私的胡扯。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)

      但2024年是私有AI的黎明。最終,像OpenAI和Anthropic這樣的提供商“封鎖”了他們的法學(xué)碩士課程,以確保其數(shù)據(jù)不會泄露,從而為像我這樣的機構(gòu)打開了以訂閱方式使用私有AI的大門。

      2025年即將到來,尼爾森諾曼集團的一項研究告訴我,用戶體驗專業(yè)人士是有史以來最重度的人工智能用戶之一。這項研究得出的一項關(guān)鍵統(tǒng)計數(shù)據(jù)顯示,如今用戶體驗專業(yè)人士使用法學(xué)碩士(LLM)的比例是其他樣本職業(yè)的750倍之多!

      為什么用戶體驗師如此熱愛人工智能?

      你有一把錘子,但你看到的并非都是釘子。從學(xué)習(xí)作業(yè)作弊(說實話,正在讀這篇文章的HCID/UX學(xué)生,如果你嘗試過用AI生成用戶訪談記錄——請停止吧),到一位不幸的音樂愛好者向Nick Cave發(fā)送了一首“模仿Nick Cave風(fēng)格”的ChatGPT歌曲,激怒了他,在很多情況下,使用AI都不是主意。

      將顯示縮放圖像
      一張幻燈片上寫著“Gen AI 在很多事情上并不出色……”,以及音樂家 Nick Cave 的一句話“ChatGPT 的悲哀之處在于它注定要模仿,永遠(yuǎn)無法擁有真實的人類體驗”。
      正如 Nick Cave 所說,GenAI 在很多方面并不出色。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)

      媒體喜歡夸大此類故事,隨著時間的推移,這在時代精神中形成了一種層次化的“感覺”,即無論人工智能應(yīng)用于何處,它都是無用或有害的。

      我不同意。

      將顯示縮放圖像
      幻燈片上寫著:“……但它對用戶體驗研究非常有用。錘子,遇到釘子!”
      用戶體驗 (UX) 和 genAI 是絕配。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)

      因為我們可以用這把錘子敲出一些釘子。GenAI 的局限性和功能與某些類型的用戶體驗研究的局限性和要求非常匹配。具體來說

      • GenAI 擅長總結(jié)文本數(shù)據(jù)→UX 研究創(chuàng)建了大量文本數(shù)據(jù)。
      • 在 GenAI 中,幻覺是必然的 → 傳統(tǒng)的用戶體驗研究通常可以應(yīng)對一定程度的“模糊性”。(但如果你的工作涉及高度精確的領(lǐng)域,禁止使用人工智能是明智之舉。)
      • GenAI 本質(zhì)上只能創(chuàng)造衍生輸出 → UX 開發(fā)者很少能創(chuàng)造出完全原創(chuàng)的輸出。相反,我們的優(yōu)勢在于對已有內(nèi)容的改編。

      女士們、先生們、朋友們,這就是用戶體驗設(shè)計師們熱愛人工智能的原因。它與我們完美契合,并且是真正有用的工具。除了數(shù)據(jù)隱私限制(現(xiàn)已基本解決)之外,業(yè)界對使用人工智能沒有任何爭議*。只要你的研究報告寫得好,并且提供了所需的數(shù)據(jù),沒有人會在意它是否由人工智能生成。

      *然而,關(guān)于人工智能的倫理問題絕對應(yīng)該引發(fā)更多爭議。我個人對用戶體驗行業(yè)對此的關(guān)注如此之少感到困惑,并將繼續(xù)通過強調(diào)人工智能技術(shù)過去和現(xiàn)在的倫理缺陷來引發(fā)爭議。

      它的本質(zhì)

      將顯示縮放圖像
      ChatGPT Enterprise 深度研究的屏幕截圖
      ChatGPT Enterprise 深度研究的屏幕截圖

      無論如何,繼續(xù)介紹菜譜。

      我給你舉一個真實案例,關(guān)于一個用戶體驗研究,我最近在一個項目中用到了人工智能來分析用戶數(shù)據(jù)。所有身份信息都是匿名的。

      我正在使用 ChatGPT Enterprise——一個私密的“隔離”版本,配備了最新的深度研究功能。這是OpenAI 于 2025 年 2 月推出的一款專業(yè) AI“代理” ,號稱“非常適合從事高強度知識工作的人”。

      將顯示縮放圖像
      深度研究與傳統(tǒng) genAI 模型的比較表
      深度研究與傳統(tǒng)模型的比較。這是我在 HCID 2025 演講中的幻燈片。(圖片來源:我的)

      如果您無法訪問 Enterprise,您可以通過 20 美元的 ChatGPT Plus 訂閱獲得 Deep Research(不過,據(jù)我所知,您的數(shù)據(jù)不會被“隔離”)。

      我的 2025 方法與之前的方法相同,分為三個步驟:

      將顯示縮放圖像
      顯示三個步驟的圖像:喂養(yǎng) + 指導(dǎo) + 收獲
      方法。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)
      • Feed:輸入內(nèi)容。現(xiàn)在,您可以輸入的內(nèi)容種類大大擴展:海量數(shù)據(jù)集、JSON 文件、屏幕截圖、網(wǎng)頁鏈接、PDF 文件,等等。ChatGPT Enterprise 尤其擅長讀取 PNG 格式的圖片,并且可以輕松理解屏幕截圖中的文本。
      • 指示:告訴它該做什么。這仍然遵循我在原文中概述的“提示牌組”規(guī)則。
      • 收獲:從中獲取所需的信息并根據(jù)需要使用,例如,為組織的高層領(lǐng)導(dǎo)創(chuàng)建報告。

      步驟 1:飼料

      Deep Research 的優(yōu)點在于它可以處理大量數(shù)據(jù),并且比大多數(shù)傳統(tǒng)模型(如 4o、Claude 3.7 Sonnet 等)具有更高的準(zhǔn)確度。正如我所發(fā)現(xiàn)的,雖然你可以向其輸入諸如訪談記錄和原型截圖之類的文檔,但你也可以告訴它錨定到一個特定的文檔,并讓該文檔決定模型思考和分析的方向。

      在我的案例研究中,該文檔是討論指南/研究計劃

      將顯示縮放圖像
      幻燈片上寫著:“Feed:確保您有一個完美的討論指南/研究計劃”,并附有簡短的說明和示例討論指南的圖片
      討論指南/研究計劃的重要性。這是我在HCID 2025演講中的一張幻燈片。(圖片來源:我的)

      討論指南通常由用戶體驗師與產(chǎn)品經(jīng)理合作創(chuàng)建,通常包含以下內(nèi)容:

      • 研究背景:研究項目是什么?它的目的是什么?為什么要進(jìn)行這項研究?
      • 研究目標(biāo)和假設(shè):您想通過這項研究證明或反駁什么?
      • 關(guān)于訪談參與者/用戶的信息:他們是誰?招募標(biāo)準(zhǔn)是什么?如果他們(就像我的情況一樣)是某個特定狹窄領(lǐng)域的專業(yè)人士,那么具體是什么?
      • 訪談結(jié)構(gòu),包括訪談主題和問題類型,都與研究目標(biāo)和假設(shè)相關(guān)。

      第 2 步:指導(dǎo)

      那么,你把訪談記錄、截圖和討論指南輸入到了模型中。你該如何告訴模型如何處理這些內(nèi)容呢?

      不再冗長的聊天

      深度研究與傳統(tǒng)模型的一個關(guān)鍵區(qū)別在于,深度研究消除了大量的反復(fù)溝通。您只需進(jìn)行一次操作,在回答幾個澄清問題后,模型就會開始執(zhí)行其“任務(wù)”,根據(jù)您的指示生成一份高度詳細(xì)的報告。您只有一次提示機會,因此最好確保您的提示符合要求。

      將顯示縮放圖像
      深度研究長提示示例
      我的演講題目全文。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)

      我的提示方法與我在2024年的文章中基本相同:使用便捷的提示卡組來構(gòu)建提示。我不會在這里再次介紹所有提示技巧,但您可以參考那篇文章來了解更多詳情。

      將顯示縮放圖像
      提示牌:提示“卡片”的圖像:時間、“根”、提要、設(shè)置場景、角色、外卡、少量鏡頭、思路鏈、模板、請求輸入、重新引導(dǎo)和捕捉錯誤
      提示卡。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)

      然而,一些提示“卡片”與其他卡片的權(quán)重發(fā)生了變化。以下是目前為止最有用的“卡片”:

      提示卡:設(shè)置場景

      “設(shè)置場景”提示卡
      “場景設(shè)定”提示卡。(圖片來源:我的)

      解釋研究目的、針對哪家公司和產(chǎn)品、用戶是誰、模型將收到哪些文檔;如果有的話,將其錨定到您的關(guān)鍵文檔上(在本例中為討論指南)。

      提示卡:角色

      “角色”提示卡
      “Persona”提示卡。(圖片來源:我的)

      描述你希望模型扮演的角色,例如“在一家科技公司(X 公司)工作的世界領(lǐng)先的用戶體驗研究員,為英國的一家數(shù)字信息和分析產(chǎn)品公司工作[職業(yè)]。 ”

      將顯示縮放圖像
      使用“設(shè)置場景”和“角色”卡的示例部分提示
      提示卡的實際應(yīng)用。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)

      提示卡:模板

      “模板”提示卡
      “模板”提示卡。(圖片來源:我的)

      告訴AI如何構(gòu)建其輸出仍然是關(guān)鍵技術(shù)之一。您可以告訴它遵循討論指南的結(jié)構(gòu)(如果相關(guān)),或者給它一個包含所有標(biāo)題的示例模板。

      將顯示縮放圖像
      使用“模板”提示卡的示例部分提示
      提示卡的實際應(yīng)用。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)

      提示卡:思維鏈

      將顯示縮放圖像
      “思路之鏈”提示卡
      “思維鏈”提示卡。(圖片來源:我的)

      這項極其實用的技術(shù)如今已被人工智能工程師廣泛應(yīng)用。簡單來說,如果你讓人工智能解釋它為什么得出某個結(jié)論,它得出的結(jié)論的準(zhǔn)確性就會提高

      提示卡:Wild Card(新)

      “外卡”提示卡。
      “外卡”提示卡。(圖片來源:我的)

      一位同事想出了這個主意。在我公司的許多用戶研究中,包括這個例子,我們已經(jīng)預(yù)設(shè)了想要從用戶那里發(fā)現(xiàn)什么的框架。但是,如果用戶說了一些我們意想不到的話怎么辦?如果你不要求模型發(fā)現(xiàn)意想不到的事情,它就找不到。你應(yīng)該自己尋找這些異常,但為什么不也讓模型思考一下呢?

      將顯示縮放圖像
      使用“思路鏈”和“外卡”提示卡的示例部分提示
      提示卡的實際應(yīng)用。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)

      **這讓我想起了OpenAI 發(fā)布的一段搞笑又令人毛骨悚然的視頻:兩個視覺/語音 AI 助手正在與一位人類主持人交談,而另一個人則走到他身后,露出兔耳朵。兩位助手都無視兔耳朵,直到明確提示。

      將顯示縮放圖像
      一名男子坐在桌邊與人工智能助手交談,身后一名女子露出“兔耳朵”
      OpenAI 的“兔耳朵”視頻。(圖片來源:OpenAI)

      步驟3:收獲

      輸入你的題目和文檔后,選擇“深度研究”并按下“提交”按鈕,然后給自己倒杯咖啡。根據(jù)“任務(wù)”的復(fù)雜程度,AI 生成所需的報告可能需要長達(dá)一小時。在我的案例研究中,這大約需要 30 分鐘。

      將顯示縮放圖像
      深度研究生成報告的屏幕截圖,頂部有一張咖啡杯的圖片,標(biāo)題為“~30 分鐘”
      等待 Deep Research 生成報告時,可以喝杯咖啡。這是我關(guān)于 HCID 2025 演講的幻燈片。(圖片來源:我的)

      太棒了,你拿到了報告,足足50頁!以下是整個過程中最無聊的部分:

      !檢查!每一個!字!!!

      雖然深度研究的準(zhǔn)確率高于大多數(shù)模型,但遠(yuǎn)未達(dá)到 100%,而且它產(chǎn)生的幻覺看起來尤其令人信服。所以,不要相信它。人工智能至今仍是一個熱切但缺乏經(jīng)驗的助手,其工作必須接受審核。只有,作為“知情人”,才擁有專業(yè)知識和解讀能力,能夠理解用戶訪談中的真實情況,否決人工智能的錯誤結(jié)論,并發(fā)現(xiàn)任何“兔子耳朵”,即使你設(shè)置了“萬能牌”,人工智能也可能遺漏了。

      深度研究的一個巧妙功能是右側(cè)面板,你可以在那里看到它是如何一步步得出結(jié)論的。最奇怪的幻覺可能會在這里出現(xiàn),而且很搞笑。我注意到,這類幻覺很少出現(xiàn)在最終報告中,因為深度研究功能中已經(jīng)內(nèi)置了“思維鏈”流程。

      將顯示縮放圖像
      一張截圖顯示了 Deep Research 創(chuàng)造了一個有趣的幻覺:“Se Vodnik 收集有關(guān)塔斯馬尼亞鮭魚養(yǎng)殖對環(huán)境影響的信息,討論凈影響、碳封存信用和透明度數(shù)據(jù)收集。”
      奇怪的幻覺:“塔斯馬尼亞的鮭魚養(yǎng)殖”。這是我在HCID 2025大會上的演講幻燈片。(圖片來源:我的)

      重要提示:由于深度研究每次只允許執(zhí)行一項任務(wù),而不是來回對話,因此您無法在與AI對話時進(jìn)行更正。請使用傳統(tǒng)方法,將報告下載到Word中。

      修改完成后,您可以將 Word 報告上傳回 ChatGPT,讓它將 50 頁的文檔精簡成簡潔的 PowerPoint 風(fēng)格演示文稿。這是最簡單的步驟:只需使用“模板”提示技術(shù),并結(jié)合傳統(tǒng)的 AI 模型(例如 4o、o3 等)即可。

      關(guān)于用戶引言的說明

      根據(jù)我的經(jīng)驗,傳統(tǒng)的人工智能模型在從訪談記錄中提取用戶原話方面表現(xiàn)糟糕,它們只會選擇進(jìn)行解釋。相信我,我什么方法都試過了!相比之下,Deep Research 的引文直接引用了原文,因此用戶引文更容易進(jìn)行交叉核對。我仍然建議手動檢查,尤其是那些最終報告會用到的內(nèi)容。

      深度用戶體驗研究:內(nèi)幕

      將顯示縮放圖像
      幻燈片上寫著:“當(dāng)然,這與工具有關(guān)。但主要還是關(guān)于誰使用它、如何使用以及用于什么目的。”
      關(guān)鍵在于誰揮舞著錘子。這是我在HCID 2025演講中的一張幻燈片。(圖片來源:我的)

      因此,深度研究花了大約 30 分鐘來編寫分析報告。即使考慮到人工參與快速撰寫、文檔準(zhǔn)備、檢查和修改的時間,這也比手動完成整個分析過程要快——而且絕對比我之前依賴傳統(tǒng) AI 模型的方法要快。

      需要注意的是:你可能很容易將分析工作完全外包給深度研究,而跳過檢查步驟。這將是一個大錯誤。最終,如果深度研究出錯,承擔(dān)風(fēng)險的是你,而不是人工智能。即使模型越來越先進(jìn),保持警惕并在出錯的地方進(jìn)行干預(yù)仍然至關(guān)重要。

      忘記我告訴你的一切

      將顯示縮放圖像
      一張幻燈片上寫著:“忘記我告訴你的一切。因為它已經(jīng)在改變。” 幻燈片中精選了一些突出變化的項目,并配上了一句口號:“世界是你的牡蠣。”
      把我說過的話全忘掉吧。這是我在 HCID 2025 演講中的一張幻燈片。(圖片來源:我的)

      在我的HCID會議演講中,這是我最喜歡的幻燈片。告訴聽眾一堆有用、可操作的信息,然后讓他們把它們?nèi)舆M(jìn)垃圾桶,這其中有一種令人愉悅的反常之處。

      但這就是人工智能領(lǐng)域的現(xiàn)實。事物每周都在變化,跟上潮流的唯一方法就是與時俱進(jìn)。例如,我的演講中還沒有提到代理人工智能 (Agentic AI),但在撰寫本文時,它是 2025 年規(guī)模最大(也是最模糊的概念!)的人工智能盛事。如果我在為 UX v3.0 撰寫人工智能文章時,很可能會談?wù)摯砣斯ぶ悄堋?/span>

      或許不是!誰知道呢!

      蘭亭妙微(www.li-bodun.cn )是一家專注而深入的界面設(shè)計公司,為期望卓越的國內(nèi)外企業(yè)提供卓越的大數(shù)據(jù)可視化界面設(shè)計B端界面設(shè)計桌面端界面設(shè)計APP界面設(shè)計圖標(biāo)定制用戶體驗設(shè)計交互設(shè)計UI咨詢高端網(wǎng)站設(shè)計平面設(shè)計,以及相關(guān)的軟件開發(fā)服務(wù),咨詢電話:01063334945。我們建立了一個微信群,每天分享國內(nèi)外優(yōu)秀的設(shè)計,有興趣請加入一起學(xué)習(xí)成長,咨詢及進(jìn)群請加藍(lán)小助微信ben_lanlan。

      日歷

      鏈接

      個人資料

      存檔

      主站蜘蛛池模板: 98日韩精品人妻一二区| 亚洲国产初高中生女av| 久久丫精品忘忧草西安产品| 久久久久人妻一区精品色欧美| 久久香蕉国产线看观看精品蕉 | 国产精品成人久久电影 | 亚洲人成影院在线无码按摩店| 中国熟妇人妻xxxxx| 精品国产自| 99久久精品免费看国产免费软件| 蜜桃av久久久一区二区三区麻豆| 欧美国产在线精品17p| 亚洲最大综合久久网成人| 九九热免费在线视频观看| 人妻少妇精品视频一区二区三区| 亚洲日韩v无码中文字幕| 中文无码乱人伦中文视频在线| 国产午夜成人无码免费看| 国产毛多水多高潮高清| av色蜜桃一区二区三区| 亚洲AⅤ无码片一区二区三区| 久久丁香五月天综合网| 国产精品国产高清国产一区| 最新偷拍一区二区三区| 精品一区二区三区免费爱| 欧美成人在线免费| 国产精品99中文字幕| 又大又硬又爽免费视频| 精品亚洲国产成人性色av| 久草热久草热线频97精品| 狠狠色噜噜狠狠狠7777奇米| 视频一区二区三区四区五区| 色偷偷中文字幕综合久久| 亚洲国产成人资源在线| 亚洲AV中文无码乱人伦在线视色| 91亚洲精品第一| 无码人妻一区二区三区免费N鬼沢 91精品国产免费青青碰在线观看 99久久无码私人网站 | 国产一精品一av一免费| 在线观看亚洲精品福利片| 日韩精品福利一区二区三区| 亚洲AV一二三区无码AV蜜桃|