情緒調節的人工智慧是機器學習領域最新的技術進展之一。儘管它展現出巨大的潛力,但倫理問題可能會影響其採用率和持久性。人工智慧開發者能否克服這些問題?
什麼是情緒識別人工智慧?
情緒識別人工智慧是一種機器學習模型。它通常依賴於計算機視覺技術,捕捉和分析面部表情以解讀圖像和視頻中的情緒。然而,它也可以在音訊片段上運作,以確定語調,或在書面文本中評估語言的情感。
這種算法在人工智慧領域代表了令人著迷的進展,因為至今為止,模型尚未能夠理解人類的感受。雖然像ChatGPT這樣的大型語言模型能夠令人信服地模擬情緒和人格,但它們只能邏輯地把單詞串在一起——它們不能感受任何東西,也不會表現出情感智力。儘管情緒識別模型無法擁有情感,但它仍然能夠檢測和記錄情感。這一發展具有重要意義,因為它表明人工智慧可能很快能夠真正理解和表現快樂、悲傷或憤怒。這樣的技術飛躍顯示出加速的進步。
人工智慧情緒識別的應用案例
企業、教育工作者、顧問和心理健康專業人士是可以使用人工智慧進行情緒識別的一些團體。
評估辦公室風險
人力資源團隊可以使用算法對團隊成員之間的電子郵件通信或應用內聊天進行情感分析。或者,他們可以將其算法整合到監控或計算機視覺系統中。用戶可以跟蹤情緒以計算如流失風險、倦怠率和員工滿意度等指標。
協助客服代理
零售商可以使用內部人工智慧客服代理為最終用戶或虛擬助手解決高壓情況。由於他們的模型能夠識別情緒,因此它可以建議降級技術或在意識到消費者變得生氣時改變其語調。這樣的對策可能會提高客戶滿意度和留存率。
幫助教室中的學生
教育工作者可以使用這種人工智慧來幫助遠程學習者不掉隊。一家初創公司已經使用其工具測量學生面部的肌肉點,同時記錄他們的速度和成績。這種方法確定他們的情緒、動機、優勢和劣勢。該初創公司的創始人聲稱他們在使用軟件時測試成績提高了10%。
進行內部市場調查
企業可以使用情緒識別模型進行內部市場調查。它可以幫助他們準確了解目標受眾對其產品、服務或市場材料的反應,提供有價值的數據驅動見解。因此,他們可能加快上市時間並增加收入。
使用人工智慧檢測情緒的問題
研究表明,準確性高度依賴於訓練信息。一個研究小組——試圖從圖像中解讀情感——在他們的模型在日本女性面部表情數據集上達到了92.05%的準確率,並在擴展的Cohn-Kanade數據集上達到了98.13%的準確率。
雖然92%和98%之間的差異似乎微不足道,但這是重要的——這一微小的差異可能會產生重大影響。作為參考,數據集毒化率低至0.001%已被證明有效地建立模型後門或故意引起誤分類。即使是微小的百分比也是重要的。
此外,儘管研究似乎前景良好——準確率超過90%顯示出潛力——研究者是在受控環境中進行的。在現實世界中,模糊的圖像、偽造的面部表情、不良的角度和微妙的情感更為常見。換句話說,人工智慧可能無法始終如一地執行。
情緒識別人工智慧的當前狀態
算法情感分析是使用算法來確定文本的語調是正面、中性還是負面的過程。這項技術可以說是現代情感檢測模型的基礎,因為它為算法情緒評估鋪平了道路。類似的技術如面部識別軟件也對進步做出了貢獻。
當今的算法主要只能檢測簡單的情緒,如快樂、悲傷、憤怒、恐懼和驚訝,其準確性各異。這些面部表情是天生和普遍的——意味著它們是自然的並且全球可被理解——因此訓練人工智慧來識別它們相對簡單。
此外,基本的面部表情通常被誇大。人們在生氣時會皺眉,悲傷時會皺眉,快樂時會微笑,驚訝時會瞪大眼睛。這些簡單而戲劇化的表情容易區分。更複雜的情緒則更難以確定,因為它們要麼微妙,要麼結合了基本的面部表情。
由於這一子集的人工智慧在研究和開發中仍然主要停留在基礎階段,因此它尚未進展到涵蓋像渴望、羞愧、悲傷、嫉妒、放鬆或困惑等複雜情感。雖然最終它可能會涵蓋更多,但並不能保證它能解釋所有情感。
實際上,算法可能永遠無法與人類競爭。作為參考,雖然OpenAI的GPT-4數據集約為1PB,但人腦每立方毫米約含有1.4PB的數據。神經科學家在幾十年的研究中無法完全理解大腦如何感知情感,因此構建一個高度精確的人工智慧可能是不可能的。
儘管這項技術在情感識別方面已有先例,但這一領域仍然技術上處於嬰兒期。關於這一概念的研究很多,但大規模部署的真實案例卻很少。一些跡象表明,採用緩慢可能是由於對不一致準確性和倫理問題的擔憂。
人工智慧開發者的倫理考量
根據一項調查,67%的受訪者同意人工智慧應該在某種程度上或更大程度上受到監管。為了讓人們安心,開發者應該最小化偏見,確保他們的模型按預期運作並改善結果。如果他們在開發過程中優先考慮倫理考量,這些解決方案是可能的。
1. 自願數據收集和使用
在人工智慧監管日益加強的時代,知情同意至關重要。如果員工發現他們的面部表情在未經他們知情的情況下被記錄,會發生什麼?父母是否需要對基於教育的情感分析簽字,還是學生可以自己決定?
開發者應明確披露模型將收集的資訊、啟用的時間、分析的用途以及誰可以訪問這些細節。此外,他們應該包括選擇退出的功能,以便個人可以自定義許可。
2. 匿名化的情感分析輸出
數據匿名化既是隱私問題,也是安全問題。開發者應該對收集的情感信息進行匿名化,以保護相關個體。至少,他們應該強烈考慮利用靜止加密。
3. 以人為本的決策過程
使用人工智慧來判斷某人的情緒狀態的唯一原因是為了通知決策。因此,無論是在心理健康方面還是在零售環境中,它都將影響人們。開發者應該利用以人為本的保障措施,以最小化意外行為。
4. 針對人工智慧輸出的以人為本的反饋
即使算法幾乎達到100%的準確率,仍然會產生假陽性。考慮到模型達到50%或70%並不罕見——而這還不涉及偏見或幻覺問題——開發者應考慮實施反饋系統。
人們應該能夠檢查人工智慧對其情緒狀態的描述,並在認為其不正確時提出上訴。雖然這樣的系統需要設置安全措施和問責措施,但它將減少由於不準確輸出而帶來的不利影響。
忽視倫理的後果
倫理考量應該成為人工智慧工程師、機器學習開發者和企業主的優先事項,因為這影響到他們。考慮到日益不確定的公眾意見和日益嚴格的監管,忽視倫理的後果可能會是重大的。