引言
這篇文章介紹了一個名為 EMOTION 的框架,旨在為人形機器人生成富有表現力的動作序列,增強它們進行類似人類的非語言溝通的能力。非語言提示,例如面部表情、手勢和身體動作,在有效的人際互動中扮演著重要角色。儘管機器人的行為已有所進步,但現有的方法往往無法模仿人類非語言溝通的多樣性和微妙之處。
解決方案
為了解決這個問題,我們的方法利用大型語言模型(LLMs)的上下文學習能力,動態生成適合社交的手勢動作序列,以便進行人機互動。我們使用這個框架生成了10種不同的表現性手勢,並進行了線上用戶研究,比較 EMOTION 及其人類反饋版本 EMOTION++ 生成的動作與人類操作員生成的動作在自然性和可理解性方面的差異。
研究結果
研究結果顯示,我們的方法在某些情境下生成的可理解和自然的機器人動作,與人類的表現相當或更優。我們還提供了未來研究的設計建議,讓研究者在生成表現性機器人手勢時考慮一系列變數。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!