星期日, 15 6 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home 機器人與自動化

推進具身人工智慧:Meta如何將類人觸感和靈巧性帶入人工智慧

2024-11-16
in 機器人與自動化
0 0
0
推進具身人工智慧:Meta如何將類人觸感和靈巧性帶入人工智慧
Share on FacebookShare on Twitter
Your Ad


人工智慧在視覺感知和語言處理方面已經取得了長足的進步。然而,這些能力並不足以建立能夠與物理世界互動的系統。人類透過觸覺來處理物體或進行控制動作。我們能感受到質地、感知溫度,並測量重量,從而準確地引導每一個動作。這種觸覺反饋使我們能夠操作易碎物品,控制工具的使用,並平穩地執行複雜的任務。

Meta以其在虛擬和增強現實方面的工作而聞名,現在正面臨創造能夠像人類一樣與物理世界互動的人工智慧的挑戰。通過其FAIR機器人計畫,Meta正在開發開源工具和框架,以增強機器人的觸覺感知和身體靈活性。這些努力可能會導致具身人工智慧的發展——這種系統不僅能看到,還能像人類一樣感受和操作物體。

什麼是具身人工智慧?

具身人工智慧結合了物理互動和人工智慧,使機器能夠自然地感知、回應和參與其周遭環境。它不僅僅是“看到”或“聽到”輸入,而是讓人工智慧系統能夠在世界中感受和行動。想像一個能感知施加在物體上的壓力、調整其抓握並靈活移動的機器人。具身人工智慧將人工智慧從螢幕和揚聲器帶入物理世界,使其能夠操作物體、執行任務,並與人進行更有意義的互動。

例如,基於具身人工智慧的機器人可以幫助老年人拾起易碎的物品而不會損壞它們。在醫療保健方面,它可以在手術過程中精確地持有器械,協助醫生。這種潛力遠不止於實驗室的機器手臂或工廠的自動化手臂;它是關於創造能夠即時理解和回應其物理環境的機器。

Meta對具身人工智慧的應對方式

Meta專注於三個關鍵領域,將具身人工智慧推向更像人類的觸覺。首先,該公司正在開發先進的觸覺感知技術,使機器能夠檢測壓力、質地和溫度等事物。其次,Meta正在創建觸覺感知模型,使人工智慧能夠理解和反應這些信號。最後,Meta正在構建一個觸覺開發平台,整合多個感應器與這些感知模型,提供一個完整的系統來構建具觸覺的人工智慧。以下是Meta在這些領域推動具身人工智慧進步的方式。

Meta Digit 360:人類級觸覺感知

Meta推出了Digit 360指尖,這是一種觸覺感知技術,旨在賦予具身人工智慧人類般的觸覺。這種技術擁有超過18種感應特徵,能夠檢測表面的振動、熱量甚至化學物質。配備AI芯片的指尖能夠即時處理觸覺數據,快速對如爐灶的熱量或針頭的尖刺等輸入做出反應。這項技術在具身人工智慧中充當“外周神經系統”,模擬與人類反應類似的反射性反應。Meta使用一種獨特的光學系統開發了這款指尖,擁有超過800萬個感應單元,能夠從各個角度捕捉觸覺。它能感知微小的細節,甚至能感受到小至一毫牛頓的力量,賦予具身人工智慧對其環境的高度敏感性。

Meta Sparsh:觸覺感知的基礎

Meta正在增強觸覺感知能力,以幫助人工智慧理解和回應物理感覺。Sparsh這個名字源自梵語,意為“觸覺”,它在具身人工智慧中充當“觸覺大腦”。該模型使機器能夠解釋壓力和抓握等複雜的觸覺信號。

Sparsh的一個突出特點是其多功能性。傳統的觸覺系統為每個任務使用單獨模型,且大量依賴標記數據和特定感應器。Sparsh徹底改變了這一方法。作為一個通用模型,它能夠適應各種感應器和任務。它使用自我監督學習(SSL)在超過460,000張觸覺圖像的龐大數據庫上學習觸感模式——無需標記數據。

Meta還推出了TacBench,這是一個新的基準,包含六個基於觸覺的任務來評估Sparsh的能力。Meta聲稱,Sparsh在低數據場景中超越了傳統模型95.1%。基於Meta的I-JEPA和DINO架構的Sparsh版本在力估算、滑動檢測和複雜操作等任務中展現了卓越的能力。

Meta Digit Plexus:觸覺系統開發平台

Meta推出了Digit Plexus,以整合感應技術和觸覺感知模型,從而創建具身人工智慧系統。該平台將指尖和手掌感應器集成在一個機器手中,以實現更協調的觸覺反應。這種設置使具身人工智慧能夠即時處理感官反饋並調整其行動,就像人手的運動和反應一樣。

通過標準化整個手的觸覺反饋,Digit Plexus增強了具身人工智慧的精確性和控制力。這一發展在製造和醫療保健等需要謹慎處理的領域尤其重要。該平台將指尖和ReSkin等感應器連接到控制系統,簡化數據收集、控制和分析——所有這些都通過一根電纜進行。

Meta將Digit Plexus的軟硬體設計釋放給開源社群。目標是促進合作,加速具身人工智慧的研究,推動這些領域的創新和進步。

促進具身人工智慧的研究與開發

Meta不僅在推進技術,還在提供資源以促進具身人工智慧的研究與開發。一個關鍵的倡議是開發基準來評估人工智慧模型。其中之一,PARTNR(Planning And Reasoning Tasks in humaN-Robot collaboration),評估人工智慧模型在家庭任務中與人類的互動。使用Habitat 3.0模擬器,PARTNR提供了一個現實的環境,讓機器人協助完成清理和烹飪等任務。擁有超過100,000個基於語言的任務,旨在加速具身人工智慧的進展。

除了內部倡議,Meta還與GelSight Inc.和Wonik Robotics等組織合作,加速觸覺感知技術的採用。GelSight將分發Digit 360感應器,而Wonik Robotics將生產整合Digit Plexus技術的Allegro手。通過開源平台和夥伴關係,使這些技術變得可用,Meta正在幫助創造一個可能導致醫療保健、製造和家庭協助方面創新的生態系統。

總結

Meta正在推進具身人工智慧,將其從僅僅是視覺和聽覺擴展到觸覺。隨著Digit 360和Sparsh等創新,人工智慧系統正在獲得感受和精確回應其周遭環境的能力。通過與開源社群分享這些技術並與關鍵組織合作,Meta正在幫助加速觸覺感知的發展。這一進展可能在醫療保健、製造和家庭協助等領域帶來突破,使人工智慧在現實任務中變得更具能力和反應性。



Source link

Tags: Digit 360Digit PlexusEmbodied AIfingertipmetaMeta SparshTactile PerceptionTouch Perception推進具身人工智慧Meta如何將類人觸感和靈巧性帶入人工智慧
Previous Post

更新白皮書:在 AWS 上為 PCI DSS 分段和範圍架構

Next Post

受損的珊瑚礁正在獲得幫助(機器人)

Related Posts

Wandelbots對機器人編程的未來
機器人與自動化

Wandelbots對機器人編程的未來

2025-03-17
探索刺繡設計以用於專案
機器人與自動化

探索刺繡設計以用於專案

2025-03-16
Neura Robotics 首席執行官討論資金、人形機器人和競爭
機器人與自動化

Neura Robotics 首席執行官討論資金、人形機器人和競爭

2025-03-15
Google 第二代 Chromecast 和音頻設備遭遇重大故障——過期的中介 CA 證書是罪魁禍首
機器人與自動化

Google 第二代 Chromecast 和音頻設備遭遇重大故障——過期的中介 CA 證書是罪魁禍首

2025-03-14
Unitree 在機器人峰會暨博覽會上展示 G1 人形機器人
機器人與自動化

Unitree 在機器人峰會暨博覽會上展示 G1 人形機器人

2025-03-14
機器人對話 第113集 – 軟性機器人手,與卡斯帕·阿爾托費爾
機器人與自動化

機器人對話 第113集 – 軟性機器人手,與卡斯帕·阿爾托費爾

2025-03-14
Next Post
受損的珊瑚礁正在獲得幫助(機器人)

受損的珊瑚礁正在獲得幫助(機器人)

設計安全:AWS 擴大 MFA 要求,增強集中式安全控制

設計安全:AWS 擴大 MFA 要求,增強集中式安全控制

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 6 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。