什麼是AGI?
首先,我們來談談AGI的定義。AGI是一個模糊而不斷變化的術語,通常是由那些想要開發這項技術的研究者或公司所定義。一般來說,AGI指的是未來的人工智慧,能在認知任務上超越人類。這裡提到的「人類」和「任務」的不同,對於評估AGI的可實現性、安全性以及對勞動市場、戰爭和社會的影響至關重要。因此,雖然定義AGI的工作不太引人注目,但其實是非常重要的。這一點在本週由Hugging Face和Google等公司作者發表的一篇新論文中得到了證明。如果你聽到AGI這個詞,我建議你問問對方他們指的是哪一種模糊的定義。(不要害怕要求澄清!)
最新消息
接下來,讓我們來看看最新的消息。上週,中國推出了一個新的人工智慧模型,名叫Manus。這個模型的宣傳視頻顯示,它能處理像創建網站或進行分析這樣的「代理性」任務,並稱其為「可能是AGI的一瞥」。這個模型正在Fiverr和Upwork等眾包平台上執行實際任務,而Hugging Face的一位產品負責人稱它為「我見過的最令人印象深刻的人工智慧工具」。
目前尚不清楚Manus的實際表現有多出色,但在這種背景下——將代理性人工智慧視為通往AGI的踏腳石——紐約時報專欄作家Ezra Klein在周二的播客中專門討論了AGI。這也意味著這個概念已經迅速超越了人工智慧圈,進入了家庭聚會的話題。Klein邀請了喬治城大學的教授Ben Buchanan,他曾是拜登政府的人工智慧特別顧問。
AGI對社會的影響
他們討論了許多話題,包括AGI對執法和國家安全的影響,以及為什麼美國政府認為在中國之前發展AGI是必要的,但最具爭議的部分是關於這項技術對勞動市場的潛在影響。Klein表示,如果人工智慧即將在許多認知任務上表現出色,那麼立法者就應該開始思考,從人類的思維轉向算法的大規模勞動轉型對工人意味著什麼。他批評民主黨人基本上沒有計劃。
這可以被視為在誇大恐懼,暗示AGI的影響即將來臨並且影響深遠。緊接著出現的,是紐約大學的神經科學教授Gary Marcus,他對Klein節目中提出的觀點進行了反駁。
Marcus指出,最近的新聞,包括OpenAI的新版本ChatGPT-4.5的表現不如預期,表明AGI距離實現還有很長的路要走。他表示,儘管經過幾十年的研究,核心技術問題仍然存在,擴大訓練和計算能力的努力已經達到了收益遞減的階段。當前主導的語言模型可能根本不是解鎖AGI的關鍵。他認為,政治領域不需要更多人對AGI發出警報,因為這樣的討論實際上更有利於那些花錢開發AGI的公司,而不是幫助公眾。相反,我們需要更多人質疑AGI即將到來的說法。儘管如此,Marcus並不懷疑AGI是可能的,他只是懷疑實現的時間表。
AGI的再度關注
就在Marcus試圖降低這種恐懼時,AGI的話題又被重新提起。三位有影響力的人物——谷歌前首席執行官Eric Schmidt、Scale AI的首席執行官Alexandr Wang,以及人工智慧安全中心的主任Dan Hendrycks——發表了一篇名為《超智能策略》的論文。
Hendrycks在電子郵件中告訴我,所謂的「超智能」是指能「在幾乎所有智力領域中明顯超越世界上最優秀的個別專家」的人工智慧。他說:「與安全最相關的認知任務包括駭客攻擊、病毒學以及自主人工智慧的研究和開發——在這些領域中,超越人類專業知識可能會帶來嚴重風險。」
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!