星期日, 15 6 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home AI 綜合新聞

超越「提示與祈禱」- O’Reilly

2025-01-21
in AI 綜合新聞
0 0
0
超越「提示與祈禱」- O’Reilly
Share on FacebookShare on Twitter
Your Ad


重點摘要:

企業的人工智慧(AI)團隊發現,單純依賴代理的方法(動態鏈接大型語言模型(LLM)調用)無法提供生產系統所需的可靠性。完全依賴提示的模型—商業邏輯完全存在於提示中—會導致系統不可靠、效率低下,且無法在大規模下維護。需要轉向結構化自動化,將對話能力與商業邏輯執行分開,以達到企業級的可靠性。這種方法帶來了顯著的好處:一致的執行、更低的成本、更好的安全性,以及可以像傳統軟體一樣維護的系統。

想像一下:當前的對話AI狀態就像是希羅尼穆斯·博斯(Hieronymus Bosch)的《人間樂園》中的一幕。乍看之下,它令人著迷—潛力無窮的樂園。AI系統承諾無縫的對話、智慧的代理和輕鬆的整合。但仔細一看,混亂卻浮現出來:這一直是一個虛假的樂園。

你的公司的AI助理自信地告訴客戶它已處理了他們的緊急提款請求—但實際上它並沒有,因為它誤解了API文檔。或者它愉快地告訴你的CEO它已將那些敏感的董事會文件歸檔—卻放到了完全錯誤的資料夾。這些並不是假設的情境;它們是那些將運營押注於提示和祈禱方法的組織的日常現實。

期望的演變

多年來,AI世界受到規模法則的驅動:這是一種經驗觀察,較大的模型和更大的數據集會導致性能的比例提升。這促使人們相信,僅僅增大模型的規模就能解決準確性、理解和推理等更深層次的問題。然而,越來越多的共識認為,規模法則的時代即將結束。增量的提升變得越來越難以實現,而押注於越來越強大的LLM的組織開始看到收益遞減。

在這種背景下,對話AI的期望急劇上升。還記得昨天那些簡單的聊天機器人嗎?它們用預先編程的回答處理基本的常見問題。如今的企業希望AI系統能夠:

  • 在多個部門之間導航複雜的工作流程
  • 與數百個內部API和服務進行交互
  • 在考慮安全性和合規性的情況下處理敏感操作
  • 在數千名用戶和數百萬次交互中可靠地擴展

然而,重要的是要明確這些系統是什麼—以及不是什麼。當我們談論對話AI時,我們指的是設計用來進行對話、協調工作流程和實時做出決策的系統。這些系統參與對話並與API集成,但不創建獨立的內容,如電子郵件、簡報或文件。像“為我寫這封電子郵件”和“為我創建一個簡報”這樣的用例屬於內容生成,這超出了這一範疇。這一區別至關重要,因為對話AI的挑戰和解決方案對於在互動、實時環境中運作的系統是獨特的。

我們被告知2025年將是代理的年份,但同時來自Anthropic、Hugging Face和其他領先聲音的共識越來越強烈,複雜的工作流程需要比單純信任LLM來解決一切更多的控制。

提示和祈禱的問題

當前許多對話AI實施的標準操作手冊大致如下:

  • 收集相關的上下文和文檔
  • 編寫一個解釋任務的提示
  • 請求LLM生成計劃或回應
  • 信任它能如預期運作

這種方法—我們稱之為提示和祈禱—乍看之下似乎很有吸引力。它實施迅速,演示效果良好。但在大規模運作時,它隱藏著嚴重的問題:

不可靠性

每次互動都成為出錯的新機會。相同的查詢可能根據模型當天如何解讀上下文而產生不同的結果。在處理企業工作流程時,這種變異性是不可接受的。

為了感受提示和祈禱方法的不可靠性,考慮一下Hugging Face報告的功能調用的最新狀態準確度不到90%。對於軟體來說,90%的準確性通常會成為交易的破壞者,但代理的承諾在於能夠將它們鏈接在一起:即使連續五次也會有超過40%的失敗率!

低效率

動態生成回應和計劃的計算成本很高。每次互動都需要多次API調用、標記處理和運行時決策。這轉化為更高的成本和更慢的回應時間。

複雜性

調試這些系統簡直是一場噩夢。當LLM沒有按照你的要求運作時,你的主要對策是改變輸入。但唯一知道你的改變會產生什麼影響的方法就是反覆試驗。當你的應用程序由許多步驟組成,每一步都使用一個LLM調用的輸出作為另一個的輸入時,你只能在LLM推理的鏈條中篩選,試圖理解為什麼模型做出了某些決策。開發速度因此停滯不前。

安全性

讓LLM在商業邏輯上做出運行時決策會帶來不必要的風險。OWASP AI安全與隱私指南特別警告“過度自主”——給AI系統過多的自主決策權。然而,許多當前的實施恰恰如此,這使組織面臨潛在的違規和意外後果。

更好的前進方向:結構化自動化

替代方案不是放棄AI的能力,而是通過結構化自動化更智能地利用它們。結構化自動化是一種開發方法,將對話AI的自然語言理解與確定性工作流程執行分開。這意味著使用LLM來解釋用戶輸入並澄清他們的需求,同時依賴預定義的、可測試的工作流程來處理關鍵操作。通過分開這些關注點,結構化自動化確保AI驅動的系統可靠、高效且可維護。

這種方法分開了在提示和祈禱系統中經常混淆的關注點:

  • 理解用戶的需求:利用LLM在理解、操作和生成自然語言方面的優勢
  • 商業邏輯執行:依賴預定義、經過測試的工作流程來處理關鍵操作
  • 狀態管理:保持對系統狀態和轉換的清晰控制

關鍵原則很簡單:生成一次,可靠運行永遠。與其讓LLM在商業邏輯上做出運行時決策,不如利用它們來幫助創建穩健、可重用的工作流程,這些工作流程可以像傳統軟體一樣進行測試、版本控制和維護。

通過將商業邏輯與對話能力分開,結構化自動化確保系統保持可靠、高效和安全。這種方法還強化了生成對話任務(LLM擅長的地方)與操作決策(最適合由確定性、類似軟體的過程處理)之間的界限。

所謂的“預定義、經過測試的工作流程”,是指在設計階段創建工作流程,利用AI協助構思和模式。這些工作流程然後作為傳統軟體實施,可以進行測試、版本控制和維護。這種方法在軟體工程中是廣為人知的,與依賴運行時決策的代理構建形成鮮明對比—這是一種本質上不可靠且難以維護的模型。

Alex Strick van Linschoten和ZenML團隊最近編制了一個400多個(並且在增長中!)企業LLM部署的數據庫。不出所料,他們發現結構化自動化在各方面提供的價值顯著高於提示和祈禱的方法:

完全自主代理的承諾與其在面向客戶的部署中的存在之間存在明顯的脫節。當我們檢查涉及的複雜性時,這一差距並不令人驚訝。現實是,成功的部署往往偏向於更受限的方法,原因令人深思……以Lindy.ai的旅程為例:他們最初使用開放式提示,夢想著完全自主的代理。然而,他們發現當轉向結構化工作流程時,可靠性顯著提高。同樣,Rexera通過實施決策樹進行質量控制而獲得成功,有效地限制了其代理的決策空間,以提高可預測性和可靠性。

提示和祈禱的方法因其演示效果良好且感覺快速而具誘惑力。但在表面之下,它是一個脆弱的即興創作和失控成本的拼湊。解藥不是放棄AI的承諾,而是設計具有明確關注點分離的系統:由LLM處理的對話流利性,通過結構化工作流程驅動的商業邏輯。

結構化自動化在實踐中是什麼樣的?

考慮一個典型的客戶支持場景:一位客戶給你的AI助理發消息說:“嘿,你搞錯我的訂單了!”

  • LLM解釋用戶的消息,詢問澄清問題,如“你的訂單缺少什麼?”
  • 在收到相關細節後,結構化工作流程查詢後端數據以確定問題:物品是否分開發貨?它們還在運輸中嗎?是否缺貨?
  • 根據這些信息,結構化工作流程確定適當的選項:退款、重新發貨或其他解決方案。如果需要,它會向客戶請求更多信息,利用LLM來處理對話。

在這裡,LLM在導航人類語言和對話的複雜性方面表現出色。但關鍵的商業邏輯—如查詢數據庫、檢查庫存和確定解決方案—則存在於預定義的工作流程中。

這種方法確保:

  • 可靠性:相同的邏輯在所有用戶中一致適用。
  • 安全性:敏感操作受到嚴格控制。
  • 效率:開發人員可以像傳統軟體一樣測試、版本控制和改進工作流程。

結構化自動化橋接了兩者的優勢:由LLM驅動的對話流利性和由工作流程處理的可靠執行。

那麼長尾呢?

對結構化自動化的一個常見反對意見是,它無法擴展以處理“長尾”任務—那些稀有的、不可預測的情況,似乎不可能預先定義。但事實是,結構化自動化通過使LLM的即興創作安全且可測量,簡化了邊緣案例的管理。

這是如何運作的:低風險或稀有任務可以在短期內由LLM靈活處理。每次互動都會被記錄,模式會被分析,並為變得頻繁或關鍵的任務創建工作流程。如今的LLM非常擅長根據成功對話的示例生成結構化工作流程的代碼。這種迭代方法將長尾轉變為可管理的新功能管道,並且知道通過將這些任務提升為結構化工作流程,我們可以獲得可靠性、可解釋性和效率。

從運行時到設計時

讓我們回顧之前的例子:一位客戶給你的AI助理發消息說:“嘿,你搞錯我的訂單了!”

提示和祈禱的方法

  • 動態解釋消息並生成回應
  • 實時調用API以執行操作
  • 依賴即興創作來解決問題

這種方法導致不可預測的結果、安全風險和高調試成本。

結構化自動化的方法

  • 使用LLM解釋用戶輸入並收集細節
  • 通過經過測試、版本控制的工作流程執行關鍵任務
  • 依賴結構化系統以獲得一致的結果

好處是顯著的:

  • 可預測的執行:工作流程每次都表現一致。
  • 更低的成本:減少標記使用和處理開銷。
  • 更好的安全性:對敏感操作有明確的界限。
  • 更容易的維護:標準軟體開發實踐適用。

人類的角色

對於邊緣案例,系統會將其升級到擁有完整上下文的人類,確保敏感情況得到妥善處理。這種人機協作模型結合了AI的效率和人類的監督,提供可靠且協作的體驗。

這種方法可以擴展到報銷報告以外的其他領域,如客戶支持、IT票務和內部人力資源工作流程—任何需要可靠整合後端系統的對話AI。

為擴展而建

企業對話AI的未來不在於給模型更多的運行時自主權,而在於更智能地利用它們的能力來創建可靠、可維護的系統。這意味著:

  • 以與傳統軟體相同的工程嚴謹性對待AI驅動的系統
  • 將LLM作為生成和理解的工具,而不是運行時決策引擎
  • 構建可以被正常工程團隊理解、維護和改進的系統

問題不在於如何一次性自動化所有,而在於如何以可擴展、可靠且提供一致價值的方式進行自動化。

採取行動

對於技術領導者和決策者而言,前進的道路是明確的:

  • 審核當前實施:
    • 識別提示和祈禱方法創造風險的區域
    • 測量當前系統的成本和可靠性影響
    • 尋找實施結構化自動化的機會
  • 從小處著手,但要有大想法:
    • 在理解良好的領域開始試點項目
    • 構建可重用的組件和模式
    • 記錄成功和教訓
  • 投資於正確的工具和實踐:
    • 尋找支持結構化自動化的平台
    • 建立對LLM能力和傳統軟體工程的專業知識
    • 制定何時使用不同方法的明確指導方針

提示和祈禱的時代可能才剛剛開始,但你可以做得更好。隨著企業在AI實施上的成熟,重點必須從令人印象深刻的演示轉向可靠、可擴展的系統。結構化自動化為這一過渡提供了框架,結合了AI的力量和傳統軟體工程的可靠性。

企業AI的未來不僅僅在於擁有最新的模型—而在於明智地使用它們來構建一致運作、有效擴展並提供實際價值的系統。進行這一過渡的時機就是現在。



新聞來源

本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!

Tags: OReilly超越提示與祈禱
Previous Post

貧乏的數據阻礙公共服務中的人工智慧

Next Post

探索表面之上的潛力

Related Posts

中國教育改革人工智慧助力創新人才培育
AI 綜合新聞

中國教育改革人工智慧助力創新人才培育

2025-06-11
AI 助力中風患者康復Devon 的 SAMueL-2 計畫創新突破
AI 綜合新聞

AI 助力中風患者康復Devon 的 SAMueL-2 計畫創新突破

2025-04-24
全球AI教育市場蓬勃發展智慧學習工具引領新趨勢
AI 綜合新聞

全球AI教育市場蓬勃發展智慧學習工具引領新趨勢

2025-04-21
2027 年 AI 預測人類水平 AI 的全新里程碑
AI 綜合新聞

2027 年 AI 預測人類水平 AI 的全新里程碑

2025-04-21
AI 技術對人類智能的影響我們在失去什麼?
AI 綜合新聞

AI 技術對人類智能的影響我們在失去什麼?

2025-04-20
人工智慧重塑遊戲開發遊戲未來從現在開始
AI 綜合新聞

人工智慧重塑遊戲開發遊戲未來從現在開始

2025-04-18
Next Post
探索表面之上的潛力

探索表面之上的潛力

機器人部落格 | RoboCup Junior 綜合彩排及 RBTX 學院開幕:隨時可用的機器人知識與 igus 的訓練

機器人部落格 | RoboCup Junior 綜合彩排及 RBTX 學院開幕:隨時可用的機器人知識與 igus 的訓練

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 6 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。