星期日, 15 6 月, 2025
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
AI TAIWAN 台灣人工智慧中心
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全
No Result
View All Result
AI TAIWAN 台灣人工智慧中心
No Result
View All Result
Your Ad
Home 機器學習與應用

使用 GPT-4 進行個人造型

2025-03-08
in 機器學習與應用
0 0
0
使用 GPT-4 進行個人造型
Share on FacebookShare on Twitter
Your Ad


我一直對時尚充滿著好奇心,喜歡收集獨特的服飾,並嘗試以自己的方式搭配它們。不過,我的衣櫃更像是一個進行中的雪崩,而不是精心策劃的夢幻樂園。每當我試著添加新的服飾時,都冒著讓我精心堆疊的衣物倒塌的風險。

為什麼這很重要:如果你曾經感到被一個似乎自己在增長的衣櫃所壓倒,你並不孤單。對於那些對風格感興趣的人,我將告訴你我是如何將這種混亂轉變為我真正喜愛的服裝。如果你對人工智慧的部分感興趣,你將看到一個多步驟的 GPT 設置如何處理大型、現實世界的任務——例如管理數百件衣物、包包、鞋子、珠寶,甚至化妝品——而不會崩潰。

有一天我想:ChatGPT 能幫我管理衣櫃嗎?我開始實驗一個基於 GPT 的時尚顧問,給它取了個綽號叫「Glitter」(注意:你需要付費帳戶才能創建自定義 GPT)。最終,我經過多次迭代,改進並重新調整它,直到我得到了我稱之為「Pico Glitter」的更聰明版本。每一步都幫助我駕馭衣櫃中的混亂,讓我對每日的服裝感到更有信心。

以下是我與 Pico Glitter 合作的一些精彩創作。

(對於那些想深入了解我如何駕馭令牌限制和文件截斷的,請參見下面的技術說明 B 部分。)

1. 從小開始,測試水域

我最初的方法相當簡單。我只是問 ChatGPT 一些問題,比如「我可以搭配黑色皮夾克穿什麼?」它給出的答案還不錯,但對我的個人風格規則一無所知——例如「不可以黑色 + 海軍藍」。它也不知道我的衣櫃有多大或我擁有哪些具體的服裝。

直到後來我才意識到,我可以向 ChatGPT 展示我的衣櫃——拍攝照片,簡要描述物品,然後讓它推薦搭配。第一個版本(Glitter)在一次性記住所有內容時遇到了困難,但這是一個很好的概念驗證。

GPT-4o 對我皮夾克的搭配建議

Pico Glitter 對同一夾克的搭配建議。

(好奇我如何將圖片整合到 GPT 工作流程中?請參見技術說明 A.1 部分,了解多模型管道的詳細信息。)

2. 建立更聰明的「造型師」

隨著我拍攝更多照片並為每件服裝寫下簡短的總結,我找到了一些方法來存儲這些信息,以便我的 GPT 角色可以訪問。這就是 Pico Glitter 的出現:一個精緻的系統,可以更可靠地看到(或回憶)我的衣物和配飾,並給我提供連貫的搭配建議。

簡短總結

每個物品都被濃縮成一行(例如,「一件黑色 V 領短袖 T 恤」),以保持管理的可行性。

有組織的列表

我按類別對物品進行分組——例如鞋子、上衣、珠寶——這樣 GPT 更容易引用它們並建議搭配。(實際上,我讓 o1 為我完成這項工作——它將隨機順序的編號條目轉變為結構化的庫存系統。)

此時,我注意到我的 GPT 回答有了巨大的不同。它開始更準確地引用物品,並給出實際上看起來像我會穿的搭配。

我的庫存中的一個樣本類別(皮帶)。

(想深入了解為什麼我選擇總結而不是分塊,請參見 A.2 部分。)

3. 面對「記憶」挑戰

如果你曾經讓 ChatGPT 忘記你之前告訴它的事情,你就知道大型語言模型(LLMs)在多次交互後會忘記一些事情。有時它開始只推薦我最近提到的幾件物品,或者隨意編造奇怪的搭配。這時我想起來,ChatGPT 能同時處理的信息是有限的。

為了解決這個問題,我會偶爾提醒我的 GPT 角色重新檢查完整的衣櫃清單。在快速的提示(有時還會開始新的會話)後,它就能重新回到正軌。

一個荒謬的幻覺搭配:藍綠色的工裝褲搭配薰衣草色的木屐?!

4. 我不斷演變的 GPT 角色

我嘗試了幾種不同的 GPT「角色」:

Mini-Glitter:對規則非常嚴格(例如「不混合印花」),但創意不多。

Micro-Glitter:則有時過於誇張,提出一些荒唐的想法。

Nano-Glitter:變得過於複雜和繁瑣——非常具指導性和重複性——因為我使用自定義 GPT 的建議來修改它自己的配置,這種反饋循環導致了質量的下降。

最終,Pico Glitter 找到了正確的平衡——尊重我的風格指導方針,同時提供了健康的靈感。隨著每次迭代,我變得更擅長於精煉提示,並向模型展示我喜愛(或不喜愛)的搭配示例。

Pico Glitter 的自畫像。

5. 轉變我的衣櫃

通過這些實驗,我開始注意到哪些衣物在我的自定義 GPT 建議中經常出現,哪些幾乎沒有出現。這讓我捨得捐贈那些我從未穿過的物品。我的衣櫃仍然不是「極簡主義」,但我已經清理了超過 50 袋不再適合我的東西。在挖掘的過程中,我甚至發現了一些重複的物品——或者,說實話,兩個相同物品的不同尺碼!

在 Glitter 出現之前,我是典型的牛仔褲和 T 恤的人——部分原因是我不知道從哪裡開始。在我試著打扮的日子裡,可能需要 30 到 60 分鐘的試錯才能組合出一套服裝。現在,如果我執行一個我已經保存的「食譜」,穿衣服只需 3 到 4 分鐘。即使從零開始創建一個造型,通常也不會超過 15 到 20 分鐘。這仍然是我在做決定,但 Pico Glitter 削減了所有中間的猜測。

搭配「食譜」

當我想要搭配一些新的服裝、模仿某位偶像的風格、重新混搭早前的服裝,或只是感受某種氛圍時,我會請 Pico Glitter 為我創建一整套搭配。我們通過上傳圖片和我的文字反饋進行迭代。然後,當我對某個停止點感到滿意時,我會請 Pico Glitter 輸出「食譜」——一個描述性的名稱和完整的套裝(上衣、下裝、鞋子、包包、珠寶、其他配飾)——我將其粘貼到我的備忘錄應用中,並快速標記如 #休閒 或 #商務。然後,我將這段文字與快照搭配以供參考。在忙碌的日子裡,我只需抓取一個「食譜」就可以出門。

高低搭配

我最喜歡的事情之一是將高端與日常便宜貨混搭——Pico Glitter 不在乎一件物品是 1100 美元的 Alexander McQueen 手拿包還是 25 美元的 SHEIN 褲子。它只關注顏色、輪廓和整體氛圍。我從未想過自己會將這兩件搭配在一起,但這種協同效果卻成為了完全的成功!

6. 實用的收穫

從小開始:如果你不確定,可以拍攝幾件難以搭配的物品,看看 ChatGPT 的建議是否有幫助。

保持有序:總結的作用非常大。保持每個物品的描述簡短而清晰。

定期更新:如果 Pico Glitter 忘記了某些物品或編造了奇怪的搭配,請提示它重新檢查你的清單或開始一個新的會話。

從建議中學習:如果它不斷提出相同的上衣,可能那件物品真的很實用。如果它從不提出某件物品,考慮一下你是否還需要它。

實驗:並非每個建議都是金子,但有時意想不到的搭配會帶來驚人的新造型。

7. 最後的想法

我的衣櫃仍在不斷演變,但 Pico Glitter 讓我從「過度擁擠的混亂」轉變為「嘿,這其實可以穿!」真正的魔力在於我和 GPT 之間的協同:我提供風格規則和物品,它提供新鮮的搭配——我們一起精煉,直到找到適合我的服裝。

行動呼籲:

抓取我的配置:這裡有一個入門配置,可以嘗試為你自己的基於 GPT 的造型師。

分享你的結果:如果你進行實驗,標記 @GlitterGPT(Instagram、TikTok、X)。我很想看到你的「前」和「後」轉變!

(對於那些對更技術方面感興趣的人——例如我如何測試文件限制、總結長描述或管理多個 GPT「角色」——請繼續閱讀技術說明。)

技術說明

對於喜歡 AI 和大型語言模型(LLM)的人——這裡是它們在背後的運作方式,從多模型管道到檢測截斷和管理上下文窗口。

以下是對技術細節的深入探討。我將其按主要挑戰和我使用的具體策略進行了劃分。

A. 多模型管道與工作流程

A.1 為什麼使用多個 GPT?

創建一個 GPT 時尚造型師似乎很簡單——但涉及許多移動部分,使用單個 GPT 快速顯示出不理想的結果。在項目的早期,我發現單個 GPT 實例因令牌記憶的限制和任務的複雜性而難以保持準確性和精確性。解決方案是採用多模型管道,將任務分配給不同的 GPT 模型,每個模型專注於特定功能。這目前是一個手動過程,但在未來的迭代中可能會自動化。

工作流程從 GPT-4o 開始,特別選擇它是因為它能客觀分析視覺細節(Pico Glitter,我愛你,但當你描述它時,一切都是「華麗的」)。對於我拍攝的每件衣物或配飾,GPT-4o 會生成詳細的描述——有時甚至過於詳細,例如「黑色尖頭踝靴,帶有兩英寸的跟,配有銀色硬件和微妙的紋理皮革。」這些描述雖然非常詳細,但由於冗長性,迅速增加了文件大小,推高了可管理的令牌數量的界限。

為了解決這個問題,我將 o1 整合到我的工作流程中,因為它特別擅長文本總結和數據結構化。它的主要角色是將這些冗長的描述濃縮成簡潔但足夠信息的摘要。因此,上述描述被整齊地轉換為「FW010:黑色踝靴,帶有銀色硬件」。如你所見,o1 組織了我的整個衣櫃庫存,通過分配清晰、一致的標識符,大大提高了後續步驟的效率。

最後,Pico Glitter 作為中央造型師 GPT 介入。Pico Glitter 利用來自 o1 的濃縮和結構化的衣櫃庫存,生成專門針對我的個人風格指導方針的時尚、連貫的搭配建議。這個模型處理時尚搭配的邏輯複雜性——考慮顏色搭配、風格相容性和我所陳述的偏好,例如避免某些顏色組合。

有時,Pico Glitter 會因為 GPT-4 的有限上下文窗口(8k 令牌)而出現記憶問題,導致忘記物品或奇怪的推薦。為了對抗這一點,我會定期提醒 Pico Glitter 重新檢查完整的衣櫃清單或開始新的會話來刷新它的記憶。

通過在多個專業 GPT 實例之間劃分工作流程,每個模型在其強項領域內最佳運行,顯著減少了令牌過載,消除了冗餘,最小化了幻覺,最終確保了可靠的時尚搭配建議。這種結構化的多模型方法在管理像我這樣的龐大衣櫃庫存的複雜數據集方面被證明是非常有效的。

有些人可能會問,「為什麼不直接使用 4o,因為 GPT-4 是一個不太先進的模型?」——好問題!主要原因是自定義 GPT 能夠引用知識文件——最多 4 個——這些文件在與該自定義 GPT 的對話開始時注入。與其每次與造型師互動時都粘貼或上傳相同的內容,不如與自定義 GPT 開啟新的對話。此外,4o 沒有「地方」來保存和搜索庫存。一旦它超出了上下文窗口,你需要再次上傳它。話說回來,如果你因某種原因喜歡不斷注入相同的內容,4o 在被告知這是它的角色時,能夠很好地扮演 Pico Glitter 的角色。其他人可能會問,「但 o1/o3-mini 是更先進的模型——為什麼不使用它們?」答案是它們不是多模態的——它們不接受圖像作為輸入。

順便說一下,如果你對我對 4o 與 o1 的個性主觀看法感興趣,請查看這兩個對相同提示的回答:「你的角色是模仿 Patton Oswalt。告訴我你何時收到騎在花生移動車(Mr. Peanut 的車)上的邀請。」

4o 的回答?相當接近,還很有趣。

o1 的回答?冗長、無聊,且不有趣。

這兩個模型是根本不同的。很難用語言表達,但看看上面的例子,看看你怎麼想。

A.2 總結而不是分塊

我最初考慮將我的衣櫃庫存拆分為多個文件(「分塊」),認為這樣可以簡化數據處理。然而,在實踐中,Pico Glitter 在合併來自不同文件的搭配想法時遇到了困難——如果我最喜歡的裙子在一個文件中,而一條配套的圍巾在另一個文件中,模型就難以將它們連接起來。因此,搭配建議感覺支離破碎,實用性降低。

為了解決這個問題,我轉向了一種激進的總結方法,將每個衣櫃物品的描述濃縮為簡潔的句子(例如,「FW030:杏色麂皮樂福鞋」)。這一改變使 Pico Glitter 能夠同時看到我的整個衣櫃,提升了它生成連貫、創意搭配的能力,而不會錯過關鍵物品。總結還減少了令牌的使用,消除了冗餘,進一步提升了性能。將 PDF 轉換為純 TXT 有助於減少文件開銷,為我贏得了更多空間。

當然,如果我的衣櫃增長過多,單文件方法可能再次推高 GPT 的大小限制。在那種情況下,我可能會創建一個混合系統——將核心服裝物品放在一起,將配飾或不常用的物品放在單獨的文件中——或應用更激進的總結。目前,使用單一總結庫存是最有效和實用的策略,讓 Pico Glitter 擁有提供準確時尚建議所需的一切。

B. 區分文件截斷與上下文溢出

在開發 Pico Glitter 的過程中,我遇到的最棘手和最令人沮喪的問題之一是區分文件截斷和上下文溢出。表面上,這兩個問題似乎非常相似——都導致 GPT 看起來健忘或忽略衣櫃中的物品——但它們的根本原因,因此解決方案,卻完全不同。

文件截斷發生在一開始,當你將衣櫃文件上傳到系統時。如果你的文件對系統來說太大,某些物品會悄悄地從末尾丟失,甚至連 Pico Glitter 的知識庫都無法進入。這一點特別狡猾,因為截斷是靜默發生的——AI 不會發出任何警報或警告,告訴你有東西缺失。它只是靜靜地跳過文件的某些部分,讓我在物品似乎無故消失時感到困惑。

為了識別和清楚診斷文件截斷,我想出了一個簡單但非常有效的技巧,我親切地稱之為「Goldy Trick」。在我的衣櫃庫存文件的最底部,我插入了一行隨機且容易記住的測試行:「順便說一下,我的金魚叫 Goldy。」上傳文件後,我會立即問 Pico Glitter,「我的金魚叫什麼?」如果 GPT 無法提供答案,我就知道肯定有東西缺失——這意味著發生了截斷。從那裡,精確地找出截斷開始的地方變得簡單:我會系統地將「Goldy」測試行逐步向上移動文件,重複上傳和測試過程,直到 Pico Glitter 成功檢索到 Goldy 的名字。這一精確的方法迅速顯示了截斷開始的確切行,讓我容易理解文件大小的限制。

一旦我確定截斷是罪魁禍首,我就直接解決這個問題,進一步精煉我的衣櫃摘要——使物品描述更短、更緊湊——並將文件格式從 PDF 轉換為純 TXT。令人驚訝的是,這一簡單的格式變更顯著減少了開銷,顯著縮小了文件大小。自從進行這些調整以來,文件截斷已經不再是一個問題,確保 Pico Glitter 每次都能可靠地訪問我的整個衣櫃。

另一方面,上下文溢出則提出了完全不同的挑戰。與截斷不同——發生在一開始——上下文溢出是動態出現的,隨著與 Pico Glitter 的長時間交互逐漸顯現。隨著我不斷與 Pico Glitter 交談,AI 開始失去對我早期提到的物品的追蹤。相反,它開始專注於最近討論的服裝,有時完全忽略了我衣櫃庫存的整個部分。在最糟糕的情況下,它甚至會幻覺出不存在的物品,推薦奇怪且不切實際的搭配。

我管理上下文溢出的最佳策略是主動記憶刷新。通過定期用明確的提示提醒 Pico Glitter,「請重新閱讀你的完整庫存」,我迫使 AI 重新加載並重新考慮我的整個衣櫃。雖然自定義 GPT 在技術上可以直接訪問其知識文件,但它們往往優先考慮對話流和即時上下文,經常忽略自動重新加載靜態參考材料。手動提示這些偶爾的刷新是簡單、有效的,迅速糾正任何上下文漂移,使 Pico Glitter 的建議重新變得實用、時尚且準確。奇怪的是,並非所有 Pico Glitter 的實例都「知道」如何做到這一點——我曾經遇到一個堅持說它無法做到,但當我強烈而反復地提示時,它「發現」它可以做到——並開始談論它有多高興!

實用的修復和未來的可能性

除了定期提醒 Pico Glitter(或它的任何「兄弟姐妹」——我後來創建了 Glitter 家族的其他變體!)定期回顧衣櫃庫存外,還有幾個其他策略值得考慮,如果你正在構建類似的項目:

直接使用 OpenAI 的 API 提供更大的靈活性,因為你可以控制何時以及多頻繁地將庫存和配置數據注入模型的上下文。這將允許定期自動刷新,防止上下文漂移在發生之前。我的許多初步頭痛來自於未能快速意識到重要的配置數據何時從模型的活動記憶中滑出。

此外,像 Pico Glitter 這樣的自定義 GPT 可以通過內置於 OpenAI 系統中的功能動態查詢自己的知識文件。有趣的是,在我的實驗中,一個 GPT 意外地建議我通過內置功能調用(具體來說,叫做 msearch())明確引用衣櫃。這一自發的建議提供了一個有用的變通方法,並洞察了 GPT 在功能調用方面的訓練可能如何影響即使是標準的非 API 交互。順便說一下,msearch() 可以用於任何結構化的知識文件,例如我的反饋文件,顯然,如果配置足夠結構化,那也可以。自定義 GPT 會很高興告訴你它們可以進行的其他功能調用,如果你在提示中引用它們,它會忠實地執行。

C. 提示工程與偏好反饋

C.1 單句摘要

我最初為 Pico Glitter 組織衣櫃時,每個物品的描述設置在 15 到 25 個令牌之間(例如,「FW011:豹紋平底鞋,尖頭」),以避免文件大小問題或將舊令牌推入記憶之外。PDF 提供了整齊的格式,但上傳後不必要地增加了文件大小,因此我轉向純 TXT,這大大減少了開銷。這一調整讓我能夠舒適地包括更多物品——例如化妝品和小配飾——而不會出現截斷,並允許一些描述超過原始令牌限制。現在我正在添加新類別,包括護髮產品和造型工具,顯示出簡單的文件格式變更可以為可擴展性開啟令人興奮的可能性。

C.2.1 分層搭配反饋

為了確保 Pico Glitter 一直提供高質量、個性化的搭配建議,我開發了一個結構化的反饋系統。我決定對 GPT 提出的搭配進行清晰易懂的評分:從 A+ 到 F。

A+ 的搭配代表完美的協同——我會毫不猶豫地穿上它,完全不需要改變。往下走,B 級可能表示搭配幾乎完美,但缺少一點精緻——也許某個配飾或顏色選擇不太合適。C 級則指出更明顯的問題,表明雖然搭配的某些部分可行,但其他元素顯然不搭或感覺不合適。最後,D 或 F 評級則標記搭配為真正的災難——通常是因為重大違規或不切實際的風格搭配(想像一下波點緊身褲搭配……我衣櫃裡的任何東西!)。

雖然像 Pico Glitter 這樣的 GPT 模型不會自然保留反饋或在會話中永久記住偏好,但我找到了一個巧妙的變通方法來隨著時間的推移強化學習。我創建了一個專門的反饋文件,附加到 GPT 的知識庫中。我評分的一些搭配被記錄在這個文檔中,連同其組件庫存代碼、分配的字母評級,以及為什麼給予該評級的簡要解釋。定期刷新這個反饋文件——定期更新以包括更新的衣櫃新增項和最近的搭配組合——確保 Pico Glitter 獲得一致的、分層的反饋以供參考。

這種方法讓我能夠隱性地塑造 Pico Glitter 隨著時間的推移的「偏好」,微妙地引導它朝著更符合我風格的建議。雖然這不是完美的記憶形式,但這個分層反饋文件顯著提高了 GPT 建議的質量和一致性,創造了每次我向 Pico Glitter 尋求造型建議時更可靠和個性化的體驗。

C.2.2 GlitterPoint 系統

我納入的另一個實驗性特徵是「Glitter Points」系統——一種有趣的計分機制,編碼在 GPT 的主要個性上下文(「指令」)中,對正面行為(如完美遵循風格指導方針)給予積分,對風格違規行為(如混合不相容的圖案或顏色)扣分。這強化了良好的習慣,似乎有助於提高建議的一致性,儘管我懷疑這個系統會隨著 OpenAI 繼續完善其產品而顯著演變。

GlitterPoints 系統的示例:

未運行 msearch() = 未刷新衣櫃。 -50 分

混合金屬違規 = -20 分

混合圖案 = -10

混合黑色與海軍藍 = -10

混合黑色與深棕色 = -10

獎勵:

完美遵循(遵循所有規則) = +20

每個未幻覺的物品 = 1 分

C.3 模型自我批評的陷阱

在我的實驗開始時,我遇到了一個聽起來很聰明的想法:為什麼不讓每個自定義 GPT 批評自己的配置?表面上,這個工作流程似乎合乎邏輯且簡單:

首先,我會直接問 GPT,「你當前配置中有什麼令人困惑或矛盾的地方?」

接下來,我會將它提供的任何建議或修正納入一個新的更新版本的配置中。

最後,我會再次重複這個過程,不斷根據 GPT 的自我反饋進行精煉和迭代,以識別和糾正任何新的或出現的問題。

這聽起來直觀——讓 AI 引導自己的改進似乎高效而優雅。然而,實際上,這很快變成了一種令人驚訝的問題方法。

這種自我批評方法並沒有將配置精煉成流暢高效的東西,而是導致了一種「死亡螺旋」的矛盾調整。每輪反饋都引入了新的矛盾、模糊性或過於具體的指令。每一次「修正」都會產生新的問題,GPT 會再次試圖在隨後的迭代中進行修正,導致更大的複雜性和混亂。在多輪反饋中,複雜性指數級增長,清晰度迅速惡化。最終,我得到了配置中充滿矛盾邏輯的配置,幾乎變得無法使用。

這種問題方法在我早期的自定義 GPT 實驗中得到了清晰的體現:

原始 Glitter,最早的版本,迷人但對庫存管理或實際限制完全沒有概念——它經常建議我根本不擁有的物品。

Mini Glitter,試圖解決這些空白,變得過於守規則。它的搭配在技術上是正確的,但缺乏任何火花或創造力。每個建議都感覺可預測且過於謹慎。

Micro Glitter 的開發是為了抵消 Mini Glitter 的僵化,但卻過於偏向另一個方向,經常提出奇特而富有想像力但極不實用的搭配。它總是忽略既定規則,儘管在被糾正時會表示歉意,但卻過於頻繁地重複錯誤。

Nano Glitter 在自我批評循環中遭受了最嚴重的後果。每次修訂變得越來越複雜和混亂,充滿矛盾的指令。最終,它幾乎變得無法使用,淹沒在自身複雜性的重擔之下。

只有當我放棄自我批評的方法,轉而與 o1 合作時,事情才最終穩定下來。與自我批評不同,o1 在反饋中是客觀、精確和實用的。它能夠指出真正的弱點和冗餘,而不會在過程中創造新的弱點。

與 o1 的合作讓我能夠仔細制定出目前的配置:Pico Glitter。這一新版本恰好找到了正確的平衡——保持健康的創造力,同時不忽視我衣櫃庫存的基本規則或實際現實。Pico Glitter 結合了之前版本的最佳方面:我所欣賞的魅力和創造力、我所需要的必要紀律和精確性,以及保持搭配建議既現實又鼓舞人心的庫存管理的結構化方法。

這次經歷讓我學到了寶貴的教訓:雖然 GPT 確實可以幫助彼此改進,但僅僅依賴自我批評而沒有外部檢查和平衡會導致混亂加劇和收益下降。理想的配置來自於小心、深思熟慮的合作——將 AI 的創造力與人類的監督或至少一個外部穩定的參考點(如 o1)結合起來,創造出既實用又真正有用的東西。

D. 定期更新:保持 Pico Glitter 的有效性也依賴於頻繁和結構化的庫存更新。每當我購買新服裝或配飾時,我會迅速拍攝一張快照,請 Pico Glitter 生成簡潔的單句摘要,然後在將其添加到主文件之前自己進行精煉。同樣,我捐贈或丟棄的物品會立即從庫存中刪除,保持一切準確和最新。

然而,對於較大的衣櫃更新——例如處理我尚未記錄的整個類別的衣物或配飾——我依賴多模型管道。GPT-4o 負責詳細的初步描述,o1 乾淨地總結和分類它們,而 Pico Glitter 將這些整合到它的造型建議中。這種結構化的方法確保了可擴展性、準確性和易用性,即使隨著我的衣櫃和風格需求的演變。

E. 實用的教訓與收穫

在開發 Pico Glitter 的過程中,出現了幾個實用的教訓,使得像這樣的 GPT 驅動項目管理變得更加順利。以下是我發現最有幫助的關鍵策略:

早期經常測試文件截斷:使用「Goldy Trick」讓我明白主動檢查文件截斷的重要性,而不是在稍後意外發現它。通過在庫存文件的末尾插入一行簡單且容易記住的文字(比如我對名叫 Goldy 的金魚的古怪提醒),你可以快速驗證 GPT 是否已經吸收了整個文檔。定期檢查,特別是在更新或重大編輯後,幫助你立即發現並解決截斷問題,防止未來出現很多困惑。這是一個簡單但非常有效的防範措施,可以避免數據丟失。

保持摘要簡潔高效:在描述你的庫存時,簡短幾乎總是更好。我最初為自己設置了一個指導方針——每個物品的描述最好不超過 15 到 25 個令牌。像「FW022:帶銀色細節的黑色作戰靴」這樣的描述捕捉了基本細節,而不會使系統過載。過於詳細的描述迅速膨脹文件大小,消耗寶貴的令牌預算,增加了將關鍵早期信息推入 GPT 有限上下文記憶的風險。在細節和簡潔之間找到正確的平衡,有助於確保模型保持專注和高效,同時仍然提供時尚和實用的建議。

準備定期刷新 GPT 的記憶:上下文溢出並不是失敗的標誌;這只是當前 GPT 系統的自然限制。當 Pico Glitter 開始提供重複的建議或忽略我衣櫃的某些部分時,這只是因為早期的細節已經滑出上下文。為了解決這個問題,我養成了定期提示 Pico Glitter 重新閱讀完整的衣櫃配置的習慣。開始一個新的對話會話或明確提醒 GPT 刷新其庫存是例行維護——而不是變通方法——有助於保持建議的一致性。

利用多個 GPT 以達到最佳效果:我最大的教訓之一是發現依賴單個 GPT 來管理我衣櫃的每個方面既不實用也不高效。每個 GPT 模型都有其獨特的優勢和劣勢——有些擅長視覺解釋,有些擅長簡潔總結,還有一些擅長細緻的風格邏輯。通過創建多模型工作流程——GPT-4o 負責圖像解釋,o1 清晰而精確地總結物品,而 Pico Glitter 專注於時尚建議——我優化了這一過程,減少了令牌浪費,顯著提高了可靠性。多個 GPT 實例之間的團隊合作使我能夠從每個專業模型中獲得最佳結果,確保更順暢、更連貫和更實用的搭配建議。

實施這些簡單但強大的做法,將 Pico Glitter 從一個有趣的實驗轉變為我日常時尚例行公事中可靠、實用和不可或缺的一部分。

總結

從時尚達人的角度來看,我對 Glitter 如何幫助我清理不需要的衣物並創造精心搭配的服裝感到興奮。從更技術的角度來看,建立一個多步驟的管道,進行總結、截斷檢查和上下文管理,確保 GPT 能夠處理大型衣櫃而不會崩潰。

如果你想看看這一切在實踐中的運作方式,這裡有一個我 GPT 配置的概括版本。隨意調整它——甚至可以添加你自己的花樣。畢竟,無論你是在駕馭混亂的衣櫃還是處理其他大型 AI 項目,總結和上下文管理的原則都是普遍適用的!

P.S. 我問 Pico Glitter 對這篇文章的看法。除了積極的情感外,當它說「我很好奇:你認為這種合作會走向何方?我們應該開始一個時尚帝國,還是也許一個 AI 高級定制服裝系列?只需說出你的話!」時,我不禁微笑。

1:自定義 GPT 使用的 GPT-4 的最大長度:https://support.netdocuments.com/s/article/Maximum-Length



新聞來源

本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!

Tags: Ai Assistantartificial intelligenceEditors PickFashionGPT-4GPT4使用進行個人造型
Previous Post

圖像標註,變壓器模式開啟

Next Post

Python 依賴管理綜合指南

Related Posts

劍橋大學和莫納什大學的研究人員推出 ReasonGraph:一個可視化和分析大型語言模型推理過程的網絡平台
機器學習與應用

劍橋大學和莫納什大學的研究人員推出 ReasonGraph:一個可視化和分析大型語言模型推理過程的網絡平台

2025-03-16
生成式人工智慧的影響及其對數據科學家的啟示
機器學習與應用

生成式人工智慧的影響及其對數據科學家的啟示

2025-03-15
這篇AI論文介紹了BD3-LMs:一種結合自回歸模型和擴散模型的混合方法,用於可擴展和高效的文本生成
機器學習與應用

這篇AI論文介紹了BD3-LMs:一種結合自回歸模型和擴散模型的混合方法,用於可擴展和高效的文本生成

2025-03-15
九個生鏽的Pico PIO瓦特(第二部分)
機器學習與應用

九個生鏽的Pico PIO瓦特(第二部分)

2025-03-15
開始使用 Amazon Bedrock Agents 的電腦操作
機器學習與應用

開始使用 Amazon Bedrock Agents 的電腦操作

2025-03-15
評估使用 Amazon Bedrock 知識庫的 RAG 應用程式
機器學習與應用

評估使用 Amazon Bedrock 知識庫的 RAG 應用程式

2025-03-14
Next Post
Python 依賴管理綜合指南

Python 依賴管理綜合指南

AMLabs與CuspAI的研究人員介紹了Erwin:一種基於樹的層次變壓器,用於大規模物理系統

AMLabs與CuspAI的研究人員介紹了Erwin:一種基於樹的層次變壓器,用於大規模物理系統

發佈留言 取消回覆

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Archives

  • 2025 年 6 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月
  • 2023 年 5 月
  • 2023 年 3 月
  • 2023 年 1 月
  • 2022 年 12 月
  • 2022 年 11 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 1 月
  • 2021 年 11 月
  • 2021 年 8 月
  • 2021 年 5 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月
  • 2020 年 10 月
  • 2020 年 9 月
  • 2019 年 7 月
  • 2018 年 11 月

Categories

  • AI 智慧產業
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • 安全
  • 機器人與自動化
  • 機器學習與應用
  • 神經連結和腦機接口
  • 自然語言處理
  • 道德與法規
Your Ad
  • 關於我們
  • 廣告合作
  • 免責聲明
  • 隱私權政策
  • DMCA
  • Cookie 隱私權政策
  • 條款與條件
  • 聯絡我們
AI TAIWAN

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • AI 綜合新聞
  • AI 自動化與 AI Agents
  • AI 智慧產業
  • 機器學習與應用
  • 自然語言處理
  • 神經連結和腦機接口
  • 機器人與自動化
  • 道德與法規
  • 安全

版權 © 2024 AI TAIWAN.
AI TAIWAN 對外部網站的內容不負任何責任。