1. 模型微調:
為了找出何時需要從資料共用平台獲取最新資訊,Google 將 Gemma 模型進行了微調,使用了近 700 個統計數據查詢,這些查詢幫助標註答案中的數字或統計值。這樣可以幫助 LLM 模型決定何時需要生成自然語言查詢,作為呼叫資料共用平台的佔位符。這個新的微調模型 DataGemma 已經由 Google 發布到 Huggingface 平台,作為他們研究的一部分。
2. 查詢轉換:
當使用者提出查詢時,模型開始生成回應。如果模型發現需要從資料共用平台獲取額外數據,它會生成一個特定的自然語言查詢來檢索缺失的資訊。
例如,對於查詢「印度在 2024 年的 GDP 是多少?」模型會根據其內部數據開始生成回應。當它意識到需要最新的 GDP 數據時,它會生成查詢:「印度目前的 GDP 是 [DC(“印度在 2024 年的 GDP 是多少?”)]」。模型生成了一個佔位符(自然語言查詢),用來呼叫資料共用平台的 API 獲取即時資訊。
3. 即時數據轉換和結構化查詢形成:
一旦回應開始生成,模型會檢查是否有任何佔位符查詢顯示缺失資訊。如果它發現有缺失的資訊,它會提取相關屬性(例如 GDP 和 2024 年),並將查詢轉換為可以發送到資料共用平台 API 的結構化格式。
4. 生成最終回應:
當所有必要的數據從資料共用平台獲取後,模型會將這些即時數據整合到回應中。最終的答案是通過結合模型的原始輸出和檢索到的資訊來生成的。
新聞來源
本文由 AI 台灣 使用 AI 編撰,內容僅供參考,請自行進行事實查核。加入 AI TAIWAN Google News,隨時掌握最新 AI 資訊!