100% 的準確性並不是一切:幫助使用者導航文件才是真正的價值
所以,你正在建立一個 RAG 系統或使用 LLM 與文件聊天。但使用者經常會問:我們怎麼能相信這些答案呢?
此外,我們經常聽到「幻覺」的問題,這會削弱使用者的信任。
如果我們建立了一個應用程式,但沒有向使用者展示答案的來源,那麼這個應用程式在某些情況下可能會變得無法使用。
在這篇文章中,我將分享一種解決這個問題的方法。通過將 LLM 生成的每個答案與文件中的原始文本連結,我們可以建立透明度和信任。這種方法不僅提供了答案的明確證據,還允許使用者直接在 PDF 中驗證結果。
有時,生成的答案可能不完全準確,但能夠找到正確的來源文本對使用者來說已經很有幫助了。
讓我們以 arxiv.org 的一篇論文為例。我們可以想像這樣的使用情境:
這種方法的第一步是從 PDF 中提取結構化的文本。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!