首頁 > 科技週邊 > 人工智慧 > 通過大型語言模型來解釋新聞建議

通過大型語言模型來解釋新聞建議

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
發布: 2025-02-25 19:56:14
原創
117 人瀏覽過

Spiegel der Spiegel使用大型語言模型(LLM)探索以改善新聞文章的建議。 離線實驗評估了LLM根據閱讀歷史預測讀者興趣的能力。

方法論:

讀者調查數據提供了偏好的基礎真實。 使用了每個參與者的閱讀歷史記錄和文章興趣評分。 Anthropic的Claude 3.5 Sonnet LLM充當推薦引擎,收到了每個讀者的歷史記錄(標題和摘要),以預測新文章的興趣(得分為0-1000)。 JSON輸出格式確保結構化結果。 將LLM的預測與實際的調查等級進行了比較。

中可用詳細的方法。

>
脫機評估新聞推薦系統的混合方法

>

鍵調查結果:

取得了令人印象深刻的結果。 Precision@5達到56% - 推薦5篇文章時,將近3篇是用戶最高評級的文章。 對於24%的用戶,正確預測了4個或5個頂級文章;對於另外41%,5分中有3個是正確的。 這顯著優於隨機建議(38.8%),基於受歡迎程度的建議(42.1%)和以前的基於嵌入的方法(45.4%)。 圖表說明了LLM方法的性能在其他方法上的性能。

第二個度量標準達到0.41,大大超過了基於嵌入的方法(0.17),這表明對偏好強度的理解超過了。

>

Making News Recommendations Explainable with Large Language Models

Making News Recommendations Explainable with Large Language Models解釋性:

LLM的解釋性是關鍵優勢。 一個示例說明了系統如何分析閱讀模式並證明建議:

這種透明度增強了信任和個性化。

挑戰和未來方向:
<code>User has 221 articles in reading history

Top 5 Predicted by Claude:
... (List of articles with scores and actual ratings)

Claude's Analysis:
... (Analysis of reading patterns and scoring rationale)</code>
登入後複製

>高API成本(每位用戶$ 0.21)和處理速度(每個用戶幾秒鐘)構成可伸縮性挑戰。 探索開源模型和及時工程可以減輕這些模型。 合併其他數據(閱讀時間,文章的受歡迎程度)可以進一步提高性能。

結論:

> LLM的強大預測能力和解釋性使它們對於新聞推薦很有價值。 除了建議之外,他們還提供了分析用戶行為和內容旅行的新方法,實現了個性化的摘要和見解。

確認

這項研究利用了匿名,匯總的用戶數據。 歡迎通過LinkedIn進行進一步的討論。

>參考

[1] Dairui,Liu&Yang,Boming&Du,Honghui&Greene,Derek&Hurley,Neil&Lawlor,Aonghus&Dong,Ruihai&Li,Ruihai&Li,Irene。 (2024)。 Recprompt:使用大語言模型的新聞推薦提示框架的自我調整框架。

以上是通過大型語言模型來解釋新聞建議的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板