- 方向:
- 全部 網路3.0 後端開發 web前端 資料庫 運維 開發工具 php框架 每日程式設計 微信小程式 常見問題 其他 科技 CMS教程 Java 系統教程 電腦教學 硬體教學 手機教學 軟體教學 手遊教學
- 分類:
-
- 從Claude 3中提取數百萬特徵,首次詳細理解大模型的「思維」
- 剛剛,Anthropic宣佈在理解人工智慧模型內部運作機制方面取得重大進展。 Anthropic已經確認瞭如何在ClaudeSonnet中表示徵函數百萬個概念。這是對現代生產級大型語言模型的首次詳細理解。這種可解釋性將幫助我們提高人工智慧模型的安全性,具有里程碑意義。研究論文:https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html目前,我們通常將人工智慧模型視為一個黑盒子:有東西進去就會有回應出來,但不清楚為
- 人工智慧 776 2024-06-07 13:37:45
-
- 研究人員使用機器學習優化高功率雷射實驗
- 高強度和高重複的雷射能快速連續每秒發射多次強大的光。商業聚變能源工廠和先進的燃料型輻射源都依賴這種雷射。然而,人類的反應時間不足以管理這種速射系統,應用面臨挑戰。為了應對這項挑戰,科學家正在尋找不同的方法來利用自動化和人工智慧的力量,這些技術具有高強度操作的即時監控能力。美國勞倫斯利弗莫爾國家實驗室(LLNL)、弗勞恩霍夫雷射技術研究所(ILT)和極光基礎設施(ELIERIC)的一組研究人員正在捷克進行一項實驗,利用機器學習(ML)優化高功率雷射。他們的目標是提高雷射的效率,以便更好地應
- 人工智慧 739 2024-06-07 13:03:20
-
- 超越Devin,姚班帶隊OpenCSG創造大模型程式設計新世界紀錄
- 來自中國大型模型新創公司OpenCSG推出的StarShipCodeGenAgent,透過創新使得普林斯WEBench(大型模型真實獨立程式設計評測)排行榜,取得了全球第二名的成績。同時創造了一個基於GPT-4o模型的最高紀錄(SOTA)。 (字數:37)SWEBench評測高度貼近真實程式設計場景,難度極高,不僅要求模型能理解需求、協調多個函數/類別之間的變更,還要求模型與執行環境交互,處理超長上下文並執行遠超傳統程式碼產生任務的複雜邏輯推理。在這種高難度的真實測試中,業界中最先進的GPT4和Devin,也
- 人工智慧 808 2024-06-07 12:36:29
-
- Yolov10:詳解、部署、應用一站式齊全!
- 一、前言在过去的几年里,YOLOs由于其在计算成本和检测性能之间的有效平衡,已成为实时目标检测领域的主导范式。研究人员探索了YOLO的架构设计、优化目标、数据扩充策略等,取得了显著进展。同时,依赖非极大值抑制(NMS)进行后处理阻碍了YOLO的端到端部署,并对推理延迟产生不利影响。在YOLOs中,各种组件的设计缺乏全面彻底的检查,导致显著的计算冗余,限制了模型的能力。它提供了次优的效率,以及相对大的性能改进潜力。在这项工作中,目标是从后处理和模型架构两个方面进一步提高YOLO的性能效率边界。为此
- 人工智慧 1238 2024-06-07 12:05:27
-
- 首個GPU高階語言,大規模並行就像寫Python,已獲8500 Star
- 經過近10年的不懈努力,對電腦科學核心的深入研究,人們終於實現了一個夢想:在GPU上運行高階語言。上週末,一種名為Bend的程式語言在開源社群引發了熱烈的討論,GitHub的Star量已經超過了8500。 GitHub:https://github.com/HigherOrderCO/Bend作為一種大規模並行的高階程式語言,它仍處於研究階段,但提出的思路已經讓人們感到非常驚訝。使用Bend,你可以為多核心CPU/GPU編寫並行程式碼,而無需成為具有10年經驗的C/CUDA專家,感覺就像Python
- 人工智慧 1222 2024-06-07 12:03:58
-
- 部署基於記憶體儲存的 Elasticsearch - 一億+條數據,全文檢索 100ms 回應
- 1.在主機上掛載記憶體儲存目錄建立目錄用於掛載mkdir/mnt/memory_storage掛載tmpfs檔案系統mount-ttmpfs-osize=800Gtmpfs/mnt/memory_storage儲存空間會按需使用,也就是使用100G儲存時才會佔用100G記憶體。主機節點上有2T內存,這裡分配800G內存用於儲存Elasticsearch資料。事先建立好目錄mkdir/mnt/memory_storage/elasticsearch-data-es-jfs-prod-es-defaul
- 人工智慧 641 2024-06-07 11:11:48
-
- Karpathy新教學爆火,網友搶著送他H100:從頭重現GPT-2訓練
- 大神Karpathy已經不滿足於用C語言造Llama了!他給自己的最新挑戰:復現OpenAI經典成果,從基礎版GPT-2開始。挑戰成功本身並不意外,但只花20美元、90分鐘完成訓練,Loss和評測還超越原版,就!有!點!過!分!了! 。不僅如此,他把復現過程寫成了完整教程,果不其然再次火爆。由於Karpathy自己租的是A100雲端服務,訓練124M版本花費20了美元。不過有人照教學用H100跑了一把,不只訓練時間更短,還更省錢了:43分鐘完成,只花14美元。另外Karpathy還自掏腰包2
- 人工智慧 615 2024-06-07 10:29:25
-
- 七個很酷的GenAI & LLM技術性面試問題
- 想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本
- 人工智慧 947 2024-06-07 10:06:29
-
- 在OpenHarmony本地部署大語言模型
- 本文將第二屆OpenHarmony技術大會上展示的《在OpenHarmony本地部署大語言模型》成果開源,開源位址:https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty/InferLLM/docs/ hap_integrate.md。實作思路與步驟移植輕量級LLM模型推理架構InferLLM到OpenHarmony標準系統,編譯出能在OpenHarmony運作的二進位產物。 InferLLM是個簡單又有效率的L
- 人工智慧 1227 2024-06-07 10:02:23
-
- 聚焦創新 英特爾推出至強 ®品牌新策略
- 品牌是企業使命和發展的象徵,也承載著產品特質和市場認可。今天,在英特爾GTC科技體驗中心的英特爾®至強®6能源效率核心處理器發表會上,英特爾公司全球副總裁兼首席行銷長BrettHannath宣布推出全新的英特爾®至強®品牌。 BrettHannath表示,新的英特爾®至強®品牌策略將專注於創新,以更簡潔的命名和更深刻的意義來賦予產品品牌屬性,提升至強品牌在市場中的認知度。透過融合創新技術、以高性能、高效能、高品質和高安全特性,為產業夥伴和使用者創造全新的體驗。自1998年推出以來,英特爾®至強®品牌
- 人工智慧 1059 2024-06-07 09:29:48
-
- 高亮反光終結者? GoogleNeRF-Casting:光線追蹤就能搞定!
- NeRF不再「畏懼」近處高光反射早期的NeRF變體使用多層感知器(MLPs)從三維座標映射到體積密度和視點相關的顏色,但是表示詳細的三維幾何和顏色所需的大型MLPs訓練和評估速度極慢。最近的工作專注於透過類似體素網格的資料結構或網格和小型MLPs的組合取代大型MLPs,使NeRF更有效率。雖然可以擴展到表示詳細的大規模場景,但其優勢僅限於三維幾何和主要的漫反射顏色。擴展NeRF建模現實的視點相關外觀的能力仍然是一個挑戰。目前先進的用於閃亮物體視圖合成的模型在兩個方面存在限制:只能合成遠處環境光
- 人工智慧 1310 2024-06-07 09:27:53
-
- LLM | Yuan 2.0-M32:注意力路由的專家混合模型
- 圖片一、結論寫在前面Yuan+2.0-M32是一種基礎架構,與Yuan-2.0+2B相似,採用了一個包含32位專家的專家混合架構。其中2位專家處於活躍狀態。提出並採用了一個包含32位專家的專家混合架構,以更有效率地選擇專家,相比採用經典路由網路的模型,其準確率提升了3.8%。 Yuan+2.0-M32從零開始訓練,使用了2000B的token,其訓練消耗僅為同等參數規模密集集合模型的9.25%。為了更好地選擇專家,引入了注意力路由器,該路由器具有快速感知的能力,從而更好地選擇專家。 Yuan2.0-
- 人工智慧 706 2024-06-07 09:06:30
-
- 從80個模型中建構Scaling Law:華人博士生新作,思維鏈提出者力薦
- 在AI領域,擴展定律(Scalinglaws)是理解LM擴展趨勢的強大工具,其為廣大研究者提供了一個準則,該定律在理解語言模型的性能如何隨規模變化提供了一個重要指導。但不幸的是,擴展分析在許多基準測試和後訓練研究中並不常見,因為大多數研究人員沒有計算資源來從頭開始建立擴展法則,開放模型的訓練尺度太少,無法進行可靠的擴展預測。來自史丹佛大學、多倫多大學等機構的研究者提出了一種替代觀察:可觀察的擴展定律(ObservationalScalingLaws),其將語言模型(LM)的功能與跨多個模型
- 人工智慧 667 2024-06-06 20:40:36
-
- 重塑生成式 AI 時代的雲端「建構」體驗
- 生成式AI時代下的雲端運算產業變革在全面加速,新的雲端上建構的時間已經到來,作為一位開發者,如何才能游刃有餘地應技術革新?如何快速抓住新科技機會快速上手成長?加入開發者開發者必去的2024年亞馬遜雲科技中國高峰會,可以幫您答疑解惑並獲得回報!亞馬遜雲端科技正在雲端重塑生成式AI時代的開發、維運、優化等一棧式建構體驗,本次峰會我們將為您帶來全新開發者生成式AI探索之旅,囊括沉浸式明星產品體驗、動手特訓打榜與巔峰挑戰、技能認證與免費學習、技術前瞻分享、全球社群領袖對話、開發者創意市集等,幫助開發者享受無限
- 人工智慧 908 2024-06-06 18:48:01
-
- 人類偏好就是尺! SPPO對齊技術讓大語言模型左右互搏、自我博弈
- AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.comRichardSutton在「TheBitterLesson」中做過這樣的評價:「從70年的人工智慧研究中可以得出的最重要教訓是,那些利用計算的通用方法最終是最有效的,而且優勢
- 人工智慧 689 2024-06-06 18:32:31