- 方向:
- 全部 網路3.0 後端開發 web前端 資料庫 運維 開發工具 php框架 每日程式設計 微信小程式 常見問題 其他 科技 CMS教程 Java 系統教程 電腦教學 硬體教學 手機教學 軟體教學 手遊教學
- 分類:
-
- ICML 2024 AI for Math Workshop 徵稿與挑戰賽啟動!
- ICML2024,AIforMathWorkshop以形式化和自然語言AI數學推理為導向的研討會時間:2024年7月26/27日地點:奧地利,維也納。現場、線上同步舉行。研討會首頁:https://sites.google.com/view/ai4mathworkshopicml2024/數學推理是人類智慧中最具挑戰性和最深刻的部分。人類在數學推理的發展過程中總結了各種形式化語言,得以嚴格地描述數學問題和證明過程。而近年來的機器學習演算法和大規模語言模型正逐步接近甚至超越人類在一些數學推理的表現
- 人工智慧 650 2024-07-18 05:36:50
-
- Meta開發System 2蒸餾技術,Llama 2對話模型任務準確率接近100%
- 研究者表示,如果Sytem2蒸餾可以成為未來持續學習AI系統的重要特徵,則可以進一步提升System2表現較不好的推理任務的表現。談到大語言模型(LLM)的策略,一般來說有兩種,一種是即時的System1(快速反應),另一種是System2(慢速思考)。其中System2推理傾向於深思熟慮的思維,產生中間思維允許模型(或人類)進行推理和規劃,以便成功完成任務或回應指令。在System2推理中,需要付出努力的心理活動,尤其是在System1(更自動化思考)可能出錯的情況下。因此,System1被
- 人工智慧 921 2024-07-18 05:07:20
-
- 直擊真實的甲方AGI需求,人工智慧賦能產業融通發展論壇順利召開
- 7月6日,「2024WAIC人工智慧賦能產業融通發展論壇」在世博展覽館隆重舉行。本次論壇主要議題為探討人工智慧賦能新型工業化、促進產業融通發展的相關議題,包括領導致辭、簽約儀式、主題演講、央國企人工智慧場景需求發布和圓桌論壇等多個環節。許多來自央國企機構和人工智慧領域的企業參與,包括中國電子資訊產業發展研究院、中國移動研究院、中國石化勝利油田、國家電網客服中心、中電昱創、南方電網數位電網集團、達摩院、百度智慧雲端、創新奇智等。出席嘉賓圍繞著人工智慧在不同領域的應用實踐、大模型的發展與應用、智慧化維
- 人工智慧 492 2024-07-18 03:14:57
-
- 趕時髦的 AIGC 行銷人,如何實現「裡子」與「面子」的雙贏?
- AIGC技術在行銷領域的創新與安全過去一年,AI技術在各行各業掀起了一場變革狂潮。向來「趕時髦」的行銷圈,更是率先擁抱AIGC技術。相關數據顯示,2023年,我國已有近半數廣告主企業在線上行銷活動中應用AIGC技術,其中超過90%的應用聚焦於內容創作與創意開發。這種由科技驅動的廣告行銷新模式正在逐漸成型,為廣告主降本增效帶來更多可能。然而,AIGC技術在行銷領域大施拳腳的同時,也伴隨著許多挑戰。例如,AIGC技術在產生行銷素材時可能會產生內容風險,重金投入的行銷活動一不小心為黑產做了嫁衣。那麼,
- 人工智慧 786 2024-07-18 01:41:21
-
- ICML 2024 | 梯度檢查點太慢?不降速、省顯存,LowMemoryBP大幅提升反向傳播顯存效率
- AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文論文一作是南開大學統計與資料科學學院研二碩士生楊雨辰,指導老師為南開大學統計與資料科學學院的徐君副教授。徐君老師團隊的研究重點是電腦視覺、生成式AI和高效機器學習,並在頂
- 人工智慧 679 2024-07-18 01:39:51
-
- WAIC 2024 具身智能合輯|頂級大咖薈萃、全品類成果展出:具身智慧科技革新開啟AI機器人新時代
- 具身智慧:智慧機器人的新時代具身智慧產業代表了人工智慧和機器人兩大尖端技術的深度融合與發展,使機器人透過感知、認知與行動的協同,實現與環境的自然互動。具身的興起,意味著人工智慧正從單一資訊處理走向更複雜的多維場景的領域,開啟智慧系統與人類社會深度融合新時代。具身智慧的關鍵問題、應用情境與前沿成果2024世界人工智慧大會暨人工智慧全球治理高階會議(以下簡稱「WAIC2024」)將深度聚焦具身智慧發展動態,以重磅論壇和豐富的智慧機器人創新成果展品,管窺具身智能產業巨大發展潛力,共繪智慧機器人時代
- 人工智慧 588 2024-07-18 00:17:51
-
- 這些功能使 ChatGPT 桌面應用程式比網站更好
- 借助適用於 macOS 的 ChatGPT 應用程序,您現在可以從 Mac 上的任何視窗啟動 ChatGPT 並使用語音模式。 OpenAI 還在應用程式中添加了一些網站上未提供的媒體附件選項,例如螢幕截圖和訪問
- 人工智慧 1166 2024-07-17 22:50:21
-
- 登頂開源AI軟體工程師榜首,UIUC無Agent方案輕鬆解決SWE-bench真實程式設計問題
- AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com這篇論文的作者皆來自伊利諾大學香檳分校(UIUC)張令明老師團隊,包括:StevenXia,四年級博士生,研究方向是基於AI大模型的自動代碼修復;鄧茵琳,四年級博士生,研究方
- 人工智慧 1000 2024-07-17 22:02:05
-
- SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息
- 編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S
- 人工智慧 1081 2024-07-17 18:37:10
-
- 多模態遙感大模型的探索與實踐,螞蟻集團遙感大模型負責人王劍帶來深度解讀
- 7月5日,在世界人工智慧大會組委會辦公室、上海市徐匯區人民政府指導下,由上海人工智慧實驗室、本站、全球大學人工智慧學術聯盟主辦的2024WAIC雲帆獎暨人工智慧青年論壇成功舉辦。論壇匯聚來自史丹佛大學、牛津大學、UCLA、加州大學、蘇黎世聯邦理工學院、香港大學、清華大學、北京大學、上海交通大學等海內外高校、研究機構及企業的30餘位往屆及新晉雲帆獎得主線下參會,凝聚國際青年AI科學家的智慧,積極探索AI能力邊界,為中國AI發展藍圖貢獻新生力量。螞蟻集團遙感大模型負責人王劍作作為2024WAIC雲帆
- 人工智慧 676 2024-07-17 18:03:14
-
- 夸克升級「超級搜尋框」 推出AI搜尋為中心的一站式AI服務
- 大模型時代,生成式AI如何革新搜尋產品?阿里智能資訊事業群旗下夸克「舉手答題」。 7月10日,夸克升級“超級搜尋框”,推出以AI搜尋為中心的一站式AI服務,為用戶提供從檢索、創作、總結,到編輯、儲存、分享的一體化資訊服務價值。全新AI搜尋一框實現回答、創作、總結過往,搜尋引擎依據關鍵字,提供網站清單排序。重複挑選、點擊、閱讀,以及大量不相關結果,成為用戶高效獲取資訊的攔路虎,複雜問題也很難得到滿意的回答。 AI技術躍遷點燃了搜尋的價值煥新。用戶開啟夸克7.0版搜
- 人工智慧 537 2024-07-17 17:43:33
-
- 每位學生必備的人工智慧工具和技巧
- 學生可以透過多種智慧方式使用人工智慧來提高他們的學習和工作效率。目前,學生可以使用大量人工智慧工具,包括記筆記、輔導等等。但哪些人工智慧工具最適合學生呢?
- 人工智慧 1134 2024-07-17 16:49:04
-
- 徹底改變語言模型:全新架構TTT超越Transformer,ML模型取代RNN隱藏狀態
- 從125M到1.3B的大模型,效能都有提升。難以置信,這件事終於發生了。全新的大語言模型(LLM)架構可望取代至今在AI領域如日中天的Transformer,效能也比Mamba更好。本週一,有關Test-TimeTraining(TTT)的論文成為了人工智慧社群熱議的話題。論文連結:https://arxiv.org/abs/2407.04620研究的作者來自史丹佛大學、加州大學柏克萊分校、加州大學聖迭戈分校和Meta。他們設計了一種新架構TTT,用機器學習模型取代了RNN的隱藏狀態。該模
- 人工智慧 526 2024-07-17 16:08:17
-
- 單一作者論文,Google提出百萬專家Mixture,超越密集前饋、稀疏MoE
- 釋放進一步擴展Transformer的潛力,同時還可以保持運算效率。標準Transformer架構中的前饋(FFW)層會隨著隱藏層寬度的增加而導致運算成本和啟動記憶體的線性增加。在大語言模型(LLM)體量不斷增大的現在,稀疏混合專家(MoE)架構已成為解決此問題的可行方法,它將模型大小與計算成本分開。許多新興的MoE模型都可以實現相同體積之上,更好的性能與更強大的表現。最近發現的細粒度MoE擴展定律表明,更高的粒度可帶來更好的性能。然而由於計算和最佳化方面的挑戰,現有的MoE模型僅限於低數量專家
- 人工智慧 571 2024-07-17 14:34:17
-
- 公理訓練讓LLM學會因果推理:6700萬參數模型比肩萬億參數級GPT-4
- 把因果鏈展示給LLM,它就能學會公理。 AI已經在幫助數學家和科學家做研究了,例如著名數學家陶哲軒就曾多次分享自己借助GPT等AI工具研究探索的經驗。 AI要在這些領域大戰拳腳,強大可靠的因果推理能力是不可或缺的。本文要介紹的研究發現:在小圖譜的因果傳遞性公理演示上訓練的Transformer模型可以泛化用於大圖譜的傳遞性公理。也就是說,如果讓Transformer學會執行簡單的因果推理,就可能用於更複雜的因果推理。該團隊提出的公理訓練框架是一種基於被動資料來學習因果推理的新範式,只有演示
- 人工智慧 1219 2024-07-17 10:14:38