- 方向:
- 全部 網路3.0 後端開發 web前端 資料庫 運維 開發工具 php框架 每日程式設計 微信小程式 常見問題 其他 科技 CMS教程 Java 系統教程 電腦教學 硬體教學 手機教學 軟體教學 手遊教學
- 分類:
-
- 微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺
- 大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合
- 人工智慧 1152 2024-06-11 15:57:20
-
- 揭秘100年全球海洋脫氧,上交大透過人工智慧重建「窒息的海洋」,ICML已收錄
- 作者|卢彬,韩璐羽海洋溶解氧是维持海洋生态系统功能的关键因素。随着全球变暖和人类活动的影响,近年来海洋呈现脱氧趋势,日渐窒息的海洋对渔业发展、气候调节等多方面造成严重后果。最近,上海交通大学电子信息与电气工程学院王新兵、甘小莺教授团队联合上海交通大学海洋学院张经院士、周磊教授、周韫韬副教授,共同提出了一种稀疏海洋观测数据驱动的深度学习模型OxyGenerator。首次对1920年至2023年全球百年海域溶解氧数据进行重建,重建性能显著超过了专家经验主导的CMIP6系列数值模式结果。研究成果《Ox
- 人工智慧 384 2024-06-11 12:04:58
-
- 智慧建築:基於YOLOv7的建築外牆缺陷檢測
- 01前景概要目前的基於深度學習的方法在識別速度和模型複雜性方面面臨一些挑戰。為了確保建築外牆缺陷偵測的準確性和速度,我們研究了一種改良的YOLOv7方法,名為BFD-YOLO。首先,將YOLOv7中原有的ELAN模組替換為輕量級的MobileOne模組,以減少參數數量並提高推理速度。其次,在模型中加入了座標注意力模組,增強了特徵提取能力。接下來,使用SCYLLA-IoU來加快偵測速度並增加模型的召回率。最後,我們擴展了開放資料集,建立了一個包括三個典型缺陷的建築立面損傷資料集。 BFD-YOLO是基於
- 人工智慧 551 2024-06-11 12:01:31
-
- GPT-4o與SQL:大模型改變自身架構的能力有多強?
- 作者丨DavidEastman編譯丨諾亞出品|51CTO技術堆疊(微訊號:blog51cto)儘管沒有任何大型語言模型(LLM)駕駛過自行車,但它們顯然理解駕駛行為在人類交通領域中的作用。它們類似於軟體開發者提供的是一種類似語義的現實世界知識,結合了對技術世界的理解。我們在最近的一篇文章中清楚地看到了這一點,僅透過用自然語言描述,我們就能夠產生一個簡單的圖書出版SQL架構。儘管我對Llama3創建架構的效能感到滿意,但在我之前在Oracle工作期間的一位同事指出,圖書出版架構是一個相當為人所知的例
- 人工智慧 1184 2024-06-11 09:56:49
-
- 快手版Sora「可靈」開放測試:生成超120s視頻,更懂物理,複雜運動也能精準建模
- 什麼?瘋狂動物城被國產AI搬進現實了?與影片一同曝光的,是一款名為「可靈」全新國產影片生成大模型。 Sora利用了相似的技術路線,結合多項自研技術創新,生產的影片不僅運動幅度大且合理,還能模擬物理世界特性,具備強大的概念組合能力與想像。數據上看,可靈支持生成長達2分鐘的30fps的超長視頻,分辨率高達1080p,且支援多種寬高比。另外再劃個重點,可靈不是實驗室放出的Demo或影片結果演示,而是短影片領域頭部玩家快手推出的產品級應用。而且主打一個務實,不開空頭支票、發布即上線,可靈大模型已在快影
- 人工智慧 909 2024-06-11 09:51:48
-
- 谷歌搜尋演算法內幕被扒,2500頁鉅細文件實名洩密!搜尋排名謊言被揭穿
- 日前,Google2500頁的內部文件被洩露,揭示了搜尋——「網路最強大的仲裁者」的運作方式。 SparkToro的聯合創始人兼CEO是一位匿名人士,他在個人網站上發表博客文章,宣稱“一位匿名人士與我分享了數千頁洩露的谷歌搜索API文檔,SEO中的每個人都應該看到它們!既然在這個領域德高望重,RandFishkin
- 人工智慧 1087 2024-06-11 09:14:23
-
- AI預測極端天氣提速5000倍!微軟發表Aurora,借AI之眼預測全球風暴
- 個人類有歷史以來,就一直執著於預測天氣,以各種方式破解“天空之語”,我們慢慢發現,草木、雲層似乎與天氣有關,這不僅是因為人類從事生產的需要,也是人類想要對著強風歌唱、在月光下吟詩的需要。 《冰與火之歌》中的風雨歌師,就是透過歌聲和吟唱來預測天氣和風暴,人們也會幻想擁有「改變天氣」的超能力。最近,天氣專家和氣象預報已經讓我們開始終於還是不能脫離具身體驗和物理世界,但現在,AI讓情況起了變化。微調內容:微軟發布首個大規模大氣基礎模式Aurora,能夠從數據中學習並做出預測,展現了驚人的準確率和效率
- 人工智慧 883 2024-06-11 09:07:29
-
- 李彥宏歐洲談AI:比起GPT-5,我更有興趣超級應用
- 中固AI與西方的最大差別是應用。中國有數百個基礎模型,但人們越來越多在討論什麼是AI時代的超級應用。應用正在驅動中的AI的快速發展。應用領域的進步可以推動基礎模型的創新,也有助於加速從網路時代到人工智慧時代的轉變。 「歐洲AI春晚」主論壇現場,李彥宏最新亮相,作為大會唯一受邀中國企業家,再一次為中國AI「代言」。這場正在法國巴黎舉辦的大會全名為「歐洲科技創新展」(VivaTechnology),是歐洲規模最大的科技盛會之一。李彥宏之外,今年參與的演講嘉賓包括馬斯克、圖靈獎得主YoshuaBe
- 人工智慧 606 2024-06-10 22:55:23
-
- 多功能RNA分析,百度團隊以Transformer的RNA語言模式登Nature子刊
- 編輯|蘿蔔芯預訓練語言模型在分析核苷酸序列方面顯示出了良好的前景,但使用單一預訓練權重集在不同任務中表現出色的多功能模型仍然存在挑戰。百度大數據實驗室(BigDataLab,BDL)和上海交通大學團隊開發了RNAErnie,一個基於Transformer架構,以RNA為中心的預訓練模型。研究人員用七個資料集和五個任務評估了模型,證明了RNAErnie在監督和無監督學習方面的優越性。 RNAErnie超越了基線,分類準確率提高了1.8%,交互預測準確率提高了2.2%,結構預測F1得分提高了3.3%,
- 人工智慧 679 2024-06-10 22:21:12
-
- 通透!如何選擇合適的機器學習演算法
- 演算法選擇注意事項為任務選擇正確的機器學習演算法涉及多種因素,每個因素都會對最終決策產生重大影響。以下是決策過程中需要牢記的幾個面向:1.資料集的大小和品質:機器學習演算法對輸入資料的要求各不相同。某些演算法適用於小型資料集,而其他演算法適用於大型資料集。此外,資料的準確性、完整性和代表性也1.資料集特徵資料集的特徵對於演算法的選擇至關重要。資料集的大小、包含的資料元素的類型、資料是結構化的還是非結構化的等因素都是關鍵因素。想像一下將結構化資料的演算法應用於非結構化資料問題。你可能不會走太遠!大型資料集需要
- 人工智慧 893 2024-06-10 22:18:30
-
- 利用 NVIDIA Riva 快速部署企業級中文語音 AI 服務並進行優化加速
- 一、Riva概覽1.OverviewRiva是NVIDIA推出的一款SDK,用於即時的SpeechAI服務。它是一個高度可自訂的工具,並且使用GPU進行加速。 NGC上提供了許多預先訓練好的模型,這些模型開箱即用,可以直接使用Riva提供的ASR和TTS解決方案進行部署。為了滿足特定領域的需求或進行客製化功能的開發,使用者也可以使用NeMo對這些模型進行重新訓練或微調。從而進一步提升模型的效能,使其更適應使用者的需求。 Riva+Skills是一種高度可客製化的工具,它利用GPU加速即時串流的語音識別
- 人工智慧 1167 2024-06-10 21:57:48
-
- 超強!必會的十大機器學習演算法
- 1.線性迴歸線性迴歸是用於預測建模的最簡單且使用最廣泛的機器學習演算法之一。它是一種監督學習演算法,用於根據一個或多個自變數預測因變數的值。定義線性迴歸的核心是根據觀察到的資料擬合線性模型。線性模型由以下方程式表示:其中是因變數(我們想要預測的變數)是自變數(我們用來進行預測的變數)是直線的斜率是y軸截距(直線與y軸的交點)線性迴歸演算法涉及查找到通過數據點的最佳擬合線。這通常是透過最小化觀測值和預測值之間的平方差來完成的。評估指標均方誤差(MSE):測量誤差平方的平均值。值越低越好。 R平方:表示可以根
- 人工智慧 1011 2024-06-10 21:53:52
-
- AI在用 | 用Kimi寫「發瘋」文案,篇篇10萬+
- 機器之能報道編輯:文華以大模型、AIGC為代表的人工智慧浪潮已經在悄悄改變我們生活及工作方式,但絕大部分人依然不知道該如何使用。因此,我們推出了「AI在用」專欄,透過直覺、有趣且簡潔的人工智慧使用案例,來具體介紹AI使用方法,並激發大家思考。我們也歡迎讀者投稿親自實踐的創新用例。這年頭,為了搶流量,大家焦慮到頭禿。今天就來安麗一個搞流量的門道:用AI寫「發癲」文案公眾號,篇篇搞到10萬+。這類文案公眾號均有套路可循:1.一個有趣的標題2.一些看起來有大病的文案3.幾幅或治愈或搞笑的配圖這用A
- 人工智慧 1161 2024-06-10 21:22:30
-
- 除了RAG,還有這五種方法消除大模型幻覺
- 出品|51CTO技術棧(微訊號:blog51cto)眾所周知,LLM會產生幻覺-即產生不正確、誤導性或無意義的訊息。有趣的是,有些人,如OpenAI的CEOSamAltman,將AI的想像視為創造力,而有些人則認為想像可能有助於做出新的科學發現。然而,在大多數情況下,提供正確答案至關重要,幻覺並不是特性,而是一種缺陷。那麼,如何減少LLM的幻覺呢?長上下文? RAG?微調?其實,長上下文LLMs並非萬無一失,向量搜尋RAG也不盡人意,而微調則伴隨著自身的挑戰與限制。下面是一些可以用來
- 人工智慧 1540 2024-06-10 20:25:51
-
- ICML2024高分!魔改注意力,讓小模型能打出兩倍大的模型
- 改進Transformer核心機制注意力,讓小模型能打出兩倍大的模型! ICML+2024高分論文,彩雲科技團隊建構DCFormer框架,取代Transformer核心組件注意力模組(MHA),提出可動態組合的多頭注意力(DCMHA)。 DCMHA解除了MHA注意力頭的查找選擇迴路和變換迴路的固定綁定,讓它們可以根據輸入動態組合,從根本上提升了模型的表達能力。原文意思是,每層都有固定的H個注意力頭,現在用幾乎理解為,原來每層都有固定的H個注意力頭,現在用幾乎相同的參數量和計算力,可以動態組合出多至Hx
- 人工智慧 906 2024-06-10 20:18:19