- 方向:
- 全部 網路3.0 後端開發 web前端 資料庫 運維 開發工具 php框架 每日程式設計 微信小程式 常見問題 其他 科技 CMS教程 Java 系統教程 電腦教學 硬體教學 手機教學 軟體教學 手遊教學
- 分類:
-
- 一文讀 GPT-4o vs GPT-4 Turbo
- Hellofolks,我是Luga,今天我們來聊聊人工智慧(AI)生態領域相關的技術-GPT-4o模型。在2024年5月13日,OpenAI創新地推出了其最先進、最前沿的模型GPT-4o,這是標誌著人工智慧聊天機器人和大型語言模型領域實現重大突破的舉措。預示著人工智慧能力的新時代,GPT-4o擁有顯著的效能增強,在速度和多功能性方面都超越了其前身GPT-4。這項突破性的進步解決了經常困擾其前身的延遲問題,確保了無縫且響應迅速的用戶體驗。什麼是GPT-4o?2024年5月13日,OpenAI發
- 人工智慧 855 2024-06-02 16:02:40
-
- 自動駕駛第一性之純視覺靜態重建
- 純視覺的標註方案,主要利用視覺加上一些GPS、IMU和輪速感測器的資料進行動態標註。當然面向量產場景的話,不一定要純視覺,有些量產的車輛裡面,會有像固態雷達(AT128)這樣的感測器。如果從量產的角度做資料閉環,把這些感測器都用上,可以有效解決動態物體的標註問題。但是我們的方案裡面,是沒有固態雷達的。所以,我們就介紹這個最通用的量產標註方案。純視覺的標註方案的核心在於高精度的pose重建。我們採用StructurefromMotion(SFM)的pose重建方案,來確保重建精確度。但是傳
- 人工智慧 1013 2024-06-02 15:24:40
-
- 思維鏈不存在了?紐約大學最新研究:推理步驟可省略
- 紅極一時的思維鏈技術,可能要被推翻了!還在驚訝於大模型居然能夠利用思維鏈分步驟思考?還在苦於不會寫思考鏈提示詞?來自紐約大學的研究人員表示:「沒關係的,都一樣」,推理步驟不重要,不想寫提示詞也可以不寫,用省略號代替就行了。論文地址:https://arxiv.org/pdf/2404.15758這篇文章的標題甚至直接用「Let’sthinkdotbydot」,來對標思維鏈的「Let’sthinkstepbystep」,展現了「省略號」的威力。 「點點點」的威力研究人員發現,把思維鏈(Chain-o
- 人工智慧 498 2024-06-02 15:21:41
-
- 微軟發布Copilot智能體 也帶來了本機小語言模型
- 2022年5月22日消息,當地時間週二,微軟在Build開發者大會上發布了Copilot新智能體,它就像虛擬員工一樣,能自動執行任務。微軟認為,這種人工智慧將消除枯燥乏味的工作內容,而不是完全取代員工工作。微軟的Copilot是基於開源程式碼模型GPT-3開發的,它使用了大量的程式碼庫和演算法,以幫助開發人員更有效率地編寫程式碼。 Copilot能夠分析上下文並產生與之匹配的程式碼片段,從而大大加快了開發的速度和品質。然而,Copilot的功能仍然有限,並不能完全取代人工智慧。它通常除此外,微軟還針對Copi
- 人工智慧 484 2024-06-02 14:56:12
-
- 為什麼人工智慧可以為數學帶來革命性變化
- 編輯|白菜葉「提出一個猜想——一個被懷疑為真的命題,但需要明確的證明——對數學家來說就像是神聖靈感的時刻。數學猜想不僅僅是有根據的猜測。制定它們需要天才、直覺和經驗的結合。長ThomasFink說。 2017年,倫敦數學科學研究所的研究人員開始將機器學習應用於數學數據,作為一種嗜好。在COVID-19大流行期間,他們發現簡單的人工智慧(AI
- 人工智慧 709 2024-06-02 14:47:39
-
- 自動駕駛場景中的長尾問題怎麼解決?
- 昨天面試被問到了是否做過長尾相關的問題,所以就想著簡單總結一下。自動駕駛長尾問題是指自動駕駛汽車中的邊緣情況,即發生機率較低的可能場景。感知的長尾問題是目前限制單車智慧自動駕駛車輛運行設計域的主要原因之一。自動駕駛的底層架構和大部分技術問題已經解決,剩下的5%的長尾問題,逐漸成了限制自動駕駛發展的關鍵。這些問題包括各種零碎的場景、極端的情況和無法預測的人類行為。自動駕駛中的邊緣場景"長尾"是指自動駕駛汽車(AV)中的邊緣情況,邊緣情況是發生機率較低的可能場景。這些罕見的事件
- 人工智慧 1644 2024-06-02 14:44:00
-
- IBM向開源社群發布Granite AI模型
- IBM研究院最近宣布對其Granite編碼基礎模型開源,目標是實現高階AI工具大眾化,進而推動跨產業程式碼編寫、維護與開發方式的全面變革。此舉將使開發者能夠更有效率地創建、優化和部署AI模型,從而加速人工智慧技術的應用。 Granite是IBM研究院開發的先進的AI程式設計工具,具備強大的功能。它基於開放標IBM的Granite編碼模型是什麼水準?Granite源自IBM簡化編碼流程的勃勃雄心。在意識到軟體開發中所固有的複雜性與快速開發需求之後,IBM利用其強大的科學研究能力建構起一套AI驅動工具,旨在
- 人工智慧 868 2024-06-02 13:46:40
-
- 眾包新玩法! LLM競技場誕生基準測試,嚴格分離學渣學霸
- 大模型排行榜哪一家強?還看LLM競技場~截至此刻,已有共90名LLM加入戰鬥,用戶總投票數超過了77萬。圖片然而,在網友們吃瓜調侃新模型衝榜、舊模型喪失尊嚴的同時,人家競技場背後的組織LMSYS,已經悄悄完成了成果轉化:從實戰中誕生的最有說服力的基準測試—— Arena-Hard。圖片而Arena-Hard所展現的四項優勢,也正是目前的LLM基準測試最需要的:-可分離性(87.4%)明顯優於MT-bench(22.6%);-與ChatbotArena的排名最相近,達89.1%;-運行速度快,價
- 人工智慧 464 2024-06-02 13:21:08
-
- 2500頁演算法文檔外洩!搜尋史上最強黑箱曝光,Google翻車再升級?
- 撰稿丨諾亞出品|51CTO技術棧(微訊號:blog51cto)Google有點流年不利。在過去兩天裡,搜尋引擎提供了關於「AI摘要(AIOverviews)」功能經常提供嚴重錯誤的搜尋結果信息,例如,荒唐地建議用戶用膠水來防止披薩上的起司滑落。對此,CEO皮查伊也不得不不承認這是大語言模型的幻覺所致,目前還沒有解決方案。最近有Google搜尋引擎的一份內部文件洩露,可能首次向公眾展示了谷歌搜尋引擎的運作機制。此文首次發佈於本文,Google尚未就洩漏事件做出官方回應,也沒有對文件的真實性提出異議。長期以來,谷歌作為當
- 人工智慧 837 2024-06-02 12:21:35
-
- 鵝廠造了個AI翻譯公司:專攻網路小說,自動適配語言風格,真人和GPT-4看了都說好
- 鵝廠搞了個150多人的“翻譯公司”,從老闆到員工都是AI智能體!主營事業是翻譯網路小說,品質極高,參與評價的讀者認為比真人翻譯得還要好。而且相較於僱用真人,用它來翻譯文學作品,成本降低了近80倍。 ATransAgents公司,每個職位都配備了30個不同的職工,能夠根據語言、體裁和目標受眾適配不同的翻譯風格。相較於傳統的翻譯,產出的譯本更加靈活多樣,也更符合目標語言的表達習慣,文學性也更強。所以,TransAgents雖然在以相似度為基礎的自動評估中“失敗”,卻贏得了讀者和專業人士的大力肯定。這樣
- 人工智慧 531 2024-06-02 12:09:21
-
- AI編碼,真需求還是噱頭?
- 來賓|徐曉強訪談|張曉楠撰稿|李美涵出品|51CTO技術棧(微訊號:blog51cto)自從生成式AI大火以後,AI好像「槓上了」程式設計師這個角色。幾乎每隔一段時間,關於AI程式設計工具是否能取代程式設計師的話題就會被再次討論。 AI程式設計所激起的熱議,令人感到困惑:這是否會掀起一場程式設計領域的生產力革命?還是,這又是一場過度炒作的噱頭?由於AI編程,百度實現了10%的人效提升,今天工程師提交的新增程式碼中有27%由AI產生。這個答案的先驅是大廠在探索這個答案。然而,身為百度Comate架構師,也是這款產品的
- 人工智慧 1174 2024-06-02 10:15:47
-
- 適應多形態多任務,最強開源機器人學習系統「八爪魚」誕生
- 在機器人學習方面,常用方法是收集針對特定機器人和任務的資料集,然後用其來訓練策略。但是,如果使用這種方法來從頭開始學習,每個任務都需要收集足夠數據,並且所得策略的泛化能力通常也不佳。 「原理上講,從其他機器人和任務收集的經驗能提供可能的解決方案,能讓模型看到多種多樣的機器人控制問題,而這些問題也許能提升機器人在下游任務上的泛化能力和性能。
- 人工智慧 905 2024-06-02 10:04:53
-
- 為何說小語言模式是AI界的下一大熱門?
- 譯者|布加迪審校|重樓在AI領域,科技巨頭們一直在競相建構越來越龐大的語言模型,如今出現了一個令人驚訝的新趨勢:小就是大。隨著大語言模型(LLM)方面的進展出現了停滯的跡象,研究人員和開發人員日益開始將注意力轉向小語言模型(SLM)。這個緊湊、高效、適應性強的AI模型正在挑戰「越大越好」這個觀念,有望改變我們對待AI開發的方式。 LLM是否開始停滯? Vellum和HuggingFace最近發布的效能比較結果表明,LLM之間的效能差距正在迅速縮小。這個趨勢在多項選擇題、推理和數學問題等特定任務中反映得
- 人工智慧 1221 2024-06-01 22:35:35
-
- 數據更多更好還是品質更高更好?這項研究能幫你做出選擇
- 對基礎模型進行scaling是指使用更多資料、計算和參數進行預先訓練,簡單來說就是「規模擴展」。雖然直接擴展模型規模看起來簡單粗暴,但也確實為機器學習社群帶來了不少表現突出的模型。先前不少研究都認可擴大神經經濟模型規模的做法,所謂量變引起質變,這種觀點也被稱為神經擴展律(neuralscalinglaws)。然而,隨著模型規模的增加,帶來的是計算資源的密集消耗。這意味著更大規模的模型需要更多的運算資源,包括處理器和記憶體。這對於許多實際應用來說是不可行的,尤其是在資源有限的設備上。因此,研究人員開始
- 人工智慧 1242 2024-06-01 22:09:19
-
- 替代MLP的KAN,被開源專案擴展到卷積了
- 本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具
- 人工智慧 1228 2024-06-01 22:03:37