主要是資料傳輸,造成很大比例的能源消耗。對於人工智慧演算法處理的海量資料來說更是如此。
省略這一步,也被認為是記憶體和邏輯流程之間的瓶頸,因此影響巨大。這正是 2003 年明尼蘇達大學當時提出的想法發揮作用的地方。
這促成了從物理學到工程學和計算機科學等眾多學科之間的合作。其結果是形成了當今智慧手錶和儲存元件中使用的許多電路。
還涉及計算隨機存取記憶體(CRAM)。這允許直接在主記憶體及其中的任何位置實際計算和執行並行進程。
此外,這些不是傳統電路,而是可以使用電子自旋而不是電荷在0和1之間切換。
在基於人工智慧的應用中,這會導致功耗千分之一,才能最終達到與經典方法相同的結果。全球神經網路當前和預測的電力消耗表明了這一電量有多巨大。根據國際能源總署的數據,2022 年使用了 460 太瓦時。最遲到 2026 年,預計將達到 1,000 太瓦時。
由於節省了 99.9% 的巨大潛力,這將留下 999 太瓦時不再需要。這相當於擁有 1.26 億居民的第四大經濟體日本的年用電量。
根據該論文,這甚至不是最好的結果。進一步的測試可以將能耗降低 1,700 或 2,500 倍。透過將 CRAM 有針對性地適應各個演算法,可以進一步提高效率,計算速度更快,因此更經濟。
以上是20年前的創意讓AI效率提升1000倍的詳細內容。更多資訊請關注PHP中文網其他相關文章!