KI-Marketing-Beobachtung
《Speicher, die neue treibende Kraft für KI-Upgrades》
Im Zeitalter großer Modelle erfordert die Lagerung nicht nur große Mengen und hohe Qualität, sondern auch starke Leistung, gute Stabilität und Energieeinsparung. Bereitstellung von Speicherunterstützungsmaßnahmen für KI: Durch die Unterstützung aller Arten von Speicherprotokollen können wir die intelligente Anpassung und Fusion von Multiprotokolldaten in mehreren Szenarien realisieren. Durch die Realisierung des direkten Datenzugriffs durch Smart Chips können wir das Laden und Verarbeiten von Daten verbessern stellt während des Trainings die Geschwindigkeit ein. (Quelle: Offizieller WeChat-Account „Yuanchuan Technology Review“)
"Apples KI-Ambition: Interner Konflikt, Gegenangriff und Herausforderungen"
Nachdem Apple 2016 iOS 10 auf den Markt gebracht hatte, startete es einen neuen KI-Gegenangriff, der sich hauptsächlich in zwei Aspekten widerspiegelte: der vertikalen Integration und der Kombination von Software und Hardware. Apple hat in mehrere KI-Bereiche wie Spracherkennung, Gesichtserkennung usw. investiert und KI-Funktionen in seine Produkte und Dienstleistungen integriert. Maßnahmen: Es gilt, ein Gleichgewicht zwischen dem Schutz der Privatsphäre der Nutzer und der Verbesserung der Rechenleistung zu finden und gleichzeitig auf die Angriffe von Technologieriesen wie Google und Microsoft auf große KI-Modelle zu reagieren. (Quelle: öffentlicher WeChat-Account „Chuangye Bang“)
《RLHF erfordert keine menschliche Anmerkung mehr, Google schlägt eine KI-basierte Feedback-Generierung vor: Der Effekt ist vergleichbar mit menschlicher Anmerkung》
RLAIF ist eine KI-basierte Feedback-Generierungsmethode, die menschliches Feedback in RLHF ersetzen kann, sodass das Training großer Modelle nicht mehr menschlichen Einschränkungen unterliegt. RLAIF verwendet LLM, um Feedback-Daten zu generieren, und verwendet dann eine modifizierte Version des A2C-Algorithmus, um Verstärkungslernen durchzuführen und das Zielmodell zu trainieren. Die Leistung von RLAIF bei Textzusammenfassungsaufgaben ist mit der von RLHF vergleichbar und in einigen Details sogar besser. (Quelle: „Xi Xiaoyao Technology Talk“, offizieller WeChat-Account)
Beobachtung bei großer Modellanwendung
《Wie löst Baidu die Anwendungsangst großer Models? 》
Die große Modellindustrie sieht sich mit dem Mangel an Anwendungsebene und dem Verlust des Benutzerinteresses konfrontiert und muss von „Hänseleien“ zu Innovationen übergehen, die Leben und Arbeit wirklich verändern können. Baidu-Initiativen: Der Unternehmerwettbewerb „Wenxin Cup“ wurde abgehalten, um den teilnehmenden Teams die Wenxin Big Model API-Schnittstelle, Baidu Intelligent Cloud Computing-Ressourcen und Investitionsunterstützung zur Verfügung zu stellen. Das Wenxin Big Model wurde zur Rekonstruktion von Baidu Search und anderen Serien mit über 100 Millionen verwendet Benutzer. (Quelle: Offizieller WeChat-Account „Alphabet List“)
《Dialog Shen Dou: Es gibt heute viele große Models auf dem Markt, aber die meisten werden schnell verschwinden》Die große Modelbranche muss auf Innovationen umsteigen, die Leben und Arbeit verändern können, und Baidu durch Wen Xinyiyan- und Qianfan-Plattform, die sowohl die Anforderungen der C-Seite als auch der B-Seite erfüllt. Baidus Vorteile bei der Forschung und Entwicklung großer Modelltechnologie: Der Modelleffekt von Wenxin Large Model 3.5 wird um 50 % erhöht, die Trainingsgeschwindigkeit wird um das Zweifache erhöht und die Inferenzgeschwindigkeit wird um das 17-fache erhöht, was die Kosten erheblich senkt von Schlussfolgerungen und ermöglicht es Baidu, eine größere Anzahl von Benutzern zu bedienen. (Quelle: Offizieller WeChat-Account „Geek Park“)
《Baichuan Intelligent veröffentlicht Baichuan2, Wang Xiaochuan: Die Ära chinesischer Unternehmen, die LLaMA2 verwenden, ist vorbei|Jiazi Discovery》
Funktionen: Unterstützt Dutzende von Sprachen, darunter Chinesisch, Englisch, Spanisch und Französisch; wählt hochwertige vertikale Branchendaten auf der Grundlage von Billionen von Internetdaten aus und erstellt ein äußerst umfangreiches Content-Clustering-System, um Hunderte von Milliarden zu vervollständigen der stündlichen Datenbereinigung und -filterung; System zur Bewertung der Inhaltsqualität mit mehreren Granularitäten. Aussichten: Ein 100-Milliarden-Level-Parametermodell zum Benchmarking von GPT-3.5 wird im vierten Quartal dieses Jahres veröffentlicht, und eine Superanwendung wird voraussichtlich im ersten Quartal nächsten Jahres veröffentlicht. (Quelle: Öffentliches WeChat-Konto „Jiazi Discovery“) [Ende]
Das Bild stammt aus dem Internet und wurde wegen Rechtsverletzung gelöscht
Das obige ist der detaillierte Inhalt vonNeue Impulse für KI-Upgrades; Anwendungsangst vor großen Modellen, wie löst Baidu dieses Problem? Wang Xiaochuan veröffentlicht Open-Source-Großmodelle丨AI New Retail Morning News. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!