iFlytek wird am 30. Januar eine V3.5-Upgrade-Konferenz für das Spark Cognitive Large Model abhalten. Liu Qingfeng, Vorsitzender von iFlytek, und Liu Cong, Dekan des Forschungsinstituts, haben iFlytek Spark V3.5 offiziell auf der Grundlage des ersten landesweiten Trainings zur industriellen Rechenleistung veröffentlicht.
iFlytek gab bekannt, dass es am 24. Oktober 2023 die erste inländische Wanka-Rechenleistungsplattform „Feixing No. 1“ veröffentlichen wird, die das Training großer Modelle mit Billionen von Parametern unterstützt, und offiziell eingeführt wird. In den mehr als 90 Tagen seit seiner Einführung hat iFlytek Spark ein groß angelegtes Modelltraining mit größeren Parametern zum Benchmarking von GPT-4 auf Basis von „Flying Star One“ gestartet, was dazu führte, dass am 30. Januar das iFlytek Spark V3.5-Upgrade veröffentlicht wurde.
Basierend auf dem National Open Large Model Training hat das National Open Large Model Fire V3.5 umfassende Verbesserungen in sieben Aspekten erreicht: Sprachverständnis, Textgenerierung, Wissensfrage und -antwort, logisches Denken, mathematische Fähigkeiten, Codierungsfähigkeit und Multi- modale Fähigkeit. Unter ihnen übertreffen Sprachverständnis und Mathematikfähigkeiten GPT-4+Turbo, Code erreicht GPT-4+Turbo+96 % und multimodales Verständnis erreicht GPT-4V+91 %.
Derzeit hat iFlytek Spark führende Unternehmen in den Bereichen Versicherungen, Banken, Energie, Automobile, Kommunikation usw. durch die Zusammenarbeit mit China Pacific Insurance, durch die Zusammenarbeit mit Spark Pacific Insurance und durch den Spark Pacific Plan zur Stärkung interner Unternehmen gestärkt Wissensdienstleistungen, Büro und Wirtschaftsprüfung, Ausstellungsbranche usw., um einen Maßstab für die Anwendung digitaler Arbeitskräfte im Versicherungsbereich zu schaffen, bündeln Sie Ihre Kräfte mit der Bank of Communications, um Kundenservice, Ausstellungsbranche, Büro, Forschung und Entwicklung zu stärken; usw., wobei der Schwerpunkt auf der Schaffung eines Maßstabs für die Anwendung von Code-Fähigkeiten im Bankenbereich liegt; bündeln Sie Ihre Kräfte mit der National Energy Group, um die Kohle- und Elektrizitätswirtschaft, das Transportwesen, die chemische Industrie usw. zu stärken und einen großen Modellanwendungs-Benchmark für die zu schaffen integrierte Verknüpfung zentraler Unternehmensgruppen; gemeinsam mit der National Energy Group zur Stärkung der Kohle-, Elektrizitäts-, Transport-, Chemieindustrie usw., um einen großen Modellanwendungs-Benchmark für die integrierte Verknüpfung zentraler Unternehmensgruppen zu schaffen.
Darüber hinaus wurde zum ersten Mal das „iFlytek Spark Open Source Large Model“ veröffentlicht, das stark an die inländische Rechenleistung angepasst ist, mit führenden Szenenanwendungseffekten, und die Shengsi Open Source Community hat es zum ersten Mal gemeinsam gestartet.
Diese Open Source verfügt über 130 Millionen Parameter (13B), darunter das Basismodell iFlytekSpark-13B-base, das Feinabstimmungsmodell iFlytekSpark-13B-chat, das Feinabstimmungstool iFlytekSpark-13B-Lora und das Anpassungstool iFlytekSpark -13B-Charater. Akademische Unternehmensforschung kann ihre eigenen dedizierten großen Modelle auf der Grundlage der autonomen und steuerbaren Full-Stack-Optimierungssuite Spark bequemer trainieren.
Liu Qingfeng gab bekannt, dass das Open-Source-Großmodell Spark einen differenzierten Technologievorteil geschaffen hat. Spark Open Source-13B zählt zu den Besten in einer Reihe bekannter öffentlicher Bewertungsaufgaben wie Textgenerierung, Sprachverständnis, Textumschreibung, Branchen-Fragen und -Antworten, maschinelle Übersetzung usw., durch eingehende Forschung und Optimierung in Bereichen wie Lernunterstützung und Sprachverständnis. Die Leistung wurde erheblich verbessert und ist komfortabler bei der Verarbeitung komplexer Aufgaben in natürlicher Sprache.
Basierend auf dem „Flying Star One“-Training ist die inländische Full-Stack-Anpassung und -Optimierung des Spark-Open-Source-Großmodells einfach und benutzerfreundlich, mit führenden Szenenanwendungseffekten. Die Trainingsstrategie ist extrem für die Rechenleistung von Ascend optimiert und die Trainingseffizienz erreicht 90 % des A100. Dies ist nicht nur eine weitere tiefgreifende Optimierung der Ascend AI-Hardware, sondern zeigt auch die Entschlossenheit und Fähigkeit der heimischen Rechenleistung, mit dem internationalen Spitzenniveau gleichzuziehen.
Open Source kann die ökologische Zusammenarbeit nur dann besser verbessern, wenn mehr Szenarien umgesetzt werden. Derzeit hat die Huawei Shengsi Open Source Community offiziell die Spark Large Model Open Source Version-13B eingeführt, die für akademische und Unternehmensforschung völlig kostenlos ist und gleichzeitig die akademische Zusammenarbeit und industrielle Forschung fördert.
Mit Blick auf die Entwicklung des iFlytek Spark-Großmodells im Jahr 2024 wies Liu Qingfeng auf drei Punkte hin: „Erstens müssen wir die zugrunde liegenden Fähigkeiten des allgemeinen Großmodells weiterhin mit den fortschrittlichsten internationalen Niveaus vergleichen und Fortschritte erzielen.“ Algorithmenforschung einschließlich geringerer Rechenleistung. „Wir müssen einen klaren Kopf haben und die Lücke zwischen dem besten Niveau von GPT-4 in Bereichen wie schnellem Training für kleine Stichproben“ erkennen. Das modale Deep-Learning-Training und das ultrakomplexe Deep-Learning-Training von iFlytek Spark haben im ersten Halbjahr dieses Jahres das derzeit beste Niveau von GPT-4 erreicht. „Die heutigen allgemeinen großen Modelle stellen nicht unbedingt die gesamte Zukunft der künstlichen Intelligenz dar. Es gibt noch viel zu tun, wie z. B. die Interaktion der Gehirnwissenschaften, die tiefe Verbindung gegnerischer Netzwerke usw., die das gesamte innovative Ökosystem erfordern Wir müssen den Mut und die Erwartungen haben, an vorderster Front zu stehen“, betonte Liu Qingfeng.
„Zweitens müssen sich im Jahr 2024 die Qualität und Qualität großer Modelle wirklich verbessern, nicht nur bei Industrieanwendungen, sondern auch bei der Verknüpfung großer Modelle in vielen wichtigen technologischen Innovationen. Die chinesische Geschäfts- und Wissenschaftsgemeinschaft ist zuversichtlich, Transzendenz zu erreichen.“ „
“ Drittens müssen Hochhäuser auf sicheren und kontrollierbaren Plattformen gebaut werden, und wir müssen ökologischen Wohlstand auf unabhängigen und kontrollierbaren Plattformen erreichen.“ Liu Qingfeng sagte, er sei zuversichtlich, dass er die Konstruktion von Algorithmen, Daten, Anwendungsszenarien und Rechenleistung. Ein florierendes Ökosystem für künstliche Intelligenz, das völlig autonom und kontrollierbar ist.
Das obige ist der detaillierte Inhalt voniFlytek Spark V3.5 wird offiziell veröffentlicht und basiert auf der Schulung der nationalen Rechenleistungsplattform „Flying Star One'.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!