Kürzlich beschwerte sich Jia Yangqing, der ehemalige Chef-KI-Wissenschaftler von Alibaba, dass ein neues inländisches Modell tatsächlich die LLaMA-Architektur nutzt und nur wenige Variablennamen im Code geändert hat, was zu hitzigen Diskussionen im Internet führte. Nachdem dem großen Modell vorgeworfen wurde, auf den Trainingsmodellprozess reagiert und ihn freigegeben zu haben, veröffentlichte Jia Yangqing kürzlich einen Artikel, in dem er darüber sprach, warum „magische Modifikation“ im Open-Source-Bereich unerwünscht ist.
Er sagte auch, dass vorübergehende magische Modifikationen zwar Freude bereiten, aber wenn man wirklich Erfolg in der Community haben möchte, muss man wirklich bereit sein, mit der Community zu spielen
Das obige ist der detaillierte Inhalt vonJia Yangqing, der ehemalige Chef-KI-Wissenschaftler von Alibaba, äußert sich erneut: „Magische Reformen' im Open-Source-Bereich sind nicht notwendig. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!