Vermutungen zu acht technischen Problemen von ChatGPT

王林
Freigeben: 2023-04-11 16:46:03
nach vorne
805 Leute haben es durchsucht

Als ich die großartige Geburt von ChatGPT sah, verspüre ich gemischte Gefühle, darunter Freude, Überraschung und Panik. Was mich glücklich und überrascht macht, ist, dass ich nicht erwartet hatte, so schnell einen großen Durchbruch in der Technologie der Verarbeitung natürlicher Sprache (NLP) zu erleben und den unendlichen Charme der allgemeinen Technologie zu erleben. Das Beängstigende ist, dass ChatGPT die meisten NLP-Aufgaben fast mit hoher Qualität erledigen kann, und es wird allmählich klar, dass viele NLP-Forschungsrichtungen auf große Herausforderungen stoßen.

Das Erstaunlichste an ChatGPT ist insgesamt seine Vielseitigkeit. Im Vergleich zu GPT-3, das sehr aufwändige Eingabeaufforderungen erfordert, um verschiedene NLP-Funktionen zu erreichen, ist ChatGPT den Benutzern nicht zu spüren.

Als Dialogsystem ermöglicht ChatGPT den Benutzern, auf natürliche Weise Fragen zu stellen, um verschiedene Aufgaben vom Verständnis bis zur Generierung zu erfüllen. Die Leistung hat in offenen Bereichen fast das derzeit beste Niveau erreicht, und viele Aufgaben übertreffen die für bestimmte Aufgaben konzipierten Modelle und zeichnen sich durch Code-Programmierung aus.

Insbesondere die Fähigkeiten zum Verstehen natürlicher Sprache (insbesondere die Fähigkeit, Benutzerabsichten zu verstehen) sind sehr wichtig, egal ob es sich um Fragen und Antworten, Chat, Klassifizierung, Zusammenfassung, Übersetzung und andere Aufgaben handelt, auch wenn die Antworten möglicherweise nicht vollständig korrekt sind. Benutzer können sie fast immer verstehen. Absicht, Verständnis übertrifft die Erwartungen bei weitem.

Im Vergleich zur Verständnisfähigkeit ist die Generierungsfähigkeit von ChatGPT leistungsfähiger und kann lange Texte mit einer gewissen Logik und Vielfalt für verschiedene Fragen generieren. Im Allgemeinen ist ChatGPT erstaunlicher und stellt die Vorstufe zu AGI dar. Es wird leistungsfähiger, nachdem einige technische Engpässe behoben wurden.

Es gibt bereits viele Zusammenfassungen von ChatGPT-Leistungsfällen. Hier fasse ich hauptsächlich einige meiner Gedanken zu technischen Problemen mit ChatGPT zusammen. Es kann als einfache Zusammenfassung von mehr als zwei Monaten intermittierender Interaktion mit ChatGPT angesehen werden. Da wir die spezifische Implementierungstechnologie und die Details von ChatGPT nicht verstehen können, handelt es sich fast ausschließlich um subjektive Vermutungen. Es müssen viele Fehler vorliegen, die wir gemeinsam besprechen können.

1. Warum ist ChatGPT so vielseitig?

Solange wir ChatGPT verwendet haben, werden wir feststellen, dass es sich nicht um ein Mensch-Computer-Dialogsystem im herkömmlichen Sinne handelt, sondern tatsächlich um eine allgemeine Sprachverarbeitungsplattform, die natürliche Sprache als Interaktionsmethode verwendet.

Obwohl GPT-3 im Jahr 2020 über den Prototyp allgemeiner Funktionen verfügt, erfordert es sorgfältig gestaltete Eingabeaufforderungen, um entsprechende Funktionen auszulösen. ChatGPT ermöglicht es Benutzern, Absichten genau zu identifizieren und verschiedene Funktionen mithilfe sehr natürlicher Fragen auszuführen. Herkömmliche Methoden identifizieren häufig zuerst die Absichten des Benutzers und rufen dann Verarbeitungsmodule mit entsprechenden Funktionen für verschiedene Absichten auf. Beispielsweise werden Zusammenfassungs- oder Übersetzungsabsichten anhand von Benutzerdaten identifiziert und dann Textzusammenfassungs- oder maschinelle Übersetzungsmodelle aufgerufen.

Die Genauigkeit herkömmlicher Methoden zur Erkennung offener Domänenabsichten ist nicht optimal genug, und verschiedene Funktionsmodule arbeiten unabhängig voneinander und können keine Informationen austauschen, was es schwierig macht, eine leistungsstarke universelle NLP-Plattform zu bilden. ChatGPT durchbricht das separate Modell und unterscheidet nicht mehr zwischen verschiedenen Funktionen. Es wird als spezifisches Bedürfnis im Konversationsprozess vereinheitlicht. Warum ist ChatGPT so vielseitig? Ich habe lange über dieses Problem nachgedacht, da es keine bedingte experimentelle Bestätigung gibt, kann ich nur Vermutungen anstellen.

Laut der Instruction Tuning-Forschungsarbeit FLAN von Google entsteht das Modell mit der Fähigkeit, neue Absichten zu erkennen, wenn das Modell eine bestimmte Größe (z. B. 68B) und die Arten von Instruction-Aufgaben eine bestimmte Anzahl (z. B. 40) erreicht. OpenAI sammelt Dialogdaten verschiedener Aufgabentypen von globalen Benutzern über seine offene API, klassifiziert und kommentiert sie entsprechend der Absicht und führt dann auf natürliche Weise eine Befehlsoptimierung für den 175B-Parameter GPT-3.5 durch.

2. Warum leidet die gesprächsorientierte Feinabstimmung nicht unter dem katastrophalen Vergessensproblem?

Das katastrophale Vergessensproblem war schon immer eine Herausforderung beim Deep Learning. Es wird oft durch den Leistungsverlust bei anderen Aufgaben nach dem Training einer bestimmten Aufgabe verursacht. Wenn beispielsweise ein Basismodell mit 3 Milliarden Parametern zunächst auf automatische Frage- und Antwortdaten und dann auf mehrere Runden von Dialogdaten abgestimmt wird, wird festgestellt, dass die Frage- und Antwortfähigkeit des Modells erheblich gesunken ist. ChatGPT scheint dieses Problem nicht zu haben. Es wurden zwei Feinabstimmungen am Basismodell GPT-3.5 vorgenommen. Die erste Feinabstimmung basierte auf manuell kommentierten Konversationsdaten und die zweite Feinabstimmung basierte auf verstärktem Lernen Die für die Feinabstimmung verwendeten Daten sind sehr gering, insbesondere die Bewertungs- und Rangfolgedaten von Menschen sind gering. Nach der Feinabstimmung sind sie jedoch nicht vollständig auf die Konversation abgestimmt Aufgabe.

Dies ist ein sehr interessantes Phänomen, und es ist auch ein Phänomen, für dessen Überprüfung wir keine Bedingungen haben. Es gibt möglicherweise zwei Gründe für Spekulationen. Einerseits können die von ChatGPT verwendeten Dialog-Feinabstimmungsdaten tatsächlich ein sehr umfassendes Spektrum an NLP-Aufgaben umfassen. Wie aus der Klassifizierung von Benutzerfragen mithilfe der API in InstructGPT hervorgeht, gibt es viele Davon handelt es sich nicht um einfache Gespräche, sondern auch um Klassifizierung, Frage und Antwort, Zusammenfassung, Übersetzung, Codegenerierung usw. Daher optimiert ChatGPT tatsächlich mehrere Aufgaben gleichzeitig, wenn das Grundmodell vorhanden ist Wenn die Daten groß genug sind, hat die Feinabstimmung kleinerer Daten keine großen Auswirkungen auf das Modell und kann nur in einer sehr kleinen Nachbarschaft des Parameterraums des Basismodells optimiert werden, sodass die allgemeinen Fähigkeiten des Basismodells nicht wesentlich beeinträchtigt werden.

3. Wie wird die umfassende kontextbezogene kontinuierliche Dialogfähigkeit von ChatGPT erreicht?

Wenn Sie ChatGPT verwenden, werden Sie eine sehr überraschende Fähigkeit feststellen. Selbst nach mehr als zehn Runden Interaktion mit ChatGPT merkt es sich immer noch die erste Informationsrunde und kann dies auch tun Benutzer Ziel ist es, feinkörnige Sprachphänomene wie Auslassungen und Verweise genauer zu identifizieren. Für uns Menschen scheinen dies keine Probleme zu sein, aber in der Geschichte der NLP-Forschung waren Probleme wie Auslassung und Verweis schon immer eine unüberwindbare Herausforderung. Darüber hinaus ist es in traditionellen Dialogsystemen nach zu vielen Dialogrunden schwierig, die Konsistenz der Themen sicherzustellen.

Allerdings hat ChatGPT dieses Problem fast nicht und es scheint, dass es die Konsistenz und den Fokus des Gesprächsthemas auch bei mehreren Runden aufrechterhalten kann. Es wird spekuliert, dass diese Fähigkeit aus drei Quellen stammen könnte. Erstens sind hochwertige Multi-Turn-Dialogdaten die Grundlage und der Schlüssel. Genau wie Googles LaMDA verwendet auch OpenAI manuelle Annotationen, um darüber hinaus eine große Menge hochwertiger Multi-Turn-Dialogdaten zu erstellen wird die Multi-Turn-Dialogfähigkeiten des Modells stimulieren.

Zweitens verbessert verstärkendes Lernen auf der Grundlage menschlichen Feedbacks den Anthropomorphismus der Antworten des Modells, was indirekt auch die Konsistenzfähigkeit des Modells in mehreren Dialogrunden verbessert. Schließlich ermöglicht die explizite Modellierungsfähigkeit des Modells von 8192 Spracheinheiten (Tokens), sich die Konversationsdaten normaler Menschen fast eines ganzen Tages zu merken. Daher ist es schwierig, diese Länge bei einem Konversationsaustausch zu überschreiten. Dies kann die Fähigkeit, mehrere aufeinanderfolgende Gesprächsrunden zu führen, erheblich verbessern.

4. Wie wird die interaktive Korrekturfunktion von ChatGPT entwickelt?

Interaktive Korrekturfähigkeit ist eine fortgeschrittene Manifestation der Intelligenz. Dinge, die für uns alltäglich sind, sind die Schwachstellen von Maschinen. Wenn während des Kommunikationsprozesses auf ein Problem hingewiesen wird, erkennen wir das Problem sofort und korrigieren die relevanten Informationen umgehend und genau. Für eine Maschine ist es nicht einfach, das Problem zu erkennen, den Umfang des Problems zu erkennen und die entsprechenden Informationen bei jedem Schritt zu korrigieren. Vor dem Aufkommen von ChatGPT hatten wir kein allgemeines Modell mit starken interaktiven Korrekturfunktionen gesehen.

Nach der Interaktion mit ChatGPT werden Sie feststellen, dass ChatGPT die Änderungsabsicht erfassen und genau identifizieren kann, unabhängig davon, ob der Benutzer seine vorherige Aussage ändert oder auf Probleme in der Antwort von ChatGPT hinweist die Teile, die geändert werden müssen, und können schließlich die richtigen Korrekturen vornehmen.

Bisher wurden keine modellbezogenen Faktoren gefunden, die in direktem Zusammenhang mit der interaktiven Korrekturfähigkeit stehen, und wir glauben nicht, dass ChatGPT die Fähigkeit zum Lernen besitzt Einerseits hat ChatGPT die Konversation neu gestartet. Andererseits ist es beim Optimierungslernen immer noch schwierig, häufige Muster aus Hochfrequenzdaten zusammenzufassen Aktualisieren Sie das Grundmodell trotzdem in einem Gespräch.

Ich glaube, dass es sich eher um eine historische Informationsverarbeitungstechnik des grundlegenden Sprachmodells handelt:

  1. Die künstlich erstellten Dialogdaten von OpenAI enthalten einige interaktive Korrekturfälle und verfügen nach der Feinabstimmung über solche Fähigkeiten Durch das Lernen mit künstlichem Feedback stimmt die Modellausgabe besser mit den menschlichen Vorlieben überein und verhält sich daher in Gesprächen wie der Informationskorrektur eher in Übereinstimmung mit den menschlichen Korrekturabsichten. Nach einem bestimmten Maßstab (z. B. 60B) sind die interaktiven Korrekturfälle in den ursprünglichen Trainingsdaten gelernt, und die Fähigkeit zur modellinteraktiven Korrektur entsteht auf natürliche Weise.
  2. 5 Wie hat ChatGPT seine logischen Denkfähigkeiten erlernt?
  3. Wenn wir ChatGPT einige Fragen zum logischen Denken stellen, gibt es keine direkten Antworten, sondern zeigt detaillierte Schritte des logischen Denkens und schließlich die Ergebnisse des Denkens. Obwohl viele Fälle wie Hühner und Kaninchen im selben Käfig zeigen, dass ChatGPT nicht die Essenz des Denkens, sondern nur die oberflächliche Logik des Denkens gelernt hat, sind die angezeigten Argumentationsschritte und der angezeigte Rahmen grundsätzlich korrekt.
Ein Sprachmodell, das grundlegende logische Denkmuster erlernen kann, hat die Erwartungen weit übertroffen. Die Nachvollziehbarkeit seiner Denkfähigkeit ist ein sehr interessantes Thema. Relevante Vergleichsstudien haben ergeben, dass, wenn das Modell groß genug ist und der Programmcode und die Textdaten für das Training gemischt werden, die gesamte logische Kette des Programmcodes auf das große Sprachmodell migriert und verallgemeinert wird, sodass das große Modell über bestimmte Funktionen verfügt Argumentationsfähigkeiten.

Der Erwerb dieser Art von Denkfähigkeit ist ein bisschen magisch, aber es ist auch verständlich. Vielleicht sind Codekommentare die Brücke für die Übertragung und Verallgemeinerung der Denkfähigkeit Logischer Code zum großen Sprachmodell. Die Mehrsprachigkeit sollte ähnlich sein. Die meisten Trainingsdaten von ChatGPT liegen auf Englisch vor, und auf Chinesisch entfallen nur sehr wenige. Wir haben jedoch festgestellt, dass die chinesischen Fähigkeiten von ChatGPT zwar nicht so gut sind wie die auf Englisch, aber dennoch sehr leistungsstark. Einige parallele Chinesisch-Englisch-Daten in den Trainingsdaten können eine Brücke für die Übertragung von Englischkenntnissen auf Chinesischkenntnisse sein.

6. Verwendet ChatGPT unterschiedliche Dekodierungsstrategien für verschiedene nachgelagerte Aufgaben?

ChatGPT bietet viele erstaunliche Leistungen. Eine davon ist, dass es mehrere unterschiedliche Antworten auf dieselbe Frage generieren kann, was sehr intelligent aussieht.

Wenn wir beispielsweise mit der Antwort von ChatGPT nicht zufrieden sind, können wir auf die Schaltfläche „Neu generieren“ klicken und es wird sofort eine weitere Antwort generiert , wir können es weiterhin regenerieren lassen. Dies ist im Bereich des NLP kein Geheimnis, es handelt sich um eine grundlegende Fähigkeit, nämlich die Sampling-Dekodierung.

Auf ein Textfragment können verschiedene Wörter folgen, wenn die Dekodierungsstrategie das Wort mit der höchsten Wahrscheinlichkeit auswählt Ausgabe, dann jedes Wenn alle Ergebnisse sicher sind, ist es unmöglich, eine Diversity-Antwort zu generieren. Wenn die Stichprobe beispielsweise gemäß der Wahrscheinlichkeitsverteilung der Vokabularausgabe durchgeführt wird, beträgt die Wahrscheinlichkeit für „Strategie“ 0,5 und die Wahrscheinlichkeit für „Algorithmus“ 0,3, dann beträgt die Wahrscheinlichkeit für die Stichprobendekodierung der Ausgabe „Strategie“ 50 % Die Ausgabewahrscheinlichkeit des „Algorithmus“ beträgt 30 %, wodurch die Vielfalt der Ausgabe sichergestellt wird. Da der Stichprobenprozess gemäß der Wahrscheinlichkeitsverteilung durchgeführt wird, wird jedes Mal das Ergebnis mit einer höheren Wahrscheinlichkeit ausgewählt, selbst wenn die Ausgabeergebnisse unterschiedlich sind, sodass die verschiedenen Ergebnisse relativ vernünftig aussehen. Beim Vergleich verschiedener Aufgabentypen werden wir feststellen, dass die Antwortvielfalt von ChatGPT für verschiedene nachgelagerte Aufgaben stark variiert.

Wenn es um Aufgaben vom Typ „Wie“ und „Warum“ wie „Wie“ und „Warum“ geht, unterscheidet sich die neu generierte Antwort inhaltlich von der vorherigen Antwort Der Inhalt ist sehr unterschiedlich, wenn es um „Was“-Aufgaben wie maschinelle Übersetzung und mathematische Textaufgaben geht. Die Unterschiede zwischen den verschiedenen Antworten sind sehr subtil und manchmal gibt es fast keine Veränderung. Wenn sie alle auf der Stichprobenentschlüsselung von Wahrscheinlichkeitsverteilungen basieren, warum sind die Unterschiede zwischen verschiedenen Antworten dann so gering?

Schätze, eine ideale Situation könnte darin bestehen, dass die Wahrscheinlichkeitsverteilung, die durch das aufgabenbasierte große Modell vom Typ „Was“ gelernt wird, sehr scharf (Sharp) ist, wie z. B. die gelernte „Strategie“. Die Wahrscheinlichkeit beträgt 0,8 und die Wahrscheinlichkeit des „Algorithmus“ beträgt 0,1, sodass in den meisten Fällen dasselbe Ergebnis abgetastet wird, d " Aufgabenbasiertes Lernen großer Modelle Die erhaltene Wahrscheinlichkeitsverteilung ist relativ glatt (glatt). Beispielsweise beträgt die Wahrscheinlichkeit von „Strategie“ 0,4 und die Wahrscheinlichkeit von „Algorithmus“ 0,3, sodass unterschiedliche Ergebnisse zu unterschiedlichen Zeiten abgetastet werden können.

Wenn ChatGPT eine sehr ideale Wahrscheinlichkeitsverteilung in Bezug auf die Aufgabe lernen kann, ist es wirklich leistungsstark. Die auf Stichproben basierende Dekodierungsstrategie kann auf alle Aufgaben angewendet werden. Normalerweise wird bei Aufgaben wie maschineller Übersetzung, mathematischen Berechnungen, sachlichen Fragen und Antworten usw., bei denen die Antworten relativ sicher oder zu 100 % sicher sind, im Allgemeinen eine gierige Dekodierung verwendet, dh jedes Mal wird das Wort mit der höchsten Wahrscheinlichkeit ausgegeben . Wenn Sie unterschiedliche Ausgaben mit derselben Semantik ausgeben möchten, werden meist spaltensuchbasierte Dekodierungsmethoden verwendet, aber stichprobenbasierte Dekodierungsstrategien werden selten verwendet.

Aus der Interaktion mit ChatGPT geht hervor, dass für alle Aufgaben eine auf Stichproben basierende Dekodierungsmethode verwendet wird, was eine wirklich gewalttätige Ästhetik darstellt.

7. Kann ChatGPT das Problem der sachlichen Zuverlässigkeit lösen?

Die mangelnde Verlässlichkeit der Antworten ist derzeit die größte Herausforderung für ChatGPT. Insbesondere bei Fragen und Antworten, die sich auf Fakten und Wissen beziehen, erfindet ChatGPT manchmal Unsinn und generiert falsche Informationen. Selbst wenn ChatGPT nach Quellen und Referenzen gefragt wird, generiert es oft eine nicht vorhandene URL oder ein Dokument, das nie veröffentlicht wurde.

ChatGPT gibt den Benutzern jedoch normalerweise ein besseres Gefühl, das heißt, es scheint viele Fakten und Kenntnisse zu kennen. Tatsächlich ist ChatGPT ein großes Sprachmodell. Das Wesentliche eines tiefen neuronalen Netzwerks ist ein statistisches Modell, das darin besteht, relevante Muster aus Hochfrequenzdaten zu lernen. Viele allgemeine Kenntnisse oder Fakten tauchen häufig in den Trainingsdaten auf. Die vorhergesagten Wahrscheinlichkeitsverteilungen von Wörtern sind relativ scharf und die Entropie ist relativ klein . Tatsache oder Wissen.

Es gibt jedoch viele Ereignisse und Kenntnisse, die selbst in sehr großen Trainingsdaten selten vorkommen, und große Modelle können relevante Muster und Muster zwischen Kontexten nicht lernen Die Wahrscheinlichkeitsverteilung der Wortvorhersage ist relativ glatt und die Entropie ist relativ groß. Große Modelle neigen dazu, während des Argumentationsprozesses unsichere Zufallsergebnisse zu erzeugen.

Dies ist ein inhärentes Problem bei allen generativen Modellen, einschließlich ChatGPT. Wenn die Architektur der GPT-Serie weiterhin fortgeführt wird und das Grundmodell nicht geändert wird, ist es theoretisch schwierig, das Problem der faktischen Zuverlässigkeit von ChatGPT-Antworten zu lösen. Die Kombination mit Suchmaschinen ist derzeit eine sehr pragmatische Lösung. Suchmaschinen sind für die Suche nach zuverlässigen Quellen sachlicher Informationen verantwortlich, und ChatGPT ist für das Zusammenfassen und Zusammenfassen verantwortlich.

Wenn Sie möchten, dass ChatGPT das Problem der Zuverlässigkeit sachlicher Antworten löst, müssen Sie möglicherweise die Ablehnungsfähigkeit des Modells weiter verbessern, d. h. die Fragen herausfiltern, die die Es wird festgestellt, dass das Modell nicht antworten kann. Gleichzeitig ist auch ein Modul zur Faktenüberprüfung erforderlich, um die Richtigkeit der ChatGPT-Antworten zu überprüfen. Es besteht die Hoffnung, dass die nächste Generation von GPT in dieser Frage einen Durchbruch erzielen kann.

8. Kann ChatGPT das Lernen von Informationen in Echtzeit erreichen?

Die interaktive Korrekturfunktion von ChatGPT lässt den Eindruck entstehen, dass es über autonome Lernfunktionen in Echtzeit verfügt.

Wie oben erläutert, kann ChatGPT relevante Antworten basierend auf der Änderungsabsicht oder den vom Benutzer bereitgestellten Korrekturinformationen sofort überarbeiten und zeigt so die Fähigkeit, in Echtzeit zu lernen. Tatsächlich ist dies nicht der Fall. Die Lernfähigkeit spiegelt wider, dass das erlernte Wissen universell ist und zu anderen Zeiten und bei anderen Gelegenheiten verwendet werden kann. ChatGPT kann Korrekturen nur auf der Grundlage des Benutzerfeedbacks in der aktuellen Konversation vornehmen. Wenn wir eine Konversation neu starten und dasselbe Problem testen, macht ChatGPT immer noch dieselben oder ähnliche Fehler.

Eine Frage ist, warum ChatGPT die geänderten und korrekten Informationen nicht im Modell speichert? Das Problem besteht hier aus zwei Aspekten. Erstens sind die von Benutzern zurückgegebenen Informationen nicht unbedingt korrekt. Manchmal wird ChatGPT absichtlich dazu angeleitet, unangemessene Antworten zu geben. Dies liegt einfach daran, dass ChatGPT sich beim Verstärkungslernen auf der Grundlage menschlicher Rückmeldungen verstärkt hat Während des Prozesses wird dem Feedback des Benutzers vertraut. Zweitens kann das grundlegende große Modell die Parameter nicht auf der Grundlage von Daten mit niedriger Häufigkeit aktualisieren, selbst wenn die von den Benutzern zurückgegebenen Informationen korrekt sind. Andernfalls wird das große Modell einige Long-Tail-Daten überpassen seine Vielseitigkeit verlieren.

Daher ist es für ChatGPT sehr schwierig, in Echtzeit zu lernen. Eine einfache und intuitive Lösung besteht darin, jedes Mal neue Daten zu verwenden, um ChatGPT zu optimieren. Oder verwenden Sie einen Auslösemechanismus, um Parameteraktualisierungen des Modells auszulösen, wenn mehrere Benutzer dasselbe oder ein ähnliches Feedback übermitteln, und verbessern Sie so die dynamische Lernfähigkeit des Modells.

Der Autor dieses Artikels, Zhang Jiajun, ist Forscher am Institut für Automatisierung der Chinesischen Akademie der Wissenschaften. Ursprünglicher Link:

​https://zhuanlan.zhihu.com/p/606478660​

Das obige ist der detaillierte Inhalt vonVermutungen zu acht technischen Problemen von ChatGPT. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!