1. La chaîne de rétropropagation est rompue, c'est-à-dire que certaines variables peuvent être converties en tableaux numpy. Bien qu'elles puissent toujours participer aux calculs, elles ont perdu la capacité de propager des gradients, ce qui entraîne l'incapacité de propager les gradients aux variables suivantes. 2. Le taux d'apprentissage n'est pas défini correctement. Si le taux d'apprentissage est trop élevé, la perte deviendra facilement nan, ce qui empêchera le modèle de converger. apprendre très lentement. 3. Les paramètres de la couche de réseau neuronal ne sont pas bien initialisés en raison de l'initialisation des paramètres. Cela affectera la vitesse d'entraînement du modèle
1. La chaîne de rétropropagation est rompue, c'est-à-dire que certaines variables peuvent être converties en tableaux numpy. Bien qu'elles puissent toujours participer aux calculs, elles ont perdu la capacité de propager des gradients, ce qui entraîne l'incapacité de propager les gradients aux variables suivantes. 2. Le taux d'apprentissage n'est pas défini correctement. Si le taux d'apprentissage est trop élevé, la perte deviendra facilement nan, ce qui empêchera le modèle de converger. apprendre très lentement. 3. Les paramètres de la couche de réseau neuronal ne sont pas bien initialisés en raison de l'initialisation des paramètres. Cela affectera la vitesse d'entraînement du modèle
.