Introduction
Dans l'article précédent, C# implémente la fonction de pool de threads par lui-même (1), nous avons essentiellement implémenté un programme qui peut être exécuté, mais il ne peut pas vraiment être appelé un pool de threads. Parce qu'il y a un bug fatal dans le code de l'article précédent, il n'attend pas quand il n'y a pas de tâche, mais fou en boucle et en essayant de verrouiller la liste des tâches. Le problème qui en résulte est que les performances sont assez faibles et que le problème est que les performances sont assez faibles. la vitesse de réponse du programme est très lente. La raison de cette lenteur (lorsqu'une nouvelle tâche est ajoutée, le travail met beaucoup de temps à démarrer) est ce que je viens de mentionner.
Afin de résoudre ce problème, nous devons utiliser une méthode pour permettre au programme de synchroniser le processus.
Méthode 1
Utiliser un sémaphore
Afin de réduire l'opération de verrouillage de la tâche, nous effectuons des tests uniquement lorsque la tâche n'est pas vide. Notre sémaphore représente le numéro dans la table des tâches. Lorsque s.WaitOne(); nous commençons à verrouiller et à supprimer la tâche
while (flag && TaskQueue != null) { //等待任务 ThreadPoolManager.s.WaitOne(); //获取任务 lock (TaskQueue) { try { if (TaskQueue.Count > 0) task = TaskQueue.Dequeue(); else task = null; } catch (Exception) { task = null; } if (task == null) continue;
Ajouter deux variables à la classe ThreadPoolManager
//由于采用信号量需要定义一个 public int MaxJobNum = 1000; public static Semaphore s;
et initialisez le sémaphore s = new Semaphore(0, MaxJobNum);
static void Main(string[] args) { ThreadPoolManager tpm = new ThreadPoolManager(2); TestTask t1 = new TestTask("task1"); TestTask t2 = new TestTask("task2"); TestTask t3 = new TestTask("task3"); TestTask t4 = new TestTask("task4"); TestTask t5 = new TestTask("task5"); TestTask t6 = new TestTask("task6"); TestTask t7 = new TestTask("task7"); TestTask t8 = new TestTask("task8"); TestTask t9 = new TestTask("task9"); tpm.AddTask(t1); tpm.AddTask(t2); tpm.AddTask(t3); tpm.AddTask(t4); tpm.AddTask(t5); tpm.AddTask(t6); tpm.AddTask(t7); tpm.AddTask(t8); tpm.AddTask(t9); }
<"/kf/ware/ vc/" target; "_blank" class="keylink">vcD4KPGgxPre9t6i2/jwvaDE Cs7Sw8eyu8rH08PQxbrFwb jrM7Sw8fKudPDQXV0b1Jlc2V0RXZlbnTAtMq1z9bNrLK9Cjxicj4KCrXa0ruyvaOs1NpUaHJlYWRQ b 29sTWFuYWdlcrP1yry7r8qxuvK0tL2o0ru49iAgbG9ja3MgPSBuZXcgQXV0b1Jlc2V0RXZlbnQoZmFsc2UpOwq1sUFkZFRhc2u1xMqxuvJsb2Nrcy5TZXQoKTvNqNqtci0/bXEstnX96 7uvPO0sPHttRXb3JrVGhyZWFktcRydW66r8r91/bSu7j20KHQobXE0N64xAo8cHJlIGNsYXNzPQ=="brush:java;"> public void run() { while (drapeau && TaskQueue != null) { // En attente des tâches//ThreadPoolManager.sep.WaitOne(); //En attente des tâches pendant (TaskQueue.Count == 0 && flag) { try { ThreadPoolManager.locks.WaitOne( } catch (Exception) { } } // Obtenir le verrouillage des tâches (TaskQueue) { try { task = TaskQueue.Dequeue(); } catch (Exception) { task = null } if (task == null) continue } try { task.SetEnd(false); (); } catch (Exception) { } try { if (!task.IsEnd()) { task.SetEnd(false); task.EndTask(); Ce n'est que lorsque le nombre de listes de tâches est de 0 que nous bloquerons et continuerons jusqu'à AddTask