Introduction
Étant donné deux fichiers a et b, avec respectivement x et y lignes de données, où (x, y sont tous deux supérieurs à 10 milliards), la mémoire de la machine est limitée à 100 Mo, comment retrouver les mêmes enregistrements ?
Idées
Comment résoudre ce problème La principale difficulté est que cette quantité massive de données ne peut pas être lue dans la mémoire en une seule fois
Si elle ne peut pas être lue dans la mémoire en une seule fois, est-ce possible. être considéré plusieurs fois ? Si c’est possible, comment pouvons-nous calculer la même valeur après l’avoir lue plusieurs fois ?
Nous pouvons utiliser la pensée diviser pour régner pour réduire le grand au petit. Si les valeurs d'une même chaîne sont égales après hachage, alors on peut envisager d'utiliser le hachage modulo pour disperser les enregistrements dans n fichiers. Comment obtenir ce n? PHP dispose de 100 Mo de mémoire et le tableau peut stocker environ 1 million de données. Ainsi, étant donné que les enregistrements a et b n'ont qu'un milliard de lignes, n doit être au moins supérieur à 200.
Il y a actuellement 200 fichiers. Les mêmes enregistrements doivent être dans le même fichier, et chaque fichier peut être lu dans la mémoire. Ensuite, vous pouvez rechercher les mêmes enregistrements dans ces 200 fichiers dans l'ordre, puis les exporter dans le même fichier. Le résultat final est les mêmes enregistrements dans les deux fichiers a et b.
Il est très simple de retrouver le même enregistrement dans un petit fichier. Utilisez chaque ligne d'enregistrements comme clé de la table de hachage, et comptez le nombre d'occurrences de la clé >=. 2.
Opération pratique
1 milliard de fichiers sont trop gros L'opération pratique est une perte de temps.
La taille du problème est réduite à : limite de mémoire de 1 Mo, a et b ont chacun 100 000 lignes d'enregistrements. La limite de mémoire peut être limitée à l'aide de ini_set('memory_limit', '1M');
de PHP.
Générer un fichier de test
Générer des nombres aléatoires pour remplir le fichier :
/** * 生成随机数填充文件 * Author: ClassmateLin * Email: classmatelin.site@gmail.com * Site: https://www.classmatelin.top * @param string $filename 输出文件名 * @param int $batch 按多少批次生成数据 * @param int $batchSize 每批数据的大小 */ function generate(string $filename, int $batch=1000, int $batchSize=10000) { for ($i=0; $i<$batch; $i++) { $str = ''; for ($j=0; $j<$batchSize; $j++) { $str .= rand($batch, $batchSize) . PHP_EOL; // 生成随机数 } file_put_contents($filename, $str, FILE_APPEND); // 追加模式写入文件 } } generate('a.txt', 10); generate('b.txt', 10);
Diviser le fichier
Modifier
a.txt
,b.txt
Divisé en n fichiers par module de hachage.
/** * 用hash取模方式将文件分散到n个文件中 * Author: ClassmateLin * Email: classmatelin.site@gmail.com * Site: https://www.classmatelin.top * @param string $filename 输入文件名 * @param int $mod 按mod取模 * @param string $dir 文件输出目录 */ function spiltFile(string $filename, int $mod=20, string $dir='files') { if (!is_dir($dir)){ mkdir($dir); } $fp = fopen($filename, 'r'); while (!feof($fp)){ $line = fgets($fp); $n = crc32(hash('md5', $line)) % $mod; // hash取模 $filepath = $dir . '/' . $n . '.txt'; // 文件输出路径 file_put_contents($filepath, $line, FILE_APPEND); // 追加模式写入文件 } fclose($fp); } spiltFile('a.txt'); spiltFile('b.txt');
Exécutez la fonction
splitFile
pour obtenir 20 fichiers dans le répertoirefiles
comme indiqué ci-dessous le document .
Recherche des enregistrements en double
Nous devons maintenant trouver les mêmes enregistrements dans 20 fichiers. En fait, nous devons trouver les mêmes enregistrements dans un seul fichier et opérer 20 fois. .
Trouver le même enregistrement dans un fichier :
/** * 查找一个文件中相同的记录输出到指定文件中 * Author: ClassmateLin * Email: classmatelin.site@gmail.com * Site: https://www.classmatelin.top * @param string $inputFilename 输入文件路径 * @param string $outputFilename 输出文件路径 */ function search(string $inputFilename, $outputFilename='output.txt') { $table = []; $fp = fopen($inputFilename, 'r'); while (!feof($fp)) { $line = fgets($fp); !isset($table[$line]) ? $table[$line] = 1 : $table[$line]++; // 未设置的值设1,否则自增 } fclose($fp); foreach ($table as $line => $count) { if ($count >= 2){ // 出现大于2次的则是相同的记录,输出到指定文件中 file_put_contents($outputFilename, $line, FILE_APPEND); } } }
Trouver le même enregistrement dans tous les fichiers :
/** * 从给定目录下文件中分别找出相同记录输出到指定文件中 * Author: ClassmateLin * Email: classmatelin.site@gmail.com * Site: https://www.classmatelin.top * @param string $dirs 指定目录 * @param string $outputFilename 输出文件路径 */ function searchAll($dirs='files', $outputFilename='output.txt') { $files = scandir($dirs); foreach ($files as $file) { $filepath = $dirs . '/' . $file; if (is_file($filepath)){ search($filepath, $outputFilename); } } }
Le problème d'espace du traitement des fichiers volumineux a été résolu jusqu'à présent, alors comment résoudre le problème de temps Une seule machine peut utiliser le traitement multicœur du ? Le processeur, s'il ne suffit pas, utilisez plusieurs serveurs.
Code complet
Copier après la connexion
Apprentissage recommandé : Tutoriel vidéo php