Jika anda mempertahankan diri daripada perangkak yang disasarkan, anda boleh mengenakan beberapa sekatan akses, seperti kekerapan akses, tambah kod pengesahan, dsb.
Untuk melumpuhkan rangkak enjin carian, anda boleh mengubah suai robots.txt Agak sukar untuk melumpuhkan rangkak peribadi Anda hanya boleh meningkatkan kesukaran, seperti menambah kod pengesahan yang lebih kompleks, kekerapan akses, gaya/data biasa perubahan format, dsb.
Jika anda mempertahankan diri daripada perangkak yang disasarkan, anda boleh mengenakan beberapa sekatan akses, seperti kekerapan akses, tambah kod pengesahan, dsb.
Kandungan penting ditambah secara dinamik menggunakan js
Hadkan http_referer
Antara muka yang berbeza boleh mempertimbangkan templat yang berbeza, jenis yang satu set ungkapan biasa tidak dapat dipadankan dengan sempurna
Tambah beberapa maklumat hak cipta secara rawak pada kandungan yang mungkin dirangkak
Anda hanya boleh melawat selepas log masuk
Rakam log akses
Itu sahaja yang saya boleh fikirkan, tetapi jika anda benar-benar mahu menangkapnya, ini akan menyukarkannya sedikit lagi
Untuk melumpuhkan rangkak enjin carian, anda boleh mengubah suai robots.txt
Agak sukar untuk melumpuhkan rangkak peribadi Anda hanya boleh meningkatkan kesukaran, seperti menambah kod pengesahan yang lebih kompleks, kekerapan akses, gaya/data biasa perubahan format, dsb.