Cet article partage avec vous un script Python très pratique pour mettre en œuvre un suivi de disponibilité de plusieurs sites Web, avec des explications sur les points essentiels. Les amis qui ont les mêmes besoins peuvent s'y référer
">
<.> Récemment, de nouveaux sites ont été ajoutés. Avec l'augmentation du nombre de sites, la complexité de gestion a également augmenté. Comme le dit le proverbe : il est difficile de gérer trop de personnes, car j'ai trouvé qu'il était difficile de gérer trop de sites. il y a trop de sites dans ces sites, il y en a des importants et d'autres sans importance. Bien sûr, les sites importants et centraux sont plus gérés. Par exemple, certains sites qui n'ont jamais eu de problème depuis dix mille ans sont progressivement oubliés. Si un problème survient soudainement, ils sont toujours pressés de le résoudre en urgence, il est donc nécessaire de gérer ces sites de manière standardisée. Aujourd'hui, nous ferons le premier pas. , nous devons d'abord mettre en œuvre une surveillance unifiée. Ne parlons pas de la situation commerciale. Au moins, ce site n'est pas accessible, signalez-le au plus vite, n'attendez pas que le côté commercial vous donne son avis, il apparaîtra que nous. ne sont pas assez professionnels. Voyons ensuite comment utiliser Python pour implémenter la surveillance de la disponibilité de plusieurs sites Web. Le script est le suivant :#!/usr/bin/env python import pickle, os, sys, logging from httplib import HTTPConnection, socket from smtplib import SMTP def email_alert(message, status): fromaddr = 'xxx@163.com' toaddrs = 'xxxx@qq.com' server = SMTP('smtp.163.com:25') server.starttls() server.login('xxxxx', 'xxxx') server.sendmail(fromaddr, toaddrs, 'Subject: %s\r\n%s' % (status, message)) server.quit() def get_site_status(url): response = get_response(url) try: if getattr(response, 'status') == 200: return 'up' except AttributeError: pass return 'down' def get_response(url): try: conn = HTTPConnection(url) conn.request('HEAD', '/') return conn.getresponse() except socket.error: return None except: logging.error('Bad URL:', url) exit(1) def get_headers(url): response = get_response(url) try: return getattr(response, 'getheaders')() except AttributeError: return 'Headers unavailable' def compare_site_status(prev_results): def is_status_changed(url): status = get_site_status(url) friendly_status = '%s is %s' % (url, status) print friendly_status if urlin prev_resultsand prev_results[url] != status: logging.warning(status) email_alert(str(get_headers(url)), friendly_status) prev_results[url] = status return is_status_changed def is_internet_reachable(): if get_site_status('www.baidu.com') == 'down' and get_site_status('www.sohu.com') == 'down': return False return True def load_old_results(file_path): pickledata = {} if os.path.isfile(file_path): picklefile = open(file_path, 'rb') pickledata = pickle.load(picklefile) picklefile.close() return pickledata def store_results(file_path, data): output = open(file_path, 'wb') pickle.dump(data, output) output.close() def main(urls): logging.basicConfig(level=logging.WARNING, filename='checksites.log', format='%(asctime)s %(levelname)s: %(message)s', datefmt='%Y-%m-%d %H:%M:%S') pickle_file = 'data.pkl' pickledata = load_old_results(pickle_file) print pickledata if is_internet_reachable(): status_checker = compare_site_status(pickledata) map(status_checker, urls) else: logging.error('Either the world ended or we are not connected to the net.') store_results(pickle_file, pickledata) if __name__ == '__main__': main(sys.argv[1:])
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!