Table des matières
1. Avant-propos
2. Python explore les singles musicaux QQ.
Maison développement back-end Tutoriel Python Exemple du processus d'exploration de la musique qq avec Python

Exemple du processus d'exploration de la musique qq avec Python

Jul 18, 2017 pm 03:28 PM
javascript python 基础

1. Avant-propos


Il y a encore beaucoup de musique sur qq music. Parfois, j'ai envie de télécharger de la bonne musique, mais. Il y a un processus de connexion ennuyeux à chaque fois lors du téléchargement à partir d’une page Web. Voici donc un robot d'exploration qqmusic. Au moins, je pense que la chose la plus importante pour un robot d'exploration de boucles for est de trouver l'URL de l'élément à explorer. Commencez à regarder ci-dessous (ne vous moquez pas de moi si je me trompe)

<br>

2. Python explore les singles musicaux QQ.


Une vidéo du MOOC que j'ai regardée auparavant donnait une bonne explication des étapes générales pour écrire un robot. Nous suivrons également cela.

  Étapes du robot

1. Déterminer la cible

Tout d'abord, nous devons clarifier notre objectif. Cette fois, nous avons exploré les singles du chanteur de QQ Music Andy Lau.

(Encyclopédie Baidu) -> Cible d'analyse (stratégie : format d'url (plage), format de données, encodage de page Web) -> Écrire du code ->

2. Cible d'analyse

Lien de la chanson :

À partir de la capture d'écran de gauche, vous pouvez savoir que les célibataires utilisent la pagination pour organiser les informations sur la chanson. 30 articles, un total de 30 pages. En cliquant sur le numéro de page ou sur le ">" à l'extrême droite, vous passerez à la page suivante. Le navigateur enverra une requête ajax asynchrone au serveur. À partir du lien, vous pouvez voir les paramètres start et num, qui représentent le. respectivement l'indice de départ de la chanson (la capture d'écran est la 2ème page, l'indice de départ est 30) et une page renvoie 30 éléments, et le serveur répond en renvoyant les informations de la chanson au format json (MusicJsonCallbacksinger_track({"code":0,"data": {"list":[{"Flisten_count1":. .....]})), si vous souhaitez simplement obtenir des informations sur la chanson uniquement, vous pouvez directement fusionner la demande de lien et analyser les données au format json renvoyées. Ici, nous n'utilisons pas la méthode d'analyse directe du format de données. J'utilise la méthode Python Selenium. Une fois que chaque page d'informations uniques est obtenue et analysée, cliquez sur ">" pour passer à la page suivante et continuer l'analyse jusqu'à ce que toutes les informations soient trouvées. est analysée et enregistrée. Enfin, demandez le lien de chaque single pour obtenir des informations détaillées sur chaque single.

La capture d'écran à droite est le code source de la page Web. Toutes les informations sur la chanson se trouvent dans la couche flottante div avec le nom de classe mod_songlist. Il n'y a pas de div avec le nom de classe songlist_list. Sous la liste de séquences ul, chaque sous-élément li affiche un single, et la balise a sous le nom de classe songlist__album contient le lien, le nom et la durée du single.

3. Écrivez le code

1. ) Téléchargez le contenu de la page Web. Ici, nous utilisons la bibliothèque standard Urllib de Python et encapsulons une méthode de téléchargement :

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

def download(url, user_agent='wswp', num_retries=2):

    if url is None:

        return None

    print('Downloading:', url)

    headers = {'User-Agent''Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}

    request = urllib.request.Request(url, headers=headers)  # 设置用户代理wswp(Web Scraping with Python)

    try:

        html = urllib.request.urlopen(request).read().decode('utf-8')

    except urllib.error.URLError as e:

        print('Downloading Error:', e.reason)

        html = None

        if num_retries > 0:

            if hasattr(e, 'code'and 500 <= e.code < 600:

                # retry when return code is 5xx HTTP erros

                return download(url, num_retries-1)  # 请求失败,默认重试2次,

    return html

Copier après la connexion
2) Analyser le contenu de la page Web. plug-in de fête BeautifulSoup, Pour plus de détails, veuillez vous référer à l'API BeautifulSoup.

<br>

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

def music_scrapter(html, page_num=0):

    try:

        soup = BeautifulSoup(html, 'html.parser')

        mod_songlist_div = soup.find_all('div', class_='mod_songlist')

        songlist_ul = mod_songlist_div[1].find('ul', class_='songlist__list')

        '''开始解析li歌曲信息'''

        lis = songlist_ul.find_all('li')

        for li in lis:

            a = li.find('div', class_='songlist__album').find('a')

            music_url = a['href']  # 单曲链接

            urls.add_new_url(music_url)  # 保存单曲链接

            print('music_url:{0} '.format(music_url))

        print('total music link num:%s' % len(urls.new_urls))

        next_page(page_num+1)

    except TimeoutException as err:

        print('解析网页出错:', err.args)

        return next_page(page_num + 1)

    return None

Copier après la connexion

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

def get_music():

     try:

        while urls.has_new_url():

            print('urls count:%s' % len(urls.new_urls))

            '''跳转到歌曲链接,获取歌曲详情'''

            new_music_url = urls.get_new_url()

            print('url leave count:%s' % str( len(urls.new_urls) - 1))

            html_data_info = download(new_music_url)

            # 下载网页失败,直接进入下一循环,避免程序中断

            if html_data_info is None:

                continue

            soup_data_info = BeautifulSoup(html_data_info, 'html.parser')

            if soup_data_info.find('div', class_='none_txt') is not None:

                print(new_music_url, '   对不起,由于版权原因,暂无法查看该专辑!')

                continue

            mod_songlist_div = soup_data_info.find('div', class_='mod_songlist')

            songlist_ul = mod_songlist_div.find('ul', class_='songlist__list')

            lis = songlist_ul.find_all('li')

            del lis[0]  # 删除第一个li

            print('len(lis):$s' % len(lis))

            for li in lis:

                a_songname_txt = li.find('div', class_='songlist__songname').find('span', class_='songlist__songname_txt').find('a')

                if 'https' not in a_songname_txt['href']:  #如果单曲链接不包含协议头,加上

                    song_url = 'https:' + a_songname_txt['href']

                song_name = a_songname_txt['title']

                singer_name = li.find('div', class_='songlist__artist').find('a').get_text()

                song_time =li.find('div', class_='songlist__time').get_text()

                music_info = {}

                music_info['song_name'] = song_name

                music_info['song_url'] = song_url

                music_info['singer_name'] = singer_name

                music_info['song_time'] = song_time

                collect_data(music_info)

     except Exception as err:  # 如果解析异常,跳过

         print('Downloading or parse music information error continue:', err.args)

Copier après la connexion
4. Exécuter le robot

1

<span style="font-size: 16px;">爬虫跑起来了,一页一页地去爬取专辑的链接,并保存到集合中,最后通过get_music()方法获取单曲的名称,链接,歌手名称和时长并保存到Excel文件中。</span><br><span style="font-size: 14px;"><img src="/static/imghw/default1.png" data-src="https://img.php.cn/upload/article/000/000/001/a1138f33f00f8d95b52fbfe06e562d24-4.png" class="lazy" alt=""    style="max-width:90%"  style="max-width:90%"><strong><img src="/static/imghw/default1.png" data-src="https://img.php.cn/upload/article/000/000/001/9282b5f7a1dc4a90cee186c16d036272-5.png" class="lazy" alt=""></strong></span>

Copier après la connexion
3. crawler Obtenez le résumé des singles de QQ Music

1

<br>

Copier après la connexion

1 Le single utilise la pagination. Passer à la page suivante consiste à obtenir des données au format json du serveur via une requête ajax asynchrone et. le restituer aux pages et aux liens de la barre d'adresse du navigateur reste inchangé et ne peut pas être demandé via des liens épissés. Au début, j'ai pensé à simuler des requêtes ajax via la bibliothèque Python Urllib, mais j'ai ensuite pensé à utiliser Selenium. Selenium peut très bien simuler le fonctionnement réel du navigateur, et le positionnement des éléments de la page est également très pratique. Il simule un clic sur la page suivante, en changeant constamment de pagination unique, puis en analysant le code source de la page Web via BeautifulSoup pour obtenir l'unique. information.

Le gestionnaire de liens 2.url utilise une structure de données de collection pour enregistrer des liens uniques. Pourquoi utiliser des collections ? Étant donné que plusieurs singles peuvent provenir du même album (l'URL de l'album est la même), cela peut réduire le nombre de demandes.

1

<span style="font-size: 14px;">class UrlManager(object):</span><br><span style="font-size: 14px;">    def __init__(self):</span><br><span style="font-size: 14px;">        self.new_urls = set()  # 使用集合数据结构,过滤重复元素</span><br><span style="font-size: 14px;">        self.old_urls = set()  # 使用集合数据结构,过滤重复元素</span>

Copier après la connexion
3. Il est très pratique de lire et d'écrire Excel via le plug-in tiers Python

1

<span style="font-size: 14px;">    def add_new_url(self, url):</span><br><span style="font-size: 14px;">        if url is None:</span><br><span style="font-size: 14px;">            return</span><br><span style="font-size: 14px;">        if url not in self.new_urls and url not in self.old_urls:</span><br><span style="font-size: 14px;">            self.new_urls.add(url)</span><br><br><span style="font-size: 14px;">    def add_new_urls(self, urls):</span><br><span style="font-size: 14px;">        if urls is None or len(urls) == 0:</span><br><span style="font-size: 14px;">            return</span><br><span style="font-size: 14px;">        for url in urls:</span><br><span style="font-size: 14px;">            self.add_new_url(url)</span><br><br><span style="font-size: 14px;">    def has_new_url(self):</span><br><span style="font-size: 14px;">        return len(self.new_urls) != 0</span><br><br><span style="font-size: 14px;">    def get_new_url(self):</span><br><span style="font-size: 14px;">        new_url = self.new_urls.pop()</span><br><span style="font-size: 14px;">        self.old_urls.add(new_url)</span><br><span style="font-size: 14px;">        return new_url<br><br></span>

Copier après la connexion
openpyxl

, et les informations uniques. peut être bien enregistré via des fichiers Excel debout.

4. Post-scriptum

1

<span style="font-size: 14px;">def write_to_excel(self, content):</span><br><span style="font-size: 14px;">    try:</span><br><span style="font-size: 14px;">        for row in content:</span><br><span style="font-size: 14px;">            self.workSheet.append([row['song_name'], row['song_url'], row['singer_name'], row['song_time']])</span><br><span style="font-size: 14px;">        self.workBook.save(self.excelName)  # 保存单曲信息到Excel文件</span><br><span style="font-size: 14px;">    except Exception as arr:</span><br><span style="font-size: 14px;">        print('write to excel error', arr.args)</span><br><br>

Copier après la connexion

Enfin, je dois célébrer. Après tout, j'ai réussi à explorer les informations uniques de QQ Music. Supprimé. Cette fois, nous avons réussi à explorer le single, Selenium était indispensable. Cette fois, nous n'avons utilisé que quelques fonctions simples de Selenium. Nous en apprendrons davantage sur Selenium à l'avenir, non seulement en termes de robots d'exploration mais également d'automatisation de l'interface utilisateur.

Points qui doivent être optimisés à l'avenir :

1 Il existe de nombreux liens de téléchargement, et il sera lent à télécharger un par un. utilisez le téléchargement simultané multithread plus tard.

2. La vitesse de téléchargement est trop rapide. Afin d'éviter que le serveur désactive l'IP et le problème des accès trop fréquents au même nom de domaine par la suite, il existe un mécanisme d'attente, et il y a une attente entre chaque intervalle de demande.

3. L'analyse des pages Web est un processus important. Les expressions régulières, BeautifulSoup et lxml peuvent être utilisées. Actuellement, la bibliothèque BeautifulSoup est utilisée. comme lxml. Ce qui suit va essayer d'utiliser lxml.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

PHP et Python: différents paradigmes expliqués PHP et Python: différents paradigmes expliqués Apr 18, 2025 am 12:26 AM

PHP est principalement la programmation procédurale, mais prend également en charge la programmation orientée objet (POO); Python prend en charge une variété de paradigmes, y compris la POO, la programmation fonctionnelle et procédurale. PHP convient au développement Web, et Python convient à une variété d'applications telles que l'analyse des données et l'apprentissage automatique.

Choisir entre PHP et Python: un guide Choisir entre PHP et Python: un guide Apr 18, 2025 am 12:24 AM

PHP convient au développement Web et au prototypage rapide, et Python convient à la science des données et à l'apprentissage automatique. 1.Php est utilisé pour le développement Web dynamique, avec une syntaxe simple et adapté pour un développement rapide. 2. Python a une syntaxe concise, convient à plusieurs champs et a un écosystème de bibliothèque solide.

Python vs JavaScript: la courbe d'apprentissage et la facilité d'utilisation Python vs JavaScript: la courbe d'apprentissage et la facilité d'utilisation Apr 16, 2025 am 12:12 AM

Python convient plus aux débutants, avec une courbe d'apprentissage en douceur et une syntaxe concise; JavaScript convient au développement frontal, avec une courbe d'apprentissage abrupte et une syntaxe flexible. 1. La syntaxe Python est intuitive et adaptée à la science des données et au développement back-end. 2. JavaScript est flexible et largement utilisé dans la programmation frontale et côté serveur.

PHP et Python: une plongée profonde dans leur histoire PHP et Python: une plongée profonde dans leur histoire Apr 18, 2025 am 12:25 AM

PHP est originaire en 1994 et a été développé par Rasmuslerdorf. Il a été utilisé à l'origine pour suivre les visiteurs du site Web et a progressivement évolué en un langage de script côté serveur et a été largement utilisé dans le développement Web. Python a été développé par Guidovan Rossum à la fin des années 1980 et a été publié pour la première fois en 1991. Il met l'accent sur la lisibilité et la simplicité du code, et convient à l'informatique scientifique, à l'analyse des données et à d'autres domaines.

Peut-on exécuter le code sous Windows 8 Peut-on exécuter le code sous Windows 8 Apr 15, 2025 pm 07:24 PM

VS Code peut fonctionner sur Windows 8, mais l'expérience peut ne pas être excellente. Assurez-vous d'abord que le système a été mis à jour sur le dernier correctif, puis téléchargez le package d'installation VS Code qui correspond à l'architecture du système et l'installez comme invité. Après l'installation, sachez que certaines extensions peuvent être incompatibles avec Windows 8 et doivent rechercher des extensions alternatives ou utiliser de nouveaux systèmes Windows dans une machine virtuelle. Installez les extensions nécessaires pour vérifier si elles fonctionnent correctement. Bien que le code VS soit possible sur Windows 8, il est recommandé de passer à un système Windows plus récent pour une meilleure expérience de développement et une meilleure sécurité.

Le code Visual Studio peut-il être utilisé dans Python Le code Visual Studio peut-il être utilisé dans Python Apr 15, 2025 pm 08:18 PM

VS Code peut être utilisé pour écrire Python et fournit de nombreuses fonctionnalités qui en font un outil idéal pour développer des applications Python. Il permet aux utilisateurs de: installer des extensions Python pour obtenir des fonctions telles que la réalisation du code, la mise en évidence de la syntaxe et le débogage. Utilisez le débogueur pour suivre le code étape par étape, trouver et corriger les erreurs. Intégrez Git pour le contrôle de version. Utilisez des outils de mise en forme de code pour maintenir la cohérence du code. Utilisez l'outil de liaison pour repérer les problèmes potentiels à l'avance.

Comment exécuter Python avec le bloc-notes Comment exécuter Python avec le bloc-notes Apr 16, 2025 pm 07:33 PM

L'exécution du code Python dans le bloc-notes nécessite l'installation du plug-in exécutable Python et du plug-in NPEXEC. Après avoir installé Python et ajouté un chemin à lui, configurez la commande "python" et le paramètre "{current_directory} {file_name}" dans le plug-in nppexec pour exécuter le code python via la touche de raccourci "F6" dans le bloc-notes.

L'extension VScode est-elle malveillante? L'extension VScode est-elle malveillante? Apr 15, 2025 pm 07:57 PM

Les extensions de code vs posent des risques malveillants, tels que la cachette de code malveillant, l'exploitation des vulnérabilités et la masturbation comme des extensions légitimes. Les méthodes pour identifier les extensions malveillantes comprennent: la vérification des éditeurs, la lecture des commentaires, la vérification du code et l'installation avec prudence. Les mesures de sécurité comprennent également: la sensibilisation à la sécurité, les bonnes habitudes, les mises à jour régulières et les logiciels antivirus.

See all articles