백엔드 개발 파이썬 튜토리얼 [Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기

[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기

Jan 21, 2017 pm 02:56 PM

우리는 Xiaozhuazhua가 자신의 실력을 뽐낼 수 있는 플랫폼으로 dmoz.org 웹사이트를 사용합니다.


우선 질문에 답해야겠습니다.

Q: 크롤러에 웹사이트를 설치하려면 몇 단계를 거쳐야 하나요?

답은 매우 간단합니다. 4단계:

새 프로젝트(프로젝트): 새 크롤러 프로젝트 만들기

명확한 목표(항목): 크롤링하려는 항목 지우기 목표

크롤러 만들기(스파이더): 웹 페이지 크롤링을 시작하는 크롤러 만들기

콘텐츠 저장(파이프라인): 크롤링된 콘텐츠를 저장할 파이프라인 설계


자, 이제 기본적인 과정은 결정되었으니 차근차근 마무리하시면 됩니다.


1. 새 프로젝트(Project)를 생성합니다

Shift 키를 누른 채 빈 디렉터리를 마우스 오른쪽 버튼으로 클릭하고 "여기에서 명령 창 열기"를 선택합니다. "를 입력하고 다음 명령을 입력합니다.

scrapy startproject tutorial
로그인 후 복사

여기서 tutorial은 프로젝트 이름입니다.

다음과 같은 디렉터리 구조로 튜토리얼 폴더가 생성되는 것을 확인할 수 있습니다.

tutorial/  
    scrapy.cfg  
    tutorial/  
        __init__.py  
        items.py  
        pipelines.py  
        settings.py  
        spiders/  
            __init__.py  
            ...
로그인 후 복사

다음은 각 파일의 역할을 간략히 소개합니다.

  • scrapy.cfg: 프로젝트 구성 파일

  • tutorial/: 프로젝트의 Python 모듈, 코드는 여기에서 참조됩니다.

  • tutorial /items.py: 프로젝트 항목 파일

  • tutorial/pipelines.py: 프로젝트 파이프라인 파일

  • tutorial/settings. py: 프로젝트 설정 파일

  • tutorial/spiders/: 크롤러가 저장되는 디렉터리


2. 목표 지우기( 항목)

Scrapy에서 항목은 크롤링된 콘텐츠를 로드하는 데 사용되는 컨테이너입니다. 이는 사전인 Python의 Dic과 비슷하지만 오류를 줄이기 위해 몇 가지 추가 보호 기능을 제공합니다.

일반적으로 항목은 scrapy.item.Item 클래스를 사용하여 생성할 수 있으며, 속성은 scrapy.item.Field 객체를 사용하여 정의할 수 있습니다(ORM과 유사한 매핑 관계로 이해 가능).

다음으로 아이템 모델 구축을 시작합니다.

우선 원하는 콘텐츠는

  • 이름(name)

  • 링크(url)

  • 설명


튜토리얼 디렉터리의 items.py 파일을 수정하고 원본 클래스 뒤에 추가합니다. 자신의 수업.

dmoz.org 웹사이트의 콘텐츠를 캡처하려고 하므로 이름을 DmozItem:

# Define here the models for your scraped items  
#  
# See documentation in:  
# http://doc.scrapy.org/en/latest/topics/items.html  
  
from scrapy.item import Item, Field  
  
class TutorialItem(Item):  
    # define the fields for your item here like:  
    # name = Field()  
    pass  
  
class DmozItem(Item):  
    title = Field()  
    link = Field()  
    desc = Field()
로그인 후 복사

처음에는 다소 혼란스러워 보일 수 있지만 이러한 항목을 정의하면 다음을 수행할 수 있습니다. 다른 구성 요소를 사용하여 항목이 무엇인지 알아보세요.

Item은 간단히 캡슐화된 클래스 객체로 이해될 수 있습니다.


3. 크롤러(스파이더) 만들기

크롤러를 만들려면 먼저 크롤링한 다음 가져오는 두 단계가 있습니다.

즉, 먼저 전체 웹 페이지의 모든 콘텐츠를 가져온 다음 유용한 부분을 꺼내야 합니다.

3.1 크롤링

Spider는 사용자가 도메인(또는 도메인 그룹)의 정보를 크롤링하기 위해 작성한 클래스입니다.

다운로드용 URL 목록, 링크 추적 구성표, 웹 콘텐츠를 구문 분석하여 항목을 추출하는 방법을 정의합니다.

Spider를 만들려면 scrapy.spider.BaseSpider를 사용하여 하위 클래스를 만들고 세 가지 필수 속성을 결정해야 합니다.

name: 고유해야 하는 크롤러의 식별 이름입니다. 서로 다른 크롤러에서 서로 다른 이름을 정의합니다.

start_urls: 크롤링된 URL 목록입니다. 크롤러는 여기에서 데이터를 가져오기 시작하므로 첫 번째 데이터 다운로드는 이 URL에서 시작됩니다. 다른 하위 URL은 이러한 시작 URL에서 상속되어 생성됩니다.

parse(): 구문 분석 방법. 호출 시 각 URL에서 반환된 응답 개체를 유일한 매개변수로 전달합니다. 캡처된 데이터(항목으로 구문 분석됨)를 구문 분석하고 일치시키며 더 많은 것을 추적합니다. URL.

이해를 돕기 위해 너비 크롤러 튜토리얼에 언급된 아이디어를 참조할 수 있습니다. 튜토리얼 제공: [Java] Zhihu Chin 에피소드 5: HttpClient 툴킷 및 너비 크롤러 사용.

즉, Url이 저장되고 이를 기점으로 점차 확산되어 조건에 맞는 웹페이지 URL을 모두 잡아서 저장하여 크롤링을 계속하게 됩니다.

dmoz_spider.py라는 첫 번째 크롤러를 작성하고 tutorialspiders 디렉터리에 저장해 보겠습니다.

dmoz_spider.py 코드는 다음과 같습니다.

from scrapy.spider import Spider  
  
class DmozSpider(Spider):  
    name = "dmoz"  
    allowed_domains = ["dmoz.org"]  
    start_urls = [  
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",  
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"  
    ]  
  
    def parse(self, response):  
        filename = response.url.split("/")[-2]  
        open(filename, 'wb').write(response.body)
로그인 후 복사

allow_domains는 검색할 도메인 이름 범위이며 크롤러의 제약 영역이기도 합니다. 도메인 이름.

파싱 기능을 보면 알 수 있듯이 링크의 마지막 두 주소를 빼내어 파일명으로 저장합니다. <… 그림에서:

보고된 오류:

UnicodeDecodeError: 'ascii' 코덱이 위치 1의 바이트 0xb0을 디코딩할 수 없습니다: 서수가 범위에 없습니다(128 )[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기

실행 첫 번째 Scrapy 프로젝트에서 정말 불운한 오류를 보고했습니다.

코딩 문제가 있을 것입니다. Google에서 검색한 후 해결책을 찾았습니다.

Libsite-packages 폴더에 새 sitecustomize.py를 만듭니다. python :

scrapy crawl dmoz
로그인 후 복사
로그인 후 복사

다시 실행해 보세요. 문제가 해결되었습니다. 결과를 살펴보세요.

[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기

最后一句INFO: Closing spider (finished)表明爬虫已经成功运行并且自行关闭了。

包含 [dmoz]的行 ,那对应着我们的爬虫运行的结果。

可以看到start_urls中定义的每个URL都有日志行。

还记得我们的start_urls吗?

http://www.dmoz.org/Computers/Programming/Languages/Python/Books
http://www.dmoz.org/Computers/Programming/Languages/Python/Resources

因为这些URL是起始页面,所以他们没有引用(referrers),所以在它们的每行末尾你会看到 (referer: )。

在parse 方法的作用下,两个文件被创建:分别是 Books 和 Resources,这两个文件中有URL的页面内容。


那么在刚刚的电闪雷鸣之中到底发生了什么呢?

首先,Scrapy为爬虫的 start_urls属性中的每个URL创建了一个 scrapy.http.Request 对象 ,并将爬虫的parse 方法指定为回调函数。

然后,这些 Request被调度并执行,之后通过parse()方法返回scrapy.http.Response对象,并反馈给爬虫。


3.2取

爬取整个网页完毕,接下来的就是的取过程了。

光存储一整个网页还是不够用的。

在基础的爬虫里,这一步可以用正则表达式来抓。

在Scrapy里,使用一种叫做 XPath selectors的机制,它基于 XPath表达式。

如果你想了解更多selectors和其他机制你可以查阅资料:点我点我


这是一些XPath表达式的例子和他们的含义

/html/head/title: 选择HTML文档元素下面的 标签。</p><p>/html/head/title/text(): 选择前面提到的<title> 元素下面的文本内容</p><p>//td: 选择所有 <td> 元素</p><p>//div[@class="mine"]: 选择所有包含 class="mine" 属性的div 标签元素</p><p>以上只是几个使用XPath的简单例子,但是实际上XPath非常强大。</p><p>可以参照W3C教程:点我点我。</p><p><br/></p><p>为了方便使用XPaths,Scrapy提供XPathSelector 类,有两种可以选择,HtmlXPathSelector(HTML数据解析)和XmlXPathSelector(XML数据解析)。<br/></p><p>必须通过一个 Response 对象对他们进行实例化操作。</p><p>你会发现Selector对象展示了文档的节点结构。因此,第一个实例化的selector必与根节点或者是整个目录有关 。<br/></p><p>在Scrapy里面,Selectors 有四种基础的方法(点击查看API文档):<br/></p><ul class=" list-paddingleft-2" style="max-width:90%"><li><p>xpath():返回一系列的selectors,每一个select表示一个xpath参数表达式选择的节点<br/></p></li><li><p>css():返回一系列的selectors,每一个select表示一个css参数表达式选择的节点<br/></p></li><li><p>extract():返回一个unicode字符串,为选中的数据<br/></p></li><li><p>re():返回一串一个unicode字符串,为使用正则表达式抓取出来的内容</p></li></ul><p><br/></p><p>3.3xpath实验<br/></p><p>下面我们在Shell里面尝试一下Selector的用法。</p><p>实验的网址:http://www.dmoz.org/Computers/Programming/Languages/Python/Books/</p><p><img src="/static/imghw/default1.png" data-src="https://img.php.cn//upload/image/358/198/440/1484981450807063.png" class="lazy" title="1484981450807063.png" alt="[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기"/></p><p>熟悉完了实验的小白鼠,接下来就是用Shell爬取网页了。</p><p>进入到项目的顶层目录,也就是第一层tutorial文件夹下,在cmd中输入:</p><div class="code" style="position:relative; padding:0px; margin:0px;"><pre class='brush:php;toolbar:false;'>scrapy shell http://www.dmoz.org/Computers/Programming/Languages/Python/Books/</pre><div class="contentsignin">로그인 후 복사</div></div><p>回车后可以看到如下的内容:</p><p><img src="/static/imghw/default1.png" data-src="https://img.php.cn//upload/image/827/864/513/1484981482254858.png" class="lazy" title="1484981482254858.png" alt="[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기"/></p><p>在Shell载入后,你将获得response回应,存储在本地变量 response中。</p><p>所以如果你输入response.body,你将会看到response的body部分,也就是抓取到的页面内容:</p><p><img src="/static/imghw/default1.png" data-src="https://img.php.cn//upload/image/765/564/584/1484981501691320.png" class="lazy" title="1484981501691320.png" alt="[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기"/></p><p>或者输入response.headers 来查看它的 header部分:</p><p><img src="/static/imghw/default1.png" data-src="https://img.php.cn//upload/image/324/658/871/1484981518418134.png" class="lazy" title="1484981518418134.png" alt="[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기"/></p><p>现在就像是一大堆沙子握在手里,里面藏着我们想要的金子,所以下一步,就是用筛子摇两下,把杂质出去,选出关键的内容。</p><p>selector就是这样一个筛子。</p><p>在旧的版本中,Shell实例化两种selectors,一个是解析HTML的 hxs 变量,一个是解析XML 的 xxs 变量。<br/></p><p>而现在的Shell为我们准备好的selector对象,sel,可以根据返回的数据类型自动选择最佳的解析方案(XML or HTML)。</p><p>然后我们来捣弄一下!~</p><p>要彻底搞清楚这个问题,首先先要知道,抓到的页面到底是个什么样子。</p><p>比如,我们要抓取网页的标题,也就是<title>这个标签:</p><p><img src="/static/imghw/default1.png" data-src="https://img.php.cn//upload/image/751/229/185/1484981532999171.png" class="lazy" title="1484981532999171.png" alt="[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기"/></p><p>可以输入:</p><div class="code" style="position:relative; padding:0px; margin:0px;"><pre class='brush:php;toolbar:false;'>sel.xpath(&#39;//title&#39;)</pre><div class="contentsignin">로그인 후 복사</div></div><p>结果就是:</p><p><img src="/static/imghw/default1.png" data-src="https://img.php.cn//upload/image/403/986/275/1484981555399991.png" class="lazy" title="1484981555399991.png" alt="[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기"/></p><p>这样就能把这个标签取出来了,用extract()和text()还可以进一步做处理。</p><p>备注:简单的罗列一下有用的xpath路径表达式:</p><p><br/></p><p></p><p>表达式</p><p>描述</p><p></p><p>nodename 选取此节点的所有子节点。 </p><p>/ 从根节点选取。 </p><p>// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。 </p><p>. 选取当前节点。 </p><p>.. 选取当前节点的父节点。 </p><p>@ 选取属性。 </p><p><br/></p><p><br/></p><p>全部的实验结果如下,In[i]表示第i次实验的输入,Out[i]表示第i次结果的输出(建议大家参照:W3C教程):</p><div class="code" style="position:relative; padding:0px; margin:0px;"><pre class='brush:php;toolbar:false;'>In [1]: sel.xpath(&#39;//title&#39;) Out[1]: [<Selector xpath='//title' data=u'<title>Open Directory - Computers: Progr'>] In [2]: sel.xpath(&#39;//title&#39;).extract() Out[2]: [u'<title>Open Directory - Computers: Programming: Languages: Python: Books'] In [3]: sel.xpath('//title/text()') Out[3]: [] In [4]: sel.xpath('//title/text()').extract() Out[4]: [u'Open Directory - Computers: Programming: Languages: Python: Books'] In [5]: sel.xpath('//title/text()').re('(\w+):') Out[5]: [u'Computers', u'Programming', u'Languages', u'Python']

로그인 후 복사

当然title这个标签对我们来说没有太多的价值,下面我们就来真正抓取一些有意义的东西。

使用火狐的审查元素我们可以清楚地看到,我们需要的东西如下:

[Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기

我们可以用如下代码来抓取这个

  • 标签:

    sel.xpath(&#39;//ul/li&#39;)
    로그인 후 복사

  • 标签中,可以这样获取网站的描述:

    sel.xpath(&#39;//ul/li/text()&#39;).extract()
    로그인 후 복사

    可以这样获取网站的标题:

    sel.xpath(&#39;//ul/li/a/text()&#39;).extract()
    로그인 후 복사

    可以这样获取网站的超链接:

    sel.xpath(&#39;//ul/li/a/@href&#39;).extract()
    로그인 후 복사

    当然,前面的这些例子是直接获取属性的方法。

    我们注意到xpath返回了一个对象列表,

    那么我们也可以直接调用这个列表中对象的属性挖掘更深的节点

    (参考:Nesting selectors andWorking with relative XPaths in theSelectors):

    sites = sel.xpath(&#39;//ul/li&#39;)for site in sites:
    title = site.xpath('a/text()').extract()
    link = site.xpath('a/@href').extract()
    desc = site.xpath('text()').extract()
    print title, link, desc


    3.4xpath实战

    我们用shell做了这么久的实战,最后我们可以把前面学习到的内容应用到dmoz_spider这个爬虫中。

    在原爬虫的parse函数中做如下修改:

    from scrapy.spider import Spider  
    from scrapy.selector import Selector  
      
    class DmozSpider(Spider):  
        name = "dmoz"  
        allowed_domains = ["dmoz.org"]  
        start_urls = [  
            "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",  
            "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"  
        ]  
      
        def parse(self, response):  
            sel = Selector(response)  
            sites = sel.xpath(&#39;//ul/li&#39;)  
            for site in sites:  
                title = site.xpath('a/text()').extract()  
                link = site.xpath('a/@href').extract()  
                desc = site.xpath('text()').extract()  
                print title
    로그인 후 복사

    注意,我们从scrapy.selector中导入了Selector类,并且实例化了一个新的Selector对象。这样我们就可以像Shell中一样操作xpath了。

    我们来试着输入一下命令运行爬虫(在tutorial根目录里面):

    scrapy crawl dmoz
    로그인 후 복사
    로그인 후 복사

    运行结果如下:

    [Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기

    果然,成功的抓到了所有的标题。但是好像不太对啊,怎么Top,Python这种导航栏也抓取出来了呢?

    我们只需要红圈中的内容:

    [Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기

    看来是我们的xpath语句有点问题,没有仅仅把我们需要的项目名称抓取出来,也抓了一些无辜的但是xpath语法相同的元素。

    审查元素我们发现我们需要的

      具有class='directory-url'的属性,

      那么只要把xpath语句改成sel.xpath('//ul[@class="directory-url"]/li')即可

      将xpath语句做如下调整:

      from scrapy.spider import Spider  
      from scrapy.selector import Selector  
        
      class DmozSpider(Spider):  
          name = "dmoz"  
          allowed_domains = ["dmoz.org"]  
          start_urls = [  
              "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",  
              "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"  
          ]  
        
          def parse(self, response):  
              sel = Selector(response)  
              sites = sel.xpath(&#39;//ul[@class="directory-url"]/li&#39;)  
              for site in sites:  
                  title = site.xpath(&#39;a/text()&#39;).extract()  
                  link = site.xpath(&#39;a/@href&#39;).extract()  
                  desc = site.xpath(&#39;text()&#39;).extract()  
                  print title
      로그인 후 복사

      成功抓出了所有的标题,绝对没有滥杀无辜:

      [Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기

      3.5使用Item

      接下来我们来看一看如何使用Item。

      前面我们说过,Item 对象是自定义的python字典,可以使用标准字典语法获取某个属性的值:

      >>> item = DmozItem()  
      >>> item[&#39;title&#39;] = &#39;Example title&#39;  
      >>> item[&#39;title&#39;]  
      &#39;Example title&#39;
      로그인 후 복사

      作为一只爬虫,Spiders希望能将其抓取的数据存放到Item对象中。为了返回我们抓取数据,spider的最终代码应当是这样:

      from scrapy.spider import Spider  
      from scrapy.selector import Selector  
        
      from tutorial.items import DmozItem  
        
      class DmozSpider(Spider):  
          name = "dmoz"  
          allowed_domains = ["dmoz.org"]  
          start_urls = [  
              "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",  
              "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"  
          ]  
        
          def parse(self, response):  
              sel = Selector(response)  
              sites = sel.xpath(&#39;//ul[@class="directory-url"]/li&#39;)  
              items = []  
              for site in sites:  
                  item = DmozItem()  
                  item[&#39;title&#39;] = site.xpath(&#39;a/text()&#39;).extract()  
                  item[&#39;link&#39;] = site.xpath(&#39;a/@href&#39;).extract()  
                  item[&#39;desc&#39;] = site.xpath(&#39;text()&#39;).extract()  
                  items.append(item)  
              return items
      로그인 후 복사

      4.存储内容(Pipeline)

      保存信息的最简单的方法是通过Feed exports,主要有四种:JSON,JSON lines,CSV,XML。

      我们将结果用最常用的JSON导出,命令如下:

      scrapy crawl dmoz -o items.json -t json
      로그인 후 복사

      -o 后面是导出文件名,-t 后面是导出类型。

      然后来看一下导出的结果,用文本编辑器打开json文件即可(为了方便显示,在item中删去了除了title之外的属性):

      [Python] 웹 크롤러(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 시작하기

      작은 예시이므로 간단한 처리만으로도 충분합니다.

      캡처한 항목으로 더 복잡한 작업을 수행하려면 항목 파이프라인을 작성하면 됩니다.

      앞으로 천천히 다루겠습니다^_^

      위는 [Python] Web Crawler 내용입니다(12): 크롤러 프레임워크 Scrapy의 첫 번째 크롤러 예제 입문 튜토리얼, 관련 내용은 PHP 중국어 홈페이지(www.php.cn)를 참고해주세요!


  • 본 웹사이트의 성명
    본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

    핫 AI 도구

    Undresser.AI Undress

    Undresser.AI Undress

    사실적인 누드 사진을 만들기 위한 AI 기반 앱

    AI Clothes Remover

    AI Clothes Remover

    사진에서 옷을 제거하는 온라인 AI 도구입니다.

    Undress AI Tool

    Undress AI Tool

    무료로 이미지를 벗다

    Clothoff.io

    Clothoff.io

    AI 옷 제거제

    Video Face Swap

    Video Face Swap

    완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

    뜨거운 도구

    메모장++7.3.1

    메모장++7.3.1

    사용하기 쉬운 무료 코드 편집기

    SublimeText3 중국어 버전

    SublimeText3 중국어 버전

    중국어 버전, 사용하기 매우 쉽습니다.

    스튜디오 13.0.1 보내기

    스튜디오 13.0.1 보내기

    강력한 PHP 통합 개발 환경

    드림위버 CS6

    드림위버 CS6

    시각적 웹 개발 도구

    SublimeText3 Mac 버전

    SublimeText3 Mac 버전

    신 수준의 코드 편집 소프트웨어(SublimeText3)

    PHP와 Python : 다른 패러다임이 설명되었습니다 PHP와 Python : 다른 패러다임이 설명되었습니다 Apr 18, 2025 am 12:26 AM

    PHP는 주로 절차 적 프로그래밍이지만 객체 지향 프로그래밍 (OOP)도 지원합니다. Python은 OOP, 기능 및 절차 프로그래밍을 포함한 다양한 패러다임을 지원합니다. PHP는 웹 개발에 적합하며 Python은 데이터 분석 및 기계 학습과 같은 다양한 응용 프로그램에 적합합니다.

    PHP와 Python 중에서 선택 : 가이드 PHP와 Python 중에서 선택 : 가이드 Apr 18, 2025 am 12:24 AM

    PHP는 웹 개발 및 빠른 프로토 타이핑에 적합하며 Python은 데이터 과학 및 기계 학습에 적합합니다. 1.PHP는 간단한 구문과 함께 동적 웹 개발에 사용되며 빠른 개발에 적합합니다. 2. Python은 간결한 구문을 가지고 있으며 여러 분야에 적합하며 강력한 라이브러리 생태계가 있습니다.

    Python vs. JavaScript : 학습 곡선 및 사용 편의성 Python vs. JavaScript : 학습 곡선 및 사용 편의성 Apr 16, 2025 am 12:12 AM

    Python은 부드러운 학습 곡선과 간결한 구문으로 초보자에게 더 적합합니다. JavaScript는 가파른 학습 곡선과 유연한 구문으로 프론트 엔드 개발에 적합합니다. 1. Python Syntax는 직관적이며 데이터 과학 및 백엔드 개발에 적합합니다. 2. JavaScript는 유연하며 프론트 엔드 및 서버 측 프로그래밍에서 널리 사용됩니다.

    Python에서 비주얼 스튜디오 코드를 사용할 수 있습니다 Python에서 비주얼 스튜디오 코드를 사용할 수 있습니다 Apr 15, 2025 pm 08:18 PM

    VS 코드는 파이썬을 작성하는 데 사용될 수 있으며 파이썬 애플리케이션을 개발하기에 이상적인 도구가되는 많은 기능을 제공합니다. 사용자는 다음을 수행 할 수 있습니다. Python 확장 기능을 설치하여 코드 완료, 구문 강조 및 디버깅과 같은 기능을 얻습니다. 디버거를 사용하여 코드를 단계별로 추적하고 오류를 찾아 수정하십시오. 버전 제어를 위해 git을 통합합니다. 코드 서식 도구를 사용하여 코드 일관성을 유지하십시오. 라인 도구를 사용하여 잠재적 인 문제를 미리 발견하십시오.

    PHP와 Python : 그들의 역사에 깊은 다이빙 PHP와 Python : 그들의 역사에 깊은 다이빙 Apr 18, 2025 am 12:25 AM

    PHP는 1994 년에 시작되었으며 Rasmuslerdorf에 의해 개발되었습니다. 원래 웹 사이트 방문자를 추적하는 데 사용되었으며 점차 서버 측 스크립팅 언어로 진화했으며 웹 개발에 널리 사용되었습니다. Python은 1980 년대 후반 Guidovan Rossum에 의해 개발되었으며 1991 년에 처음 출시되었습니다. 코드 가독성과 단순성을 강조하며 과학 컴퓨팅, 데이터 분석 및 기타 분야에 적합합니다.

    터미널 VSCODE에서 프로그램을 실행하는 방법 터미널 VSCODE에서 프로그램을 실행하는 방법 Apr 15, 2025 pm 06:42 PM

    vs 코드에서는 다음 단계를 통해 터미널에서 프로그램을 실행할 수 있습니다. 코드를 준비하고 통합 터미널을 열어 코드 디렉토리가 터미널 작업 디렉토리와 일치하는지 확인하십시오. 프로그래밍 언어 (예 : Python의 Python Your_file_name.py)에 따라 실행 명령을 선택하여 성공적으로 실행되는지 여부를 확인하고 오류를 해결하십시오. 디버거를 사용하여 디버깅 효율을 향상시킵니다.

    Windows 8에서 코드를 실행할 수 있습니다 Windows 8에서 코드를 실행할 수 있습니다 Apr 15, 2025 pm 07:24 PM

    VS 코드는 Windows 8에서 실행될 수 있지만 경험은 크지 않을 수 있습니다. 먼저 시스템이 최신 패치로 업데이트되었는지 확인한 다음 시스템 아키텍처와 일치하는 VS 코드 설치 패키지를 다운로드하여 프롬프트대로 설치하십시오. 설치 후 일부 확장은 Windows 8과 호환되지 않을 수 있으며 대체 확장을 찾거나 가상 시스템에서 새로운 Windows 시스템을 사용해야합니다. 필요한 연장을 설치하여 제대로 작동하는지 확인하십시오. Windows 8에서는 VS 코드가 가능하지만 더 나은 개발 경험과 보안을 위해 새로운 Windows 시스템으로 업그레이드하는 것이 좋습니다.

    VScode 확장자가 악의적입니까? VScode 확장자가 악의적입니까? Apr 15, 2025 pm 07:57 PM

    VS 코드 확장은 악의적 인 코드 숨기기, 취약성 악용 및 합법적 인 확장으로 자위하는 등 악성 위험을 초래합니다. 악의적 인 확장을 식별하는 방법에는 게시자 확인, 주석 읽기, 코드 확인 및주의해서 설치가 포함됩니다. 보안 조치에는 보안 인식, 좋은 습관, 정기적 인 업데이트 및 바이러스 백신 소프트웨어도 포함됩니다.

    See all articles