超詳細的python常見面試題

不言
發布: 2020-09-03 15:25:45
轉載
15923 人瀏覽過

超詳細的python常見面試題

這篇文章帶給大家的內容是關於超詳細的python常見面試題,有一定的參考價值,有需要的朋友可以參考一下,希望對你有幫助。

相關文章推薦:《2020年python面試題總結(最新)

#1、大數據的檔案讀取

① 利用生成器generator

②迭代器進行迭代遍歷:for line in file

#2、迭代器和生成器的區別

1)迭代器是一個更抽象的概念,任何對象,如果它的類別有next方法和iter方法返回自己本身。對於string、list、dict、tuple等這類容器對象,使用for迴圈遍歷是很方便的。在後台for語句對容器物件呼叫iter()函數,iter()是python的內建函數。 iter()會傳回定義了next()方法的迭代器對象,它在容器中逐一存取容器內元素,next()也是python的內建函數。在沒有後續元素時,next()會拋出一個StopIteration異常

2)生成器(Generator)是創建迭代器的簡單而強大的工具。它們寫起來就像是正規的函數,只是在需要傳回資料的時候使用yield語句。每次next()被呼叫時,生成器會傳回它脫離的位置(它記憶語句最後一次執行的位置和所有的資料值)

區別:生成器能做到迭代器能做的所有事,而且因為自動創建了__iter__()和next()方法,生成器顯得特別簡潔,而且生成器也是高效的,使用生成器表達式取代列表解析可以同時節省內存。除了創建和保存程式狀態的自動方法,當發生器終結時,也會自動拋出StopIteration異常

#3、裝飾器的作用與功能:

引入日誌

函數執行時間統計

執行函數前預備處理

執行函數後的清理功能

權限校驗等場景

快取

4、簡單談下GIL:

#Global Interpreter Lock(全域解釋器鎖定)

Python程式碼的執行由Python 虛擬機(也叫解釋器主循環,CPython版本)來控制,Python 在設計之初就考慮到要在解釋器的主循環中,同時只有一個線程在執行,即在任意時刻,只有一個執行緒在解釋器中運行。對Python 虛擬機器的存取由全域解釋器鎖(GIL)來控制,正是這個鎖能保證同一時刻只有一個執行緒在運作。

在多執行緒環境中,Python 虛擬機器會以下列方式執行:

1.設定GIL

##2.切換到一個執行緒去執行

3.運行:

a. 指​​定數量的字節碼指令,或;b. 執行緒主動讓出控制(可以呼叫time.sleep(0))

4.把執行緒設定為睡眠狀態

5.解鎖GIL

6.再次重複以上所有步驟

在呼叫外部程式碼(如C/C 擴充函數)的時候,GIL 將會被鎖定,直到這個函數結束為止(由於在這段期間沒有Python 的字節碼被運行,所以不會做線程切換)。

5、find和grep

grep指令是一種強大的文字搜尋工具,grep搜尋內容串可以是正規表示式,允許對文字檔案進行模式查找。如果找到匹配模式,grep列印包含模式的所有行。

find通常用來再特定的目錄下搜尋符合條件的文件,也可以用來搜尋特定使用者屬主的文件。

6、線上服務可能因為種種原因導致掛掉怎麼辦?

linux下的後台程序管理利器supervisor

每次檔案修改後再linux執行service supervisord restart

7、如何提升python的執行效率

使用生成器;關鍵程式碼使用外部功能包(Cython,pylnlne,pypy,pyrex);針對循環的最佳化–盡量避免在循環中存取變數的屬性

#8、常用Linux指令:

ls,help,cd,more,clear,mkdir,pwd,rm,grep,find,mv,su,date

#9、Python中的yield用法

yield簡單說來就是一個生成器,這樣函數它會記得上次返回時在函數體內的位置。對生成器第 二次(或n 次)調用跳轉至該函 次)調用跳轉至該函 數。


10、Python是如何進行記憶體管理的

一、垃圾回收:python不像C ,Java等語言一樣,他們可以不用事先聲明變數類型而直接對變數進行賦值。對Python語言來講,物件的類型和記憶體都是在運行時決定的。這也是為什麼我們稱Python語言為動態類型的原因(這裡我們把動態類型可以簡單的歸結為對變數記憶體位址的分配是在運行時自動判斷變數類型並對變數進行賦值)。

二、引用計數:Python採用了類似Windows核心物件的方式來管理記憶體。每一個對象,都維護這一對指向該對對象的引用的計數。當變數被綁定在一個物件上的時候,該變數的參考計數就是1,(還有另外一些情況也會導致變數引用計數的增加),系統會自動維護這些標籤,並定時掃描,當某標籤的引用數變成0的時候,該對就會被回收。

三、記憶體池機制Python的記憶體機制以金字塔行,-1,-2層主要有作業系統進行操作,

第0層是C中的malloc,free等記憶體分配和釋放函數進行操作;

第1層和第2層是記憶體池,有Python的介面函數PyMem_Malloc函數實現,當物件小於256K時有該層直接分配記憶體;

第3層是最上層,也就是我們對Python物件的直接操作;

在C 中如果頻繁的調用malloc 與free 時,是會產生性能問題的.再加上頻繁的分配與釋放小塊的記憶體會產生記憶體碎片. Python 在這裡主要乾的工作有:

如果請求分配的內存在1~256位元組之間就使用自己的記憶體管理系統,否則直接使用malloc .

這裡還是會呼叫malloc 分配記憶體,但每次會分配一塊大小為256k的大塊記憶體.

經由記憶體池登記的記憶體到最後還是會回收到記憶體池,並不會呼叫C 的free 釋放掉.以便下次使用.對於簡單的Python對象,例如數值、字串,元組(tuple不允許被更改)採用的是複製的方式(深拷貝?),也就是說當另一個變數B賦值給變數A時,雖然A和B的記憶體空間仍然相同,但當A的值改變時,會重新給A分配空間,A和B的位址變得不再相同

11、描述陣列、鍊錶、佇列、堆疊的差別?

陣列與鍊錶是資料儲存方式的概念,陣列在連續的空間中儲存數據,而鍊錶可以在非連續的空間中儲存資料;

佇列和堆疊是描述資料存取方式的概念,佇列是先進先出,而堆疊是後進先出;佇列和堆疊可以用陣列來實現,也可以用鍊錶實作。

12、你知道幾種排序,講一講你最熟悉的一種?

web框架部分

#1.django 中當一個使用者登入A 應用程式伺服器(進入登入狀態),然後下次請求被nginx 代理到B 應用伺服器會出現什麼影響?

如果使用者在A應用伺服器登陸的session資料沒有共享到B應用伺服器,奈米之前的登入狀態就沒有了。

2.跨網域請求問題django怎麼解決的(原理)
啟用中間件
post請求
驗證碼
表單中新增{%csrf_token%}標籤

3.請解釋或描述Django的架構

對於Django框架遵循MVC設計,並且有一個專有名詞:MVT
M全拼為Model,與MVC中的M功能相同,負責資料處理,內嵌了ORM框架
V全拼為View,與MVC中的C功能相同,接收HttpRequest,業務處理,返回HttpResponse
T全拼為Template,與MVC中的V功能相同,負責封裝構造要回傳的html,內嵌了模板引擎

4.django對資料查詢結果排序怎麼做,降序怎麼做,查詢大於某個欄位怎麼做
排序使用order_by( )
降序需要在排序欄位名稱前加上-
查詢欄位大於某個值:使用filter(欄位名稱_gt=值)

5.說一下Django,MIDDLEWARES中間件的作用?
中間件是介於request與response處理之間的一道處理過程,相對比較輕量級,並且在全局上改變django的輸入與輸出。

6.你對Django的認知?
Django是走大而全的方向,它最出名的是其全自動化的管理後台:只需要使用起ORM,做簡單的物件定義,它就能自動生成資料庫結構、以及全功能的管理後台。
Django內建的ORM跟框架內的其他模組耦合程度高。

應用程式必須使用Django內建的ORM,否則就不能享受到框架內提供的種種基於其ORM的便利;理論上可以切換掉其ORM模組,但這就相當於要把裝修完畢的房子拆除重新裝修,不如一開始就去毛胚房做全新的裝修。

Django的賣點是超高的開發效率,其性能擴展有限;採用Django的項目,在流量達到一定規模後,都需要對其進行重構,才能滿足性能的要求。

Django適用的是中小型的網站,或是作為大型網站快速實現產品雛形的工具。

Django模板的設計哲學是徹底的將程式碼、樣式分開;Django從根本上杜絕在模板中進行編碼、處理資料的可能。

7.Django重定向你是如何實現的?用的什麼狀態碼?
使用HttpResponseRedirect
redirect與reverse
狀態碼:302,301

8.ngnix的正向代理程式與反向代理程式?
正向代理程式是位於客戶端和原始伺服器(origin server)之間的伺服器,為了從原始伺服器取得內容,客戶端向代理程式傳送一個請求並指定目標(原始伺服器),然後代理程式向原始伺服器轉交請求並將獲得的內容傳回給客戶端。客戶端必須要進行一些特別的設定才能使用正向代理。
反向代理正好相反,對於客戶端而言它就像是原始伺服器,並且客戶端不需要進行任何特別的設定。客戶端向反向代理的命名空間中的內容發送普通請求,接著反向代理將判斷向何處(原始伺服器)轉交請求,並將獲得的內容返回給客戶端,就像這些內容原本就是它自己的一樣。

9.Tornado 的核是什麼?
Tornado 的核心是 ioloop 和 iostream 這兩個模組,前者提供了一個高效的 I/O 事件循環,後者則封裝了 一個無阻塞的 socket 。透過在 ioloop 中加入網路 I/O 事件,利用無阻塞的 socket ,再搭配對應的回呼 函數,便可達到夢寐以求的高效非同步執行。

10.Django 本身提供了 runserver,為什麼不能用來部署?
runserver 方法是調試 Django 時常用到的運行方式,它使用 Django 自帶的
WSGI Server 運行,主要在測試和開發中使用,並且 runserver 開啟的方式也是單進程 。
uWSGI 是一個 Web 伺服器,它實作了 WSGI 協定、uwsgi、http 等協定。注意 uwsgi 是一種通訊協議,而 uWSGI 是實作 uwsgi 協定和 WSGI 協定的 Web 伺服器。 uWSGI 具有超快的效能、低記憶體佔用和多 app 管理等優點,並且搭配 Nginx
就是一個生產環境了,能夠將使用者存取請求與應用 app 隔離開,實現真正的部署 。相較來講,支援的並發量更高,方便管理多進程,發揮多核心的優勢,提升效能。

網路程式設計與前端部分

1.AJAX是什麼,如何使用AJAX?
ajax(非同步的javascript 和xml) 能夠刷新局部網頁資料而不是重新載入整個網頁。
第一步,建立xmlhttprequest對象,var xmlhttp =new XMLHttpRequest();XMLHttpRequest對像用來和伺服器交換資料。
第二步,使用xmlhttprequest物件的open()和send()方法發送資源請求給伺服器。
第三步,使用xmlhttprequest物件的responseText或responseXML屬性來獲得伺服器的回應。
第四步,onreadystatechange函數,當發送請求到伺服器,我們想要伺服器回應執行一些功能就需要使用onreadystatechange函數,每次xmlhttprequest物件的readyState發生變更都會觸發onreadystatechange函數。

2.常見的HTTP狀態碼有哪些?

200 OK
301 Moved Permanently
302 Found
304 Not Modified
307 Temporary Redirect
400 Bad Request
401 Unauthorized
403 Forbidden
404 Not Found
410 Gone
500 Internal Server Error
501 Not Implemented

#3.Post和get區別?

GET請求,請求的數據會附加在URL之後,以?分割URL和傳輸數據,多個參數用&連接。 URL的編碼格式採用的是ASCII編碼,而不是uniclde,即是說所有的非ASCII字元都要編碼之後再傳輸。
POST請求:POST請求會把請求的資料放置在HTTP請求包的包體中。上面的item=bandsaw就是實際的傳輸資料。
因此,GET要求的資料會暴露在網址列中,而POST請求則不會。

2、傳輸資料的大小

在HTTP規格中,沒有對URL的長度和傳輸的資料大小進行限制。但是在實際開發過程中,對於GET,特定的瀏覽器和伺服器對URL的長度有限制。因此,在使用GET請求時,傳輸資料會受到URL長度的限制。

對於POST,由於不是URL傳值,理論上是不會受限的,但是實際上各個伺服器會規定對POST提交資料大小進行限制,Apache、IIS都有各自的設定。

3、安全性

POST的安全性比GET的高。這裡的安全是指真正的安全,而不同於上面GET提到的安全方法中的安全,上述的安全只是不修改伺服器的資料。例如,在進行登入操作,透過GET請求,使用者名稱和密碼都會暴露再URL上,因為登入頁面有可能被瀏覽器快取以及其他人查看瀏覽器的歷史記錄的原因,此時的使用者名稱和密碼就很容易被他人拿到了。除此之外,GET請求提交的資料還可能造成Cross-site request frogery攻擊。

4.cookie 和session 的差別?

1、cookie資料存放在客戶的瀏覽器上,session資料放在伺服器上。
2、cookie不是很安全,別人可以分析存放在本地的COOKIE並進行COOKIE欺騙考慮到安全應當使用session。
3、session會在一定時間內保存在伺服器上。當訪問增多,會比較佔用伺服器的效能考慮到減輕伺服器效能方面,應使用COOKIE。
4、單一cookie儲存的資料不能超過4K,很多瀏覽器都限制一個網站最多儲存20個cookie。
5、建議:
將登陸資訊等重要資訊存放為SESSION
其他資訊如果需要保留,可以放在COOKIE中

5.建立一個簡單tcp伺服器需要的流程

1.socket建立一個套接字
2.bind綁定ip和port
3.listen使套接字變成可以被動連結
4. accept等待客戶端的連結
5.recv/send接收發送資料

爬蟲和資料庫部分

1、scrapy和scrapy-redis有什麼不同?為什麼選擇redis資料庫?

(1)scrapy是一個Python爬蟲框架,爬取效率極高,具有高度客製化,但不支援分散式。而scrapy-redis一套基於redis資料庫、運行在scrapy框架之上的元件,可以讓scrapy支援分散式策略,Slaver端共享Master端redis資料庫裡的item佇列、請求佇列和請求指紋集合。

(2)為什麼選擇redis資料庫,因為redis支援主從同步,而且資料都是緩存在記憶體中的,所以基於redis的分散式爬蟲,對請求和資料的高頻讀取效率非常高。

2、你用過的爬蟲框架或模組有哪些?談談他們的差異或優缺點?
Python自備:urllib,urllib2
第 三 方:requests
框    架:Scrapy
urllib和urllib2模組都做與請求URL相關的操作,但他們提供不同的功能。
urllib2.:urllib2.urlopen可以接受一個Request物件或url,(在接受Request物件時候,並以此可以來設定一個URL 的headers),urllib.urlopen只接收一個url
urllib 有urlencode, urllib2沒有,因此總是urllib,urllib2常會一起使用的原因
scrapy是封裝起來的框架,他包含了下載器,解析器,日誌及異常處理,基於多線程, twisted的方式處理,對於固定單個網站的爬取開發,有優勢,但對於多網站爬取100個網站,並發及分散式處理方面,不夠靈活,不便調整與括展。

request 是一個HTTP庫, 它只是用來,進行請求,對於HTTP請求,他是一個強大的庫,下載,解析全部自己處理,靈活性更高,高並發與分佈式部署也非常靈活,對於功能可以更好實現.

Scrapy優缺點:

#優點:scrapy 是異步的

採取可讀性更強的xpath代替正規

強大的統計和log系統

同時在不同的url上爬行

支援shell方式,方便獨立調試

寫middleware,方便寫一些統一的過濾器

透過管道的方式存入資料庫

缺點:基於python的爬蟲框架,擴展性比較差

基於twisted框架,運行中的exception是不會幹掉reactor,而非同步框架出錯後是不會停掉其他任務的,資料出錯後難以察覺。

3.你常用的mysql引擎有哪些?各引擎間有什麼差別?

主要 MyISAM 與 InnoDB 兩個引擎,其主要差異如下:

一、InnoDB 支援事務,MyISAM 不支持,這一點是非常之重要。交易是一種高

等級的處理方式,如在一些列增刪改中只要哪個出錯還可以回滾還原,而MyISAM

就不可以了;

二、MyISAM 適合查詢以及插入為主的應用,InnoDB 適合頻繁修改以及涉及到

#安全性較高的應用;

三、InnoDB 支援外鍵,MyISAM 不支援;

四、MyISAM 是預設引擎,InnoDB 需要指定;

五、InnoDB 不支援FULLTEXT 類型的索引;

六、InnoDB 中不儲存表格的行數,如select count(*) from table 時,InnoDB;需要

掃描一遍整個表來計算有多少行,但是MyISAM 只要簡單的讀出保存好的行數即

可。注意的是,當count(*)語句包含where 條件時MyISAM 也需要掃描整個表;

七、對於自增長的字段,InnoDB 中必須包含只有該字段的索引,但是在MyISAM

表中可以和其他欄位一起建立聯合索引;

八、清空整個資料表時,InnoDB 是一行一行的刪除,效率非常慢。 MyISAM 則會重

建表;

九、InnoDB 支援行鎖(某些情況還是鎖整表,如update table set a=1 where

#user like '%lee%'

4.描述下scrapy框架運作的機制?

從start_urls取得第一批url並傳送請求,請求由引擎交給調度器入請求佇列,取得完畢後,調度器將請求佇列裡的請求交給下載器去取得請求對應的回應資源,並將回應交給自己編寫的解析方法做提取處理:1. 如果提取出需要的數據,則交給管道文件處理;2. 如果提取出url,則繼續執行之前的步驟(發送url請求,並由引擎將請求交給調度器入佇列…),直到請求佇列裡沒有請求,程式結束。

5.什麼是關聯查詢,有哪些?

將多個表聯合起來進行查詢,主要有內連接、左連接、右連接、全連接(外連接)

6.寫爬蟲是用多進程好?還是多執行緒好?為什麼?

IO密集型程式碼(檔案處理、網路爬蟲等),多執行緒能夠有效提升效率(單執行緒下有IO操作會進行IO等待,造成不必要的時間浪費,而開啟多線程能在線程A等待時,自動切換到線程B,可以不浪費CPU的資源,從而能提升程式執行效率)。在實際的資料收集過程中,既考慮網速和回應的問題,也需要考慮自身機器的硬體情況,來設定多進程或多執行緒

7.資料庫的最佳化?

1.最佳化索引、SQL 語句、分析慢查詢;

2.設計表的時候嚴格地根據資料庫的設計範式來設計資料庫;

3 .使用緩存,把經常存取到的資料而且不需要經常變化的資料放在快取中,能

節省磁碟IO;

4.優化硬體;採用SSD,使用磁碟佇列技術(RAID0,RAID1,RDID5)等;

5.採用MySQL 內部自帶的表格分割技術,將資料分層不同的文件,能夠提高磁

磁碟的讀取效率;

6.垂直分錶;把一些不常讀的資料放在一張表裡,節約磁碟I/O;

7.主從分離讀寫;採用主從複製把資料庫的讀取操作和寫入操作分開;

8.分庫分錶分機器(資料量特別大),主要的原理就是資料路由;

9 .選擇合適的表引擎,參數上的優化;

10.進行架構級別的緩存,靜態化和分佈式;

11.不採用全文索引;

12.採用更快的儲存方式,例如NoSQL儲存經常存取的資料

8.常見的反爬蟲和應對方法?

1).透過Headers反爬蟲

從使用者要求的Headers反爬蟲是最常見的反爬蟲策略。很多網站都會對Headers的User-Agent進行偵測,還有一部分網站會對Referer進行偵測(有些資源網站的防盜鏈就是偵測Referer)。如果遇到了這類反爬蟲機制,可以直接在爬蟲中加入Headers,將瀏覽器的User-Agent複製到爬蟲的Headers;或將Referer值修改為目標網站網域。對於檢測Headers的反爬蟲,在爬蟲中修改或添加Headers就能很好的繞過。

2).基於使用者行為反爬蟲

還有一部分網站是透過偵測使用者行為,例如在同一IP短時間內多次造訪同一頁面,或是在同一帳戶短時間內多次進行相同操作。

大多數網站都是前一種情況,對於這種情況,使用IP代理就可以解決。可以專門寫一個爬蟲,爬取網路上公開的代理ip,偵測後全部保存起來。這樣的代理ip爬蟲常常會用到,最好自己準備一個。有了大量代理ip後可以每請求幾次更換一個ip,這在requests或urllib2中很容易做到,這樣就能很容易的繞過第一種反爬蟲。

對於第二種情況,可以在每次請求後隨機間隔幾秒鐘再進行下一次請求。有些有邏輯漏洞的網站,可以透過要求幾次,退出登錄,重新登錄,繼續請求來繞過同一帳號短時間內不能多次進行相同請求的限制。

3).動態頁面的反爬蟲

上述的幾種情況大多都是出現在靜態頁面,還有一部分網站,我們需要爬取的資料是透過ajax請求得到,或透過JavaScript產生的。首先用Fiddler對網路請求進行分析。如果能夠找到ajax請求,也能分析出具體的參數和回應的具體意義,我們就能採用上面的方法,直接利用requests或urllib2模擬ajax請求,對回應的json進行分析得到需要的資料。

能夠直接模擬ajax請求獲取資料固然是極好的,但是有些網站把ajax請求的所有參數全部加密了。我們根本沒辦法建構自己所需要的資料的請求。這種情況下就用selenium phantomJS,呼叫瀏覽器內核,並利用phantomJS執行js來模擬人為操作以及觸發頁面中的js腳本。從填寫表單到點擊按鈕再到滾動頁面,全部都可以模擬,不考慮具體的請求和回應過程,只是完完整整的把人瀏覽頁面獲取數據的過程模擬一遍。

用這套框架幾乎能繞過大多數的反爬蟲,因為它不是在偽裝成瀏覽器來獲取數據(上述的通過添加Headers一定程度上就是為了偽裝成瀏覽器),它本身就是瀏覽器,phantomJS就是一個沒有介面的瀏覽器,只是操控這個瀏覽器的不是人。利selenium phantomJS能幹很多事情,例如識別點觸式(12306)或滑動式的驗證碼,對頁面表單進行暴力破解等。

9.分散式爬蟲主要解決什麼問題?

1)ip

2)頻寬

3)cpu

4)io

10.爬蟲過程中驗證碼怎麼處理?

1.scrapy自帶

2.付費介面

#相關學習推薦:python影片教學    

以上是超詳細的python常見面試題的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:csdn.net
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!