數(shù)據(jù)采集1+x中級(jí)模擬題+答案_第1頁
數(shù)據(jù)采集1+x中級(jí)模擬題+答案_第2頁
數(shù)據(jù)采集1+x中級(jí)模擬題+答案_第3頁
數(shù)據(jù)采集1+x中級(jí)模擬題+答案_第4頁
數(shù)據(jù)采集1+x中級(jí)模擬題+答案_第5頁
已閱讀5頁,還剩21頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

數(shù)據(jù)采集1+x中級(jí)模擬題+答案一、單選題(每題2分,共30分)1.在Python中,使用`requests`庫發(fā)送GET請(qǐng)求,以下代碼正確的是()A.```pythonimportrequestsresponse=requests.get('')```B.```pythonimportrequestresponse=request.get('')```C.```pythonimportrequestsresponse=requests.post('')```D.```pythonimportrequestsresponse=requests.put('')```答案:A。在Python中使用`requests`庫發(fā)送GET請(qǐng)求,正確的導(dǎo)入庫方式是`importrequests`,然后使用`requests.get()`方法,B選項(xiàng)導(dǎo)入錯(cuò)誤,C選項(xiàng)`post`是發(fā)送POST請(qǐng)求,D選項(xiàng)`put`是發(fā)送PUT請(qǐng)求。2.正則表達(dá)式`\d{3}-\d{4}`可以匹配以下哪個(gè)字符串()A.123-4567B.1234567C.abc-defgD.12-3456答案:A。正則表達(dá)式`\d{3}-\d{4}`表示匹配三個(gè)數(shù)字、一個(gè)連字符、四個(gè)數(shù)字的字符串。B選項(xiàng)沒有連字符,C選項(xiàng)包含字母不符合`\d`(匹配數(shù)字)規(guī)則,D選項(xiàng)前面只有兩個(gè)數(shù)字不符合`\d{3}`規(guī)則。3.在MySQL中,以下哪種語句用于創(chuàng)建數(shù)據(jù)庫()A.`CREATETABLE`B.`CREATEDATABASE`C.`ALTERDATABASE`D.`DROPDATABASE`答案:B。`CREATETABLE`用于創(chuàng)建表,`CREATEDATABASE`用于創(chuàng)建數(shù)據(jù)庫,`ALTERDATABASE`用于修改數(shù)據(jù)庫,`DROPDATABASE`用于刪除數(shù)據(jù)庫。4.以下關(guān)于XPath的說法,錯(cuò)誤的是()A.XPath是一種在XML文檔中查找信息的語言B.可以使用XPath定位HTML文檔中的元素C.XPath表達(dá)式必須從根節(jié)點(diǎn)開始查找D.可以使用`//`來進(jìn)行相對(duì)查找答案:C。XPath是一種在XML文檔中查找信息的語言,也可用于定位HTML文檔中的元素,`//`可用于相對(duì)查找,XPath表達(dá)式不一定要從根節(jié)點(diǎn)開始查找,可以使用相對(duì)路徑進(jìn)行查找。5.若要從網(wǎng)頁中提取所有的鏈接(`<a>`標(biāo)簽的`href`屬性),在Python中使用`BeautifulSoup`庫,以下代碼正確的是()A.```pythonfrombs4importBeautifulSoupimportrequestsurl=''response=requests.get(url)soup=BeautifulSoup(response.text,'html.parser')links=[a['href']forainsoup.find_all('a')if'href'ina.attrs]```B.```pythonfrombs4importBeautifulSoupimportrequestsurl=''response=requests.get(url)soup=BeautifulSoup(response.text,'html.parser')links=[a.hrefforainsoup.find_all('a')]```C.```pythonfrombs4importBeautifulSoupimportrequestsurl=''response=requests.get(url)soup=BeautifulSoup(response.text,'html.parser')links=[a['href']forainsoup.find_all('a')]```D.```pythonfrombs4importBeautifulSoupimportrequestsurl=''response=requests.get(url)soup=BeautifulSoup(response.text,'html.parser')links=[a.attrs['href']forainsoup.find_all('a')]```答案:A。在提取`<a>`標(biāo)簽的`href`屬性時(shí),需要先判斷`a`標(biāo)簽是否有`href`屬性,否則可能會(huì)引發(fā)`KeyError`。B選項(xiàng)`a.href`寫法錯(cuò)誤,C和D選項(xiàng)沒有進(jìn)行屬性判斷。6.在MongoDB中,以下哪個(gè)操作是用于插入一條文檔到集合中的()A.`insertOne()`B.`findOne()`C.`updateOne()`D.`deleteOne()`答案:A。`insertOne()`用于插入一條文檔到集合中,`findOne()`用于查找一條文檔,`updateOne()`用于更新一條文檔,`deleteOne()`用于刪除一條文檔。7.以下關(guān)于數(shù)據(jù)采集的說法,錯(cuò)誤的是()A.數(shù)據(jù)采集可以從網(wǎng)頁、數(shù)據(jù)庫、文件等多種數(shù)據(jù)源獲取數(shù)據(jù)B.數(shù)據(jù)采集過程中不需要考慮數(shù)據(jù)的合法性和合規(guī)性C.反爬蟲機(jī)制會(huì)對(duì)數(shù)據(jù)采集造成一定的阻礙D.可以使用代理IP來繞過部分反爬蟲限制答案:B。數(shù)據(jù)采集過程中必須考慮數(shù)據(jù)的合法性和合規(guī)性,要遵守相關(guān)法律法規(guī)和網(wǎng)站的使用條款。A選項(xiàng),數(shù)據(jù)采集的數(shù)據(jù)源是多樣的;C選項(xiàng),反爬蟲機(jī)制是網(wǎng)站為了防止惡意采集數(shù)據(jù)設(shè)置的,會(huì)對(duì)數(shù)據(jù)采集造成阻礙;D選項(xiàng),使用代理IP可以隱藏真實(shí)IP,繞過部分反爬蟲限制。8.在Python中,使用`selenium`庫模擬瀏覽器操作,以下代碼用于打開一個(gè)網(wǎng)頁的是()A.```pythonfromseleniumimportwebdriverdriver=webdriver.Chrome()driver.get('')```B.```pythonfromseleniumimportwebdriverdriver=webdriver.Chrome()driver.post('')```C.```pythonfromseleniumimportwebdriverdriver=webdriver.Chrome()driver.navigate('')```D.```pythonfromseleniumimportwebdriverdriver=webdriver.Chrome()driver.send('')```答案:A。在`selenium`中,使用`driver.get()`方法可以打開指定的網(wǎng)頁,B選項(xiàng)`post`方法不存在,C選項(xiàng)`navigate`通常需要配合`to`方法使用,D選項(xiàng)`send`方法也不符合打開網(wǎng)頁的用法。9.若要對(duì)采集到的JSON數(shù)據(jù)進(jìn)行解析,在Python中可以使用()A.`json.loads()`B.`json.dumps()`C.`xml.etree.ElementTree`D.`re`答案:A。`json.loads()`用于將JSON字符串解析為Python對(duì)象,`json.dumps()`用于將Python對(duì)象轉(zhuǎn)換為JSON字符串,`xml.etree.ElementTree`用于處理XML數(shù)據(jù),`re`是正則表達(dá)式模塊,用于字符串匹配。10.在Scrapy框架中,以下哪個(gè)是用于定義爬蟲規(guī)則的類()A.`Spider`B.`CrawlSpider`C.`Item`D.`Pipeline`答案:B。`CrawlSpider`是Scrapy中用于定義爬蟲規(guī)則的類,`Spider`是Scrapy中最基本的爬蟲類,`Item`用于定義要爬取的數(shù)據(jù)結(jié)構(gòu),`Pipeline`用于處理爬取到的數(shù)據(jù)。11.以下哪種數(shù)據(jù)格式適合存儲(chǔ)結(jié)構(gòu)化數(shù)據(jù)()A.JSONB.XMLC.CSVD.以上都是答案:D。JSON、XML和CSV都適合存儲(chǔ)結(jié)構(gòu)化數(shù)據(jù)。JSON以鍵值對(duì)的形式存儲(chǔ)數(shù)據(jù),易于解析和處理;XML具有良好的結(jié)構(gòu)和擴(kuò)展性;CSV以逗號(hào)分隔值,適合存儲(chǔ)表格形式的結(jié)構(gòu)化數(shù)據(jù)。12.在Python中,要實(shí)現(xiàn)定時(shí)任務(wù)采集數(shù)據(jù),可以使用()A.`time.sleep()`B.`schedule`庫C.`asyncio`庫D.以上都可以答案:D。`time.sleep()`可以簡單地實(shí)現(xiàn)定時(shí)任務(wù),通過在代碼中設(shè)置休眠時(shí)間來控制采集間隔;`schedule`庫是專門用于定時(shí)任務(wù)的庫,提供了更豐富的定時(shí)功能;`asyncio`庫可以實(shí)現(xiàn)異步定時(shí)任務(wù),提高程序的效率。13.若要從一個(gè)HTML表格中提取數(shù)據(jù),使用`BeautifulSoup`庫,以下步驟正確的是()1.找到表格元素2.遍歷表格的每一行3.遍歷每一行的每一個(gè)單元格4.提取單元格中的文本A.1->2->3->4B.2->1->3->4C.3->2->1->4D.4->3->2->1答案:A。首先要找到表格元素,然后遍歷表格的每一行,接著遍歷每一行的每一個(gè)單元格,最后提取單元格中的文本。14.在MySQL中,以下哪種語句用于查詢表中的所有記錄()A.`SELECTFROMtable_name`B.`INSERTINTOtable_nameVALUES(...)`C.`UPDATEtable_nameSETcolumn=valueWHEREcondition`D.`DELETEFROMtable_nameWHEREcondition`答案:A。`SELECTFROMtable_name`用于查詢表中的所有記錄,`INSERTINTOtable_nameVALUES(...)`用于插入記錄,`UPDATEtable_nameSETcolumn=valueWHEREcondition`用于更新記錄,`DELETEFROMtable_nameWHEREcondition`用于刪除記錄。15.以下關(guān)于代理IP的說法,錯(cuò)誤的是()A.代理IP可以隱藏真實(shí)IP地址B.免費(fèi)代理IP的穩(wěn)定性和可用性通常較高C.代理IP可以用于繞過部分反爬蟲限制D.可以使用代理池來管理多個(gè)代理IP答案:B。免費(fèi)代理IP的穩(wěn)定性和可用性通常較低,因?yàn)樗鼈兛赡鼙淮罅渴褂茫菀妆环饨宜俣群唾|(zhì)量也難以保證。A選項(xiàng),代理IP可以隱藏真實(shí)IP;C選項(xiàng),代理IP可用于繞過反爬蟲限制;D選項(xiàng),使用代理池可以管理多個(gè)代理IP并提高可用性。二、多選題(每題3分,共30分)1.以下屬于數(shù)據(jù)采集常用工具和技術(shù)的有()A.Python的`requests`庫B.`BeautifulSoup`庫C.`Scrapy`框架D.`Selenium`庫答案:ABCD。`requests`庫用于發(fā)送HTTP請(qǐng)求,`BeautifulSoup`庫用于解析HTML和XML文檔,`Scrapy`是一個(gè)強(qiáng)大的爬蟲框架,`Selenium`庫用于模擬瀏覽器操作,它們都是數(shù)據(jù)采集常用的工具和技術(shù)。2.以下哪些反爬蟲機(jī)制會(huì)對(duì)數(shù)據(jù)采集造成影響()A.IP封禁B.驗(yàn)證碼C.動(dòng)態(tài)頁面D.請(qǐng)求頻率限制答案:ABCD。IP封禁會(huì)禁止特定IP訪問網(wǎng)站;驗(yàn)證碼需要人工識(shí)別或使用OCR技術(shù)處理;動(dòng)態(tài)頁面的數(shù)據(jù)可能需要使用`Selenium`等工具才能獲取;請(qǐng)求頻率限制會(huì)限制單位時(shí)間內(nèi)的請(qǐng)求次數(shù)。3.在Python中,使用`requests`庫發(fā)送請(qǐng)求時(shí),可以設(shè)置的參數(shù)有()A.`headers`B.`params`C.`data`D.`timeout`答案:ABCD。`headers`用于設(shè)置請(qǐng)求頭,`params`用于設(shè)置GET請(qǐng)求的參數(shù),`data`用于設(shè)置POST請(qǐng)求的數(shù)據(jù),`timeout`用于設(shè)置請(qǐng)求超時(shí)時(shí)間。4.以下關(guān)于MongoDB的說法,正確的有()A.MongoDB是一種非關(guān)系型數(shù)據(jù)庫B.MongoDB以文檔形式存儲(chǔ)數(shù)據(jù)C.MongoDB的數(shù)據(jù)模型是面向集合的D.MongoDB支持事務(wù)操作答案:ABC。MongoDB是一種非關(guān)系型數(shù)據(jù)庫,以文檔(JSON格式)形式存儲(chǔ)數(shù)據(jù),數(shù)據(jù)模型是面向集合的。在早期版本中MongoDB不支持事務(wù)操作,但從4.0版本開始支持多文檔事務(wù)。5.在Scrapy框架中,以下組件的作用正確的有()A.`Spider`:負(fù)責(zé)定義爬蟲的邏輯和規(guī)則B.`Scheduler`:負(fù)責(zé)調(diào)度請(qǐng)求C.`Downloader`:負(fù)責(zé)下載網(wǎng)頁內(nèi)容D.`Pipeline`:負(fù)責(zé)處理爬取到的數(shù)據(jù)答案:ABCD。`Spider`定義爬蟲的邏輯和規(guī)則,`Scheduler`調(diào)度請(qǐng)求,`Downloader`下載網(wǎng)頁內(nèi)容,`Pipeline`處理爬取到的數(shù)據(jù)。6.以下可以用于解析HTML文檔的庫有()A.`BeautifulSoup`B.`lxml`C.`Scrapy`D.`Selenium`答案:AB。`BeautifulSoup`和`lxml`都可以用于解析HTML文檔,`Scrapy`是一個(gè)爬蟲框架,`Selenium`主要用于模擬瀏覽器操作。7.在MySQL中,以下關(guān)于數(shù)據(jù)類型的說法,正確的有()A.`INT`用于存儲(chǔ)整數(shù)B.`VARCHAR`用于存儲(chǔ)可變長度的字符串C.`DATE`用于存儲(chǔ)日期D.`FLOAT`用于存儲(chǔ)浮點(diǎn)數(shù)答案:ABCD。`INT`是整數(shù)類型,`VARCHAR`是可變長度字符串類型,`DATE`用于存儲(chǔ)日期,`FLOAT`用于存儲(chǔ)浮點(diǎn)數(shù)。8.以下關(guān)于正則表達(dá)式的說法,正確的有()A.`^`表示匹配字符串的開頭B.`$`表示匹配字符串的結(jié)尾C.`.`表示匹配任意字符(除換行符外)D.``表示匹配前面的元素零次或多次答案:ABCD。`^`用于匹配字符串的開頭,`$`用于匹配字符串的結(jié)尾,`.`匹配任意字符(除換行符外),``匹配前面的元素零次或多次。9.若要對(duì)采集到的數(shù)據(jù)進(jìn)行存儲(chǔ),以下可以選擇的有()A.MySQL數(shù)據(jù)庫B.MongoDB數(shù)據(jù)庫C.CSV文件D.Excel文件答案:ABCD。MySQL是關(guān)系型數(shù)據(jù)庫,MongoDB是非關(guān)系型數(shù)據(jù)庫,CSV文件和Excel文件都可以用于存儲(chǔ)數(shù)據(jù)。10.在Python中,使用`selenium`庫時(shí),可以使用的瀏覽器驅(qū)動(dòng)有()A.ChromeDriverB.GeckoDriver(Firefox)C.IEDriverServer(InternetExplorer)D.EdgeDriver(MicrosoftEdge)答案:ABCD。`selenium`支持多種瀏覽器,對(duì)應(yīng)的瀏覽器驅(qū)動(dòng)分別為ChromeDriver(Chrome瀏覽器)、GeckoDriver(Firefox瀏覽器)、IEDriverServer(InternetExplorer瀏覽器)、EdgeDriver(MicrosoftEdge瀏覽器)。三、判斷題(每題2分,共20分)1.數(shù)據(jù)采集只能從網(wǎng)頁上獲取數(shù)據(jù)。()答案:錯(cuò)誤。數(shù)據(jù)采集可以從網(wǎng)頁、數(shù)據(jù)庫、文件、傳感器等多種數(shù)據(jù)源獲取數(shù)據(jù)。2.在Python中,`requests`庫只能發(fā)送GET請(qǐng)求。()答案:錯(cuò)誤。`requests`庫可以發(fā)送多種類型的請(qǐng)求,如GET、POST、PUT、DELETE等。3.正則表達(dá)式`\w`可以匹配字母、數(shù)字和下劃線。()答案:正確。`\w`是正則表達(dá)式中的元字符,用于匹配字母、數(shù)字和下劃線。4.在MySQL中,`DROPTABLE`語句用于刪除數(shù)據(jù)庫。()答案:錯(cuò)誤。`DROPTABLE`語句用于刪除表,`DROPDATABASE`語句用于刪除數(shù)據(jù)庫。5.`BeautifulSoup`庫只能解析HTML文檔,不能解析XML文檔。()答案:錯(cuò)誤。`BeautifulSoup`庫可以解析HTML和XML文檔。6.在MongoDB中,集合相當(dāng)于關(guān)系型數(shù)據(jù)庫中的表。()答案:正確。在MongoDB中,集合是文檔的集合,類似于關(guān)系型數(shù)據(jù)庫中的表。7.Scrapy框架只能使用Python語言編寫。()答案:正確。Scrapy是用Python編寫的爬蟲框架。8.使用代理IP可以完全繞過所有的反爬蟲限制。()答案:錯(cuò)誤。代理IP可以繞過部分反爬蟲限制,但不能完全繞過所有限制,如復(fù)雜的驗(yàn)證碼、行為分析等。9.在Python中,`json.loads()`和`json.load()`的作用是一樣的。()答案:錯(cuò)誤。`json.loads()`用于解析JSON字符串,`json.load()`用于從文件中讀取JSON數(shù)據(jù)并解析。10.在數(shù)據(jù)采集過程中,不需要對(duì)采集到的數(shù)據(jù)進(jìn)行清洗和預(yù)處理。()答案:錯(cuò)誤。采集到的數(shù)據(jù)可能存在噪聲、缺失值等問題,需要進(jìn)行清洗和預(yù)處理,以提高數(shù)據(jù)質(zhì)量。四、簡答題(每題10分,共20分)1.簡述數(shù)據(jù)采集的一般流程。答案:數(shù)據(jù)采集的一般流程包括以下幾個(gè)步驟:(1)確定采集目標(biāo):明確要采集的數(shù)據(jù)來源、數(shù)據(jù)類型和采集的具體內(nèi)容,例如要采集某個(gè)電商網(wǎng)站上的商品信息,包括商品名稱、價(jià)格、銷量等。(2)分析目標(biāo)網(wǎng)站:了解目標(biāo)網(wǎng)站的結(jié)構(gòu)、頁面布局、數(shù)據(jù)加載方式等。查看網(wǎng)站的`robots.txt`文件,了解網(wǎng)站的爬取規(guī)則,確保采集行為的合法性。(3)選擇采集工具和技術(shù):根據(jù)采集目標(biāo)和網(wǎng)站特點(diǎn)選擇合適的工具和技術(shù)。如果是簡單的靜態(tài)網(wǎng)頁,可以使用`requests`和`BeautifulSoup`庫;如果是動(dòng)態(tài)網(wǎng)頁,可以使用`Selenium`庫;如果要進(jìn)行大規(guī)模的爬蟲開發(fā),可以使用`Scrapy`框架。(4)編寫采集代碼:根據(jù)選擇的工具和技術(shù)編寫采集代碼。代碼主要包括發(fā)送請(qǐng)求、解析頁面、提取數(shù)據(jù)等步驟。例如,使用`requests`發(fā)送HTTP請(qǐng)求獲取網(wǎng)頁內(nèi)容,使用`BeautifulSoup`解析HTML文檔并提取所需數(shù)據(jù)。(5)處理反爬蟲機(jī)制:網(wǎng)站可能會(huì)有各種反爬蟲機(jī)制,如IP封禁、驗(yàn)證碼、請(qǐng)求頻率限制等。可以使用代理IP來隱藏真實(shí)IP,使用OCR技術(shù)識(shí)別驗(yàn)證碼,設(shè)置合理的請(qǐng)求間隔來繞過反爬蟲限制。(6)數(shù)據(jù)存儲(chǔ):將采集到的數(shù)據(jù)存儲(chǔ)到合適的存儲(chǔ)介質(zhì)中,如關(guān)系型數(shù)據(jù)庫(MySQL)、非關(guān)系型數(shù)據(jù)庫(MongoDB)、文件(CSV、JSON等)。(7)數(shù)據(jù)清洗和預(yù)處理:采集到的數(shù)據(jù)可能存在噪聲、缺失值、重復(fù)值等問題,需要進(jìn)行清洗和預(yù)處理,以提高數(shù)據(jù)質(zhì)量。例如,去除多余的空格、處理缺失值、去重等。(8)監(jiān)控和維護(hù):對(duì)采集程序進(jìn)行監(jiān)控,確保程序正常運(yùn)行。如果網(wǎng)站結(jié)構(gòu)發(fā)生變化,需要及時(shí)修改采集代碼。2.請(qǐng)說明使用`Scrapy`框架進(jìn)行數(shù)據(jù)采集的主要步驟。答案:使用`Scrapy`框架進(jìn)行數(shù)據(jù)采集的主要步驟如下:(1)創(chuàng)建項(xiàng)目:打開命令行工具,使用`scrapystartprojectproject_name`命令創(chuàng)建一個(gè)新的Scrapy項(xiàng)目,其中`project_name`是項(xiàng)目的名稱。(2)生成爬蟲:在項(xiàng)目目錄下,使用`scrapygenspiderspider_namestart_url`命令生成一個(gè)新的爬蟲,`spider_name`是爬蟲的名稱,`start_url`是爬蟲開始爬取的URL。(3)編寫爬蟲代碼:打開生成的爬蟲文件(通常在`project_name/spiders`目錄下),編寫爬蟲的邏輯。主要包括定義`start_urls`列表,重寫`parse`方法來解析頁面并提取數(shù)據(jù)。例如:```pythonimportscrapyclassMySpider(scrapy.Spider):name='myspider'start_urls=['']defparse(self,response):提取數(shù)據(jù)data=response.css('div.content').get()yield{'data':data}跟進(jìn)鏈接next_page=response.css('a.next::attr(href)').get()ifnext_pageisnotNone:yieldresponse.follow(next_page,self.parse)```(4)定義數(shù)據(jù)結(jié)構(gòu):在`project_name/items.py`文件中定義要采集的數(shù)據(jù)結(jié)構(gòu)。例如:```pythonimportscrapyclassMyItem(scrapy.Item):title=scrapy.Field()price=scrapy.Field()```(5)編寫管道(可選):在`project_name/p

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論