人工智能信息檢索與推薦技術(shù)發(fā)展報(bào)告(完整版)_第1頁(yè)
人工智能信息檢索與推薦技術(shù)發(fā)展報(bào)告(完整版)_第2頁(yè)
人工智能信息檢索與推薦技術(shù)發(fā)展報(bào)告(完整版)_第3頁(yè)
人工智能信息檢索與推薦技術(shù)發(fā)展報(bào)告(完整版)_第4頁(yè)
人工智能信息檢索與推薦技術(shù)發(fā)展報(bào)告(完整版)_第5頁(yè)
已閱讀5頁(yè),還剩24頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能信息檢索與推薦技

術(shù)發(fā)展報(bào)告[文檔副標(biāo)題][日期][公司名稱][公司地址]信息檢索與推薦信息檢索與推薦???I2019人工智能發(fā)展報(bào)告這種效果,這會(huì)帶來(lái)一些推薦的偏差。還有就是,短電影在這方面是完全未知的,被人耳熟能詳?shù)母枨鷶?shù)量也不多,所以也沒(méi)有產(chǎn)生出相關(guān)性。但對(duì)物品的熟悉程度及其對(duì)評(píng)估推薦的影響還是應(yīng)該進(jìn)行更詳細(xì)的研究。另外,需要更多地考慮廣泛使用問(wèn)卷的一般影響,因?yàn)橛幸庾R(shí)地思考決策并不總是有益的(對(duì)于決策結(jié)果來(lái)說(shuō),結(jié)果越直觀、簡(jiǎn)單越好)。總的來(lái)說(shuō),定量結(jié)果表明,實(shí)際經(jīng)驗(yàn)是否足以被替代,在很大程度上取決于推薦的領(lǐng)域,以及推薦系統(tǒng)提供的信息的類型和數(shù)量。本文通過(guò)研究定性評(píng)論反映了這一點(diǎn)。因此,作者建議避免不同設(shè)置之間的比較(注意控制變量),并在要求參與者在不消費(fèi)的情況下對(duì)推薦進(jìn)行評(píng)級(jí)時(shí),要對(duì)用戶實(shí)驗(yàn)更加注意才行(注重實(shí)踐和對(duì)結(jié)果的把控)。還有,現(xiàn)實(shí)世界中提供的物品評(píng)分不會(huì)抑制評(píng)分,例如在看電影或烹飪食譜Z前的評(píng)分,應(yīng)該與看過(guò)后以及吃過(guò)后的評(píng)分謹(jǐn)慎的有機(jī)結(jié)合。只有當(dāng)提供了足夠信息的時(shí)候,參與者的反應(yīng)才可能是可靠的,在這種情況下,可能就不需要(用戶實(shí)際)消費(fèi)過(guò)這個(gè)物品了。因?yàn)樗麄兗航?jīng)在心里形成了一個(gè)模型,考慮了自己的喜好,使這個(gè)建議像他己經(jīng)真的買了或用了一樣可靠(也就是自己說(shuō)服自己)。下圖是作者針對(duì)條件(S1,S2/M1,M2)和時(shí)間點(diǎn)(事前,事后)交互作用的用戶研究的混合模型結(jié)果。正差異結(jié)果表明用戶消費(fèi)后的結(jié)果會(huì)更好。Table1:Resultsofourmixedmodelsforbothuserstudiesforinteractionofcondition(Si,S2/M1,M2)andpointintime(Pre,Post).Positiveditferencesindicatebetterresultsafterconsumption(ChoiceDi爪EffortandDoubts reversedaccordingly).irt^rirtmSi^rvva.Sbhst %%>2J\xU c Mlvb.MlfVii .Ut-fYaMJI'axmd賦Q&rtty|ll]tcc?wr?<?8?t*jnn?rtce5M4fKto?|llJChrtceOflkdtHllJD¥ort(il|C*txlr^cwo>|ll|Dhcr5<Y(ll)彌《即[|引I'axmd賦Q&rtty|ll]tcc?wr?<?8?t*jnn?rtce5M4fKto?|llJChrtceOflkdtHllJD¥ort(il|C*txlr^cwo>|ll|Dhcr5<Y(ll)彌《即[|引iNbnuticoSifTcMnry[H'TrjroHiciXY(i>]Co?fl4e?eaMTfMt|l$lg皿Sal>?4*rton|B)MXX盂鸞X神^:5^^5:?^B??osoIV?c?nvdKerQialey11|R??rrr<ndB*v>?ftabnfOc4ce5aiM(tko(ii|CMceDilTKUtylll]£ft^V*cnr??|H]CT?wity|llj沁■冊(cè)|I3|hkxnwtnnSu<ir?ncv113|TfarofKxefK;|1>)GMdcgsSTnjrt(IS)bnhli<Xvn<lSah^sctKOIDia^sssss:::;2^^:2眾^^緡:::北3防:::論文題目:ShouldIFollowtheCrowd?AProbabilisticAnalysisoftheEffectivenessofPopularityinRecommenderSystems屮文題目:我應(yīng)該跟隨潮流(人群)嗎?推薦系統(tǒng)中流行度有效性的概率分析論文作者:RocioCaiiainaies,PabloCastells論文出處:InternationalACMSIGIRConfeienceonReseaichandDevelopmentinIiifoniiationRetiieval信息檢索與推薦論文地址:/citation.cfin?id=3210014研究問(wèn)題:近年來(lái),在推薦系統(tǒng)的評(píng)價(jià)屮使用IR方法己經(jīng)成為一種普遍的做法。然而,人們發(fā)現(xiàn)IR指標(biāo)對(duì)推薦熱門物品的獎(jiǎng)勵(lì)算法存在強(qiáng)烈的偏差(bias),這與目前最先進(jìn)的推薦算法存在的偏差是相同的。最近也有一些研究證實(shí)并測(cè)量了這種偏差,并提出了避免這種偏差的方法。可是,最根本的問(wèn)題仍懸而未決個(gè)物品的流行度(popularity)的偏差是否是我們應(yīng)當(dāng)避免的;無(wú)論這個(gè)偏差是一個(gè)對(duì)于推薦來(lái)說(shuō)的好信號(hào),還是可能因?yàn)槭艿綄?shí)驗(yàn)偏差而導(dǎo)致的壞信號(hào)。研究方法:論文方法是根據(jù)關(guān)鍵隨機(jī)變量Z間的依賴關(guān)系,識(shí)別和建模可以確定答案的條件,包括物品評(píng)級(jí)、發(fā)現(xiàn)和相關(guān)性等。作者發(fā)現(xiàn)了保證流行有效或完全和反的條件,以及度量值反映真實(shí)有效性或在質(zhì)量上偏離真實(shí)有效性的條件。作者構(gòu)建了一個(gè)眾包數(shù)據(jù)集,其屮沒(méi)有公共可用數(shù)據(jù)顯示的常見(jiàn)偏差,在這個(gè)數(shù)據(jù)集中,作者說(shuō)明了在一個(gè)常見(jiàn)的有偏差的離線實(shí)驗(yàn)設(shè)置中所能測(cè)量的準(zhǔn)確性與通過(guò)無(wú)偏差的觀察所能測(cè)量的實(shí)際準(zhǔn)確性Z間的矛盾。研究結(jié)論:本文作者通過(guò)研究證實(shí)了普遍流行的有效性趨勢(shì),并用公式證明與解釋了原因。同時(shí)作者還發(fā)現(xiàn),在許多情況下表觀的準(zhǔn)確度可能會(huì)產(chǎn)生誤導(dǎo)(即與真實(shí)準(zhǔn)確度不匹配)。這大多是因?yàn)橥扑]的物品出現(xiàn)與用戶興趣相差較大的情況。作者發(fā)現(xiàn),通常的實(shí)驗(yàn)(即觀察到的準(zhǔn)確度為度量值)可能對(duì)平均評(píng)級(jí)(肚?昭⑶ing)及其個(gè)性化衍生品(personalizedderivatives)相當(dāng)不公平。與目前文獻(xiàn)屮觀察到的結(jié)果相反,平均評(píng)級(jí)在大多數(shù)情況下,相對(duì)于正評(píng)級(jí)(positivelatmgs),在真實(shí)的準(zhǔn)確率上可能更好、更安全,魯棒性更強(qiáng)。作者進(jìn)一步發(fā)現(xiàn),當(dāng)涉及到流行度的有效性或平均評(píng)分及其度量時(shí),喜歡的物品被評(píng)分的次數(shù)多少并不重耍,重耍的是評(píng)級(jí)是否依賴相關(guān)性,依賴是完全的還是部分的;當(dāng)發(fā)現(xiàn)主要依賴于和關(guān)性,或者幾乎不依賴于相關(guān)性時(shí),流行度和I2019人工智能發(fā)展報(bào)告平均評(píng)分才是真正準(zhǔn)確的理想條件。平均評(píng)級(jí)似乎比流行度對(duì)相關(guān)性獨(dú)立性的影響更大,因此在有高偏差的情況下(如營(yíng)銷驅(qū)動(dòng)),它比流行度更可取。論文題目:VarianceReductioninGradientExplorationforOnlineLearningtoRank屮文題目:一種基于方差縮減梯度搜索的在線學(xué)習(xí)排序方法論文作者:HuazliengWaiig,SonwooKim,ErieMcCoid-Snook,QingyunWu,HongiiingWang論文出處:InternationalACMSIGIRConferenceonResearchandDevelopmentinniformationRetrieval論文地址:https://dl.acm.oig/citation.cfin?id=3331264研究問(wèn)題:在線學(xué)習(xí)排名(OL2R)算法從用戶的即時(shí)反饋中學(xué)習(xí),算法的關(guān)鍵是對(duì)梯度的無(wú)偏估計(jì),通常是通過(guò)從整個(gè)參數(shù)空間均勻采樣來(lái)實(shí)現(xiàn)的。然而,這導(dǎo)致了梯度估計(jì)的高方差,會(huì)使模型更新時(shí)的效果不佳,特別是在參數(shù)空間的維數(shù)較大的時(shí)侯。本文旨在降低OL2R算法屮梯度估計(jì)的方差。研究方法:在交叉測(cè)試Z后,作者將選擇的更新方向(如目標(biāo)方向winningdirection)投影到當(dāng)前查詢下被檢索(examined)文檔的特征向量所跨越的空間(簡(jiǎn)稱為“文檔空間documentspace”)。作者的主要觀點(diǎn)是,交叉測(cè)試的結(jié)果完全由用戶對(duì)所檢索文檔的相關(guān)性評(píng)估控制。因此,該測(cè)試引入的真實(shí)梯度只反映在構(gòu)建的文檔空間屮,為了減少方差,我們可以安全地刪除與文檔空間正交的梯度分量。作者證明了這個(gè)投影梯度仍然是一個(gè)真實(shí)梯度的無(wú)偏估計(jì),并且證明了這種低方差梯度估計(jì)能夠顯著減少regreto在本文屮,作者提出并發(fā)展了文檔空間投影(DocumentSpacePiojection,DSP)方法來(lái)減少梯度估計(jì)中的方差,提高在線學(xué)習(xí)的排序性能。DSP的核心思想是認(rèn)識(shí)到交叉測(cè)試只揭示了真實(shí)梯度在被檢文檔的跨空間上的投影。包含任何超出此空間的模型更新只會(huì)引入噪聲。因此,作者將選擇的模型更新方向投射回文檔空間以減少方差。作者同時(shí)證明了DSP保持著一個(gè)無(wú)偏的梯度估計(jì),并且

信息檢索與推薦??:通過(guò)減少方差可以顯著提高DBGD類型算法的“get界。通過(guò)大量的實(shí)驗(yàn),發(fā)現(xiàn)DSP能夠在方差減少和整體性能方面,特別是在排序特征數(shù)量較大的情況下,對(duì)幾種最先進(jìn)的0L2R模型提供統(tǒng)計(jì)上顯著的改進(jìn)。下表是在線和離線NDCG@10,經(jīng)過(guò)一萬(wàn)次查詢,每種算法的文檔空間投影的標(biāo)準(zhǔn)差和相對(duì)改進(jìn)。Table2:OnlineNDCG10,standarddeviationandrelativeimprovenietitofdocuinenlspaceprojectionofeachalgorithmafter10,000queries.HkIcModelAlgorithmMQ2007MQ200SMSlJtWEBlOK2P20<nYahooDBGDDB9DSP679.3叫689.1侮乂“?44另)&17.1CMO8S8g*lJ9%)512.25S3.6,m卜丄0飯)11J0.2<um】198.8g(-6.07勿1】65?5』?119S.8..>u(-2.86%)PerfectMC;DMGD-DSP689.]i““757.3 9.90%)z6.99%)558.3M12.2OX}1192.9".1335?3g“H.更%)i201.9<M?1309.4 (?8.94%)NSC;DNS(;D-DSP684.473Z5』a(?7.03絡(luò))867.5904.3卻1?635.6<uj?(*7.82%)1274.9r.1368.54?ii<^7.34%)1162.3tn*1270.1<ii<*9.27%)DBGDDBGD-DSP646.】<6649』?(?2.9|憑)817.9z830.3"旗?15X0517.5cm*.543.1W623mu1140104.<<7.32%)1133.3??NavigaiioiulMGDMGDDSP632.7lea694.5<nr<*9.77%)827.5an.M82.3“.(?6?62%)538.2S86.9c?(?9.05%)1115.41300.9 16.63%)11713'X*?1290.2inh(*10.1$%)NS(;DNSGDDSP660.1imw724.6”(“?77另)S49.1*?895.8562.1608.3<unG8J2%)12H」i12%.2aw(?7.(n%)1186.2<??1283.4DBGDDBGD-DSP58Miax>620.1??(*6.29%)763.9“782.4472.4(?<?>$22.1.<(*1052%)“9.8<mo?992.5.?.o(^16.79%)1107.3<??1158.5.?c(*4.62%)!nfomu)hon:ilMGDMGDDSP62i2.ii3671.4g“?8Q8%)817.5<?ii865.9gM?5?92%)S333皿580.5^4*7.84%)】107.叭"1274.5 15.04%)1146.6a1268.1ibm<*10.60%)NSGDNSGDDSP629.7in?7016.j*4*U745?)814.9cvtii87】.3如“6.92刃S憶597.9(Mn(*12.20?;)1123.31222.8“09.0探}nio.5<ii?1204.7*08.4畝)Table3:OfflineNDCG010,standardckviationandrelativeimprovementofdocumentsp^ccprojectionofeachalgorithmafter10,000queries.OkieModelAlgorithmMQ2007MQ2008MSLKWEB10KNP2OO3YahooDBGDDBGD-DSP0.4Mz0.480zG0.83%)0.683?m/i0.685 (2.2洌0331…0333“n(4-6刃0.737心》0.7380.688yi0.681PerfectMGDMGD-DSP0.4950.501 121%)0.691mow0.695?3(*0.58%)0.334*??0.109+心22.46%)0.746<?mii0.7-18心乂心枸0.71S0.725NSGDNSGDDSP0.-I880.491<<^(*0.61%)0.689zz0.691^(*0.29%)0397…0.398+)(?025%)0.7-13s紐0.7500.6910.717DBGDDBGD-DSP0.463z0.I6S 方)0.6670.66$4w.(*0J5%)0.^200327■■心2.19%)0.7280.754^<*0.82%)0.663皿0.656“治】?06久)NavigationalAK;DMGDDSP0.126t0.467^<*9.6255)0.664?4t4i0.684”,*3.01%)0321…0.331"十3.12%)0.740.mi0.744皿“0.5畝)0.7030.714 1.5655)NSGDNSGDDSP0.473O.,l78?m(4j.O6%)0.676mm0.683?3心1.0僅)0.389d0.376“.(?334%)0.7320.788 7.65%)0.686???i0.711<?mlO3.M%)DBGDDBGDDSP0.410imm!0.427“*4」5%)0.6*11*ni>0.632 1.4%)0.2940.309…32.65%)0.699w0.692"Z?1.00%)0.6230.63InfomutionalMC;DMC;!)-DSP0.406???i0.4440.651t0.669^4:4*0-67%)0.3】7…0.325“?(?0?3X)0.726iomii0.7384*0.74%)0.66$<m?i0.701NSGDNSGDDSP0.4690.466 0.64%)0.674…0.668iiaM(*0.89%)0.360mwO.MO—.(-5,S6%)0.733z0.7897.64%)0.663tO.6S5”*心離)研究結(jié)果:本文通過(guò)與幾種最先進(jìn)的OL2R算法的大量實(shí)驗(yàn)比較,驗(yàn)證了作者提出的方法在減少方差和提高整體排名性能方面的有效性(如表2和3所示)。但是觀察到在模擬用戶點(diǎn)擊反饋時(shí),DSP在不同點(diǎn)擊模式下的性能有所不同。未來(lái),作者計(jì)劃合并不同的點(diǎn)擊模式解決方案,以更精確地構(gòu)建文檔空間。在交叉測(cè)試Z前,研究如何進(jìn)行基于文檔空間的探索性方向生成也是有意義的。探索性方向預(yù)選有望進(jìn)一步加速梯度探索,提高在線學(xué)習(xí)過(guò)程中的用戶滿意度,不過(guò)同時(shí)也必須確保它是無(wú)偏差的。I2019人工智能發(fā)展報(bào)告14.5信息檢索與推薦進(jìn)展隨著互聯(lián)網(wǎng)屮數(shù)字信息數(shù)量的增長(zhǎng),商品、書籍、新文章、歌、電影、研究文件等H常基礎(chǔ)性事物,其數(shù)量和種類填滿了多個(gè)數(shù)據(jù)倉(cāng)庫(kù)和數(shù)據(jù)庫(kù)。蘊(yùn)含著智能推薦系統(tǒng)和強(qiáng)大的搜索引擎的在線商店、在線音樂(lè)、在線視頻和圖片庫(kù)等已成為人們快速尋找信息的主要方式。此類系統(tǒng)的流行程度和有用性在于它們能夠便捷地顯示幾乎無(wú)限的物品信息。比如,Amazon、Netflix等推薦系統(tǒng)嘗試了解用戶興趣,并向用戶推薦他們感興趣的商品。盡管這些系統(tǒng)由于使用場(chǎng)景而各不相同,但其尋找用戶感興趣商品的核心機(jī)制都是用戶興趣與商品匹配的機(jī)制。為了提高信息檢索與推薦系統(tǒng)中算法模型的準(zhǔn)確性和可解釋性,研究人員近年來(lái)主要關(guān)注無(wú)偏的在線排序?qū)W習(xí)模型,以及利用知識(shí)信息增強(qiáng)推薦系統(tǒng)的表現(xiàn)和可解釋性等方面的研究。其屮,無(wú)偏的在線排序?qū)W習(xí)模型是指自動(dòng)利用大規(guī)模用戶點(diǎn)擊數(shù)據(jù)訓(xùn)練搜索結(jié)果的排序模型。用戶點(diǎn)擊數(shù)據(jù)是現(xiàn)代搜索引擎的重要數(shù)據(jù)來(lái)源,具有成本低廉,并且對(duì)以用戶為中心的檢索應(yīng)用程序(如搜索排名)特別有用等優(yōu)點(diǎn)。為了充分利用用戶點(diǎn)擊數(shù)據(jù)開(kāi)發(fā)一個(gè)無(wú)偏的學(xué)習(xí)排需系統(tǒng),研究人員試圖消除用戶偏見(jiàn)對(duì)排名模型訓(xùn)練的影響。近年來(lái),一種基于反事實(shí)學(xué)習(xí)和圖形模型的無(wú)偏學(xué)習(xí)排名框架引起了人們的廣泛關(guān)注。該框架側(cè)重于使用反事實(shí)學(xué)習(xí)直接訓(xùn)練帶有偏倚點(diǎn)擊數(shù)據(jù)的排名模型。這個(gè)無(wú)偏的學(xué)習(xí)排名框架對(duì)待點(diǎn)擊偏差作為一個(gè)反事實(shí)的影響和去偏用戸反饋加權(quán)每點(diǎn)擊與他們的反向傾向加權(quán)。它使用傾向性模型來(lái)量化點(diǎn)擊的偏差,并沒(méi)有明確地估計(jì)查詢文檔與培訓(xùn)數(shù)據(jù)的相關(guān)性。研究人員從理論上證明,在正確的偏差估計(jì)下,在該框架下使用點(diǎn)擊數(shù)據(jù)訓(xùn)練的排序模型將收斂于使用真實(shí)相關(guān)信號(hào)訓(xùn)練的排序模型。信息檢索與推薦系統(tǒng)可以為用戶推薦其感興趣的內(nèi)容并給出個(gè)性化的建議。而現(xiàn)在的推薦系統(tǒng)大都著眼于被推薦對(duì)象的序列建模,而忽略了它們細(xì)粒度的特征。為了解決以上問(wèn)題,研究人員提出了多任務(wù)可解釋推薦模型(Multi-TaskExplainableReconmiendation,MTER)和知識(shí)增強(qiáng)的序列推薦模型(Kiiowledge-eiiliancedSequentialRecommender,KSP)。其屮,MTER模型是一個(gè)用于可解釋推薦任務(wù)的多任務(wù)學(xué)習(xí)方法,通過(guò)聯(lián)合張量分解將用戶、產(chǎn)品、特征和觀點(diǎn)短語(yǔ)映射到同一向量空間,來(lái)從用戶評(píng)論屮提取產(chǎn)品細(xì)粒度的個(gè)性化特征。KSR模型信息檢索與推薦提出了利用結(jié)合知識(shí)庫(kù)的記憶網(wǎng)絡(luò)來(lái)增強(qiáng)推薦系統(tǒng)的特征捕獲能力與解釋性,解決序列化推薦系統(tǒng)不具有解釋性,且無(wú)法獲取用戶細(xì)粒度特征的不足。MTER和KSR模型通過(guò)對(duì)推薦結(jié)果的解釋,分析被推薦對(duì)象的特征,可以讓用戶可以對(duì)使用哪些推薦結(jié)果做出更明智,更準(zhǔn)確的決策,從而提高他們的滿意度。近年來(lái),信息檢索與推薦領(lǐng)域比較流行的開(kāi)源平臺(tái)主要包括基于深度學(xué)習(xí)的檢索模型(MatchZoo)、基于tensoiflow的leamingtonuik模型(TF-Ranking)和niiciosoftleconunendeis。其中,MatchZoo是由屮國(guó)科學(xué)院計(jì)算技術(shù)研究所網(wǎng)絡(luò)數(shù)據(jù)科學(xué)與技術(shù)重點(diǎn)實(shí)驗(yàn)室近期發(fā)布的深度文本匹配開(kāi)源項(xiàng)目。MatcliZoo是一個(gè)Python環(huán)境下基于TensoiFlow開(kāi)發(fā)的開(kāi)源文本匹配工具,使用了Keias中的神經(jīng)網(wǎng)絡(luò)層,并有數(shù)據(jù)預(yù)處理,模型構(gòu)建,訓(xùn)練與評(píng)測(cè)三大模塊組成,旨在讓大家更加直觀地了解深度文本匹配模型的設(shè)計(jì)、更加便利地比較不同模型的性能差異、更力口快捷地開(kāi)發(fā)新型的深度匹配模型。MatchZoo提供了基準(zhǔn)數(shù)據(jù)集(TRECMQ系列數(shù)據(jù)、WiKiQA數(shù)據(jù)等)進(jìn)行開(kāi)發(fā)與測(cè)試,整合了當(dāng)前最流行的深度文本匹配的方法(包括DRMM,MatcliPyraimd,DUET,MVLSTM,aNMM,ARC-I,ARC-II,DSSM,CDSSM等算法的統(tǒng)一實(shí)現(xiàn)),旨在為信息檢索、數(shù)據(jù)挖掘、自然語(yǔ)言處理、機(jī)器學(xué)習(xí)等領(lǐng)域內(nèi)的研究與開(kāi)發(fā)人員提供便利,可以應(yīng)用到的任務(wù)場(chǎng)景包括文本檢索,自動(dòng)問(wèn)答,復(fù)述

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論