挤公交忘穿内裤被挺进,國產日韓亞洲精品AV,午夜漫画,china中国gary廖男男

大數據時代交通管理五大技術需求?

一、大數據時代交通管理五大技術需求?

首先和大家一起回顧一下大數據和交通的關系,接下來談一下大數據分析的方法,這也是我的學習體會,最后分享幾個大數據應用案例和應用方向探討。

一、大數據與交通

大數據的本質就是一大堆結構化的和非結構化的數據。因為數據量太大,你沒辦法使用,你需要從中抓取出有價值的內容或你想要的數據,這就是大數據應用。

從技術層面說,大數據和以前的數據時代的最大差異在于: 以前是數據找應用、算法的過程,偏重于用抽樣推測全局,從抽樣數據中分析,沒有采集到的樣本所對應的相關規律。

而大數據時代的重要技術特征之一,是應用、算法去找數據的過程,因為數據規模變成了技術上最大的挑戰,我們更關注每一個個體的微觀表現。

大數據應用經歷近十年的發展,目前的狀況怎么樣呢?

第一,很多國家(包括我國)已經上升到國策化,已成為國家戰略。

第二,國內與國外差距已經不大。

第三,有賴于機器學習和人工智能的底層支撐,大數據和機器學習已經是一對孿生兄弟。AI為大數據應用提供高效的手段,大數據為AI提供了海量的學習素材。

第四,大數據應用的標準化問題已經迫在眉睫,專業化勢在必行,工具化正在普及。

第一,很多國家(包括我國)已經上升到國策化,已成為國家戰略。

第二,國內與國外差距已經不大。

第三,有賴于機器學習和人工智能的底層支撐,大數據和機器學習已經是一對孿生兄弟。AI為大數據應用提供高效的手段,大數據為AI提供了海量的學習素材。

第四,大數據應用的標準化問題已經迫在眉睫,專業化勢在必行,工具化正在普及。

二、c崗位技術需求?

1、熟練掌握MySQL,SQLServer,Oracle 等數據庫系統;

2、熟悉分布式系統或分布式數據庫的實現原理及相關技術;

3、精通WPF和.NET開發;

4、熟悉網絡編程和多線程編程;

5、有工業實時庫開發經驗者優先

6、要有一定扎實的C語言程序基礎,精通其它技術知識以及有經驗的能力。

三、數據需求分析包括什么?

數據需求分析

1

、寫出系統的任務和特點

2

、要實現的功能模塊和作用

3、

系統結構圖

4

、采用的數據庫

5

、開發運行環境

"需求分析",是指對要解決的問題進行詳細的分析,弄清楚問題的要求,包括需要輸入什么數據,要得到什么結果,最后應輸出什么。在軟件工程當中的"需求分析"就是確定要計算機"做什么",要達到什么樣的效果。

四、數據安全需求的特點?

有三個最基本的特性:可用性、完整性和機密性。

可用性是指數據隨時能夠獲取、隨時可用,不會由于硬件故障等問題,導致數據無法讀取。

完整性是指數據在整個交易過程中沒有遭受惡意篡改和非授權的訪問,保障數據是最原本的樣子。

機密性指的是數據全程加密,不會遭受竊聽,也不會被未授權的人訪問到,數據是安全的。我們通常講的信息安全保護,保護的就是數據的這三個最基本的特性。

五、數據需求分析怎么寫?

數據需求分析就寫當時的一個數據分析的一些情況,然后表明了一種怎樣的觀點?

六、需求泥鰍水花養殖技術?

1、養殖環境

泥鰍養殖需要選擇合適的養殖環境。選擇全塘圍網可以很好地防止青蛙、鰻魚、蛇等敵害生物對泥鰍的傷害,并避免濺水物的捕食。此外,保持池塘的清潔也是至關重要的,因為過多的敵害生物會捕食泥鰍水花,導致存活率低下。

擴展內容:池塘清潔工作的重要性不可忽視。定期清理池塘,除去雜草和腐殖質,減少池塘中的細菌、寄生蟲等病原體的滋生,有助于保持水質清潔,提高泥鰍的存活率。在清理過程中,注意避免使用含有有害化學物質的清潔劑,選擇對泥鰍無害的清潔方式,確保水質健康。

2、種苗質量

泥鰍的種苗質量對開花的成功率至關重要。在育苗場中,應確保統一播種時間,避免不同批次苗種的存活率不一致,干擾開花過程。提前調水并添加維諾眾養菌活水,有助于維持水體的穩定,提高種苗的存活率。此外,在放苗前一天可以使用維諾魚蝦生命液噴灑,增強種苗的抗應激能力。

擴展內容:養殖戶在選擇種苗時,應選擇健康、活力充沛的泥鰍種苗。種苗的體色鮮艷,體態健壯,尾部完整無損傷,是優質種苗的標準。同時,建議與可靠的供應商合作,確保種苗的來源可靠,減少種苗質量帶來的風險。

3、養殖管理

合理的密度放苗和適當的投喂是提高泥鰍開花成功率的重要環節。每畝養殖水域可以放置100-150萬尾水花,放苗后6小時開始投喂。起初,可根據水質顏色調整飼料,添加維諾水產高維補充營養,促進泥鰍的生長,并提高飼料的轉化率。

擴展內容:在投喂方面要注意合理掌握量,避免過量投喂導致水質污染。可以根據泥鰍的生長情況和水質狀況進行調整,科學制定飼料投喂計劃,確保泥鰍的養分攝取與生長需求相匹配。

4、水質管理

穩定的水質對泥鰍的開花成功率起著至關重要的作用。尤其是在預防氣泡病方面,正確的水質管理是關鍵。經常開啟增氧機,保持充足的氧氣供應,穩定水質,維持高水位,這些措施都能有效預防氣泡病的發生。

擴展內容:水質管理不僅僅是保持充足的氧氣供應,還應注意維持適宜的水溫、PH值以及溶解氧的濃度。根據泥鰍的生長需求,合理調整水質參數,創造適宜的生存環境。

5、疾病防治

泥鰍在養殖過程中容易受到疾病的影響,尤其是氣泡病和寄生蟲病會嚴重影響開花的成活率。定期檢查池塘,及時發現病害現象,采取相應的措施進行治療是保證泥鰍健康的重要手段。

擴展內容:對于泥鰍疾病的防治,建議養殖戶定期聘請專業人士進行池塘的檢測和病害的防治,這樣可以及時發現病毒、寄生蟲等病害,減少疾病對泥鰍養殖的危害。

七、OA系統需求技術要求?

OA系統(Office Automation System)是一種辦公自動化系統,用于管理和協調組織內部的辦公流程和信息傳遞。以下是一些常見的技術要求,可用作OA系統的參考:

1. 前端技術:使用現代的前端開發技術,如HTML、CSS、JavaScript等,以實現用戶友好的界面和交互體驗。

2. 后端技術:選擇適合的后端開發技術,如Java、Python、C#等,用于處理業務邏輯、數據存儲和處理等。

3. 數據庫:選擇合適的數據庫管理系統(DBMS),如MySQL、Oracle、SQL Server等,用于存儲和管理系統的數據。

4. 安全性:采用安全性措施來保護系統和用戶數據的安全,如用戶認證、數據加密、訪問控制等。

5. 響應式設計:確保系統能夠適應不同終端設備的屏幕尺寸和分辨率,實現響應式的設計和布局。

6. 接口和集成:OA系統可能需要與其他系統進行集成,如郵件系統、文檔管理系統等。因此,需要具備良好的接口設計和集成能力。

7. 性能和擴展性:OA系統需要具備較好的性能和擴展性,能夠處理大量的用戶和數據,并能夠根據需求進行系統擴展和優化。

8. 移動端支持:考慮到移動辦公的需求,可以考慮開發適用于移動設備的移動應用或響應式的移動網頁。

9. 數據備份和恢復:建立系統的數據備份和恢復機制,以保證數據的安全和可靠性。

10. 用戶權限管理:實現用戶權限管理功能,確保不同用戶具有不同的權限和訪問控制。

這些技術要求僅僅是一些常見的方面,實際的OA系統技術要求可能會因具體的業務需求和組織情況而有所不同。在設計和開發OA系統時,建議綜合考慮業務需求、安全性、可擴展性和用戶體驗等因素,選擇合適的技術和架構來滿足需求。

八、數據運營如何梳理數據埋點需求?

數據分析數據治理入門分享-轉載渭河數分星球嘉賓SpaceLion的文章(四年互聯網大廠數據科學經驗),未經許可不能轉載

三天無理由退款

1、前言

看到這個標題可能有的同學會有疑惑,為什么我作為數據分析師還需要去管數據治理的活,這個不是會有專門的同學去做嗎?

確實,在很多大廠,數據開發和數據分析職能都是分開的,數分的同學一開始拿到的表就是已經清洗過的寬表,BI看板搭建就是寫幾條sql配置一下,日志埋點的工作都會交給產品來完成。但是很多中小公司是不具備這種條件的,尤其是很多初期的創業公司,在產品架構尚未完善,團隊分工不夠明確的情況下,很多時候日志埋點,數據清洗的工作都會落到數據分析同學的身上。

在擇業的時候,遇到這種分工尚未明確的項目,可能有一部分同學就直接放棄了,有的同學可能會說:我想專精數據分析,不想在數據治理上花時間,我找一個分工明確的團隊就行了,如果職能分工不明確,說明這個項目的老板不懂數據等等諸如此類的。當然這也是沒問題的,人的精力是有限的,追求知識的深度那必定會導致廣度的不足。

不過從我個人的角度來看的話,這樣可能就會使我個人的擇業范圍受限,只能選擇一些數據建設相對較好的團隊。另一方面,如果能夠懂得一些數據治理的方法,那么在一些場景下也能夠給數據分析工作帶來一些便利性,包括能夠讓數據分析人員更好地定義口徑,在復雜的統計任務中通過埋點和數倉來解決問題等。例如,一個剛剛搭建起來沒多久的電商APP,想要分析用戶點擊下單之前上一個頁面來自于哪里,假設我只在應用層面解決,那我可能需要把用戶的點擊事件按照時間排序,再進行清洗計算,費時費力。但是這個時候如果我通過埋點解決這個問題,讓程序在用戶的點擊事件日志上加入一個refer字段,記錄了上一個頁面的url,這樣無論是統計分析,還是搭建后續的BI能力,都能夠快速解決

因此本篇隨筆的目的就是分享一些本人在數據治理方面的入門經驗,希望能給到一些完全沒接觸過數據治理的同學一些幫助。

2、數據治理鏈路以及數分同學參與的環節

國際數據管理協會DAMA對數據管理的主題分類可以分為以下幾種類型:數據治理、數據架構、數據建模和設計、數據存儲和操作、數據安全、數據集成和互操作、文件和內容管理、參考數據和主數據、數據倉庫和商務智能、元數據、數據質量。而對于這些工作的從層次劃分,網上有各種不同的概念,畢竟不同的公司架構不太一樣,我們在這里引用《大數據之路:阿里巴巴大數據實踐》書中的數據體系。整個架構分為四個層次:數據采集層,數據計算層,數據服務層,數據應用層。

1、數據采集層:包括日志收集,數據庫,數據同步;

2、數據計算層:包括離線數據計算,數據倉庫,實時數據

3、數據服務層:基本上就到了我們比較熟悉的環節,包括數分同學平時能拿到進行分析的mysql數據源,hive數據源,數倉的cube等等,數分同學的大部分工作,可能就是拿著這些數據源去做數據應用層的東西,不管是統計分析還是數據建模。

4、數據應用層:這里就是到了一些應用層的數據,對線上產品的,對內部系統的等等

在整條鏈路中,一些純技術向的,涉及線上開發的內容是不用數分的同學參與的,一般數分的同學可能參與的環節主要在日志埋點和數倉設計兩部分,參與的深度視實際需求會有靈活的變化。

3、日志埋點

3.1 數分同學參與日志埋點工作的優勢

在日志收集環節,數據分析師可能會參與到日志埋點工作當中,有些尚沒有實際工作經驗的同學可能不太清楚,線上產出的原始數據都是json或者雙逗號分割等不同類型的的字符串,其中定義了每一個字段的key-value,需要經過清洗才能夠變成我們常用的數據表格式。那么一般數據分析師要做的就是配合產品運營,定義清楚每一條日志的上報機制,以及對應的key-value含義。

有的同學會講這個東西不是應該產品自己來搞嗎?沒錯一個基礎能力強的產品確實是能夠承擔埋點的工作,并且產品功能是他設計的,他比誰都更清楚功能上線之后他想要知道哪些信息,對應所需要埋哪些點。但是有的時候一些產品雖然懂得功能設計和交互,但是卻不太懂數據,他們想要的可能是一個抽象的概念,比如功能上線之后他想知道用戶的活躍,用戶的漏斗轉化,此時如果沒有專門的數分同學參與,那么產品估計就會去找開發,開發可能更了解底層架構,但是不了解業務,如果沒有定義清楚日志上報機制和含義,那么可能就會出現這樣一種情況:

產品上了一個促銷活動的頁面希望知道用戶的PV,以及頁面帶來的GMV,開發隨便埋了一個服務端日志,只要用戶發送了訪問頁面請求就記錄一條,結果數分同學統計出來發現PV量巨大,但是GMV少的可憐,于是產品瘋狂優化交互,但是GMV依舊沒有什么提升。最后經過多方排查發現,原因是由于前端頁面加載問題導致很多用戶雖然請求了鏈接,但是頁面素材卻加載不出來,而PV統計的是服務端日志,也許后面的轉化其實還可以,但數據口徑的差異導致了整個問題的誤判。

以上這個例子是我編的,但是參考了一些工作當中踩過的坑點,我們可以發現在產品或者技術自身能力不夠強的時候,把埋點全權交給他們就容易出現數據統計口徑不明確的問題。而反過來看,數據埋點也是要為業務服務的,最好是通過需求和數據指標反推需要什么埋點,這就決定了數據分析的同學在這個環節當中有著很大的參與空間,其意義在于:

1、明確埋點機制對應的數據指標口徑,避免業務分析的偏差。

2、幫助數分同學了解底層架構,拓展業務分析當中的思路。

3、數分同學可以自主增加便于分析的日志埋點,提升效率。

3.2 日志埋點的經驗分享

埋點的方法根據每個公司使用的數據服務不同也有很大差異,我個人將埋點方法分為兩類:全埋點,代碼埋點。代碼埋點又分為前端和服務端埋點

全埋點就是部署了一些sdk,能夠把APP的所有行為全部記錄下來,然后由分析人員自定義關鍵事件,直接圈選分析。使用這種方法一般是接入了一些外部的數據服務供應商的系統,比如神策之類的,優點是你想怎么定義都行,無需重新開發,缺點就是這么多數據占用空間大不能存太久,也只適合一些輕量級的項目分析,我自己是沒用過這種方法。

代碼埋點顧名思義就是需要讓開發把一些關鍵事件信息的返回寫到代碼里面去,需要預先定義好在什么場景下,返回一些什么字段,這個就是我們最常用的一種方式。

前端埋點主要是在APP客戶端,或者網頁頁面當中,觸發了一些關鍵素材時返回日志,比如頁面加載,素材圖片的加載,按鈕的點擊之類的。這類埋點上報會受到頁面改版,網絡等問題的影響,會有一些誤差;服務端埋點指的是成功請求了一個服務器接口時返回日志,這種日志通常是最準確的,比如下單,播放視頻等,請求成功了就是成功了,不受前端改版等問題的影響。

設計埋點的時候我一般遵循這幾個步驟:

第一步肯定是要跟產品運營對齊,看一遍產品文檔,新功能頁面做了什么改動,新增改動了什么功能,是否需要添加前端或服務端埋點;然后再明確這個功能上線之后要看哪些核心的數據,分別需要在前端和服務端埋一些什么內容,確保功能上線能夠統計到對應的數據。輸出好需要哪些字段之后,需要跟開發對齊,在什么情況下上報,字段都能不能上報,可能有些字段是記錄不了的要怎么處理,這些明確了之后才能進入開發。

對于日志字段的設計,個人的經驗是可以按照幾個大類進行梳理:

維度信息備注
日志基礎信息日志唯一標識,日志id,事件id,事件類型等用作日志的分區字段
頁面信息名稱,title,模塊,鏈接等一般前端需要的較多
用戶基礎信息用戶id,設備信息(設備號,型號),操作系統(語言,版本),網絡信息(ip等),應用信息(版本,包體信息)等等有些敏感信息不一定能獲取到,用戶明文賬號等信息注意加密
時間信息日志上報時間,上傳時間,更新時間,創建時間如果是一次性的事件則記錄上報時間即可,但是如果記錄對象是可累積更新狀態的,例如訂單等,則需要記錄不同狀態的時間
業務關鍵信息比如如果關注用戶增長,就可以記錄點擊來源,渠道等信息,如果關注用戶的停留消費,那可以記錄時長,下單金額;如果是有用戶跟另一個對象交互的日志,比如用戶-物品,用戶-視頻,那就需要記錄商品id,視頻id等等這塊不是公共參數,可以根據業務的不同定義去定義
拓展字段可以留出一個空的desc或者info字段,未來業務有新增需求的時候,可以在這個字段當中以json字符串的形式進行拓展

以這樣的標準去寫埋點文檔,就有利于拉齊大家對埋點的認知,從而更高效,準確的溝通。核心的邏輯是從產品對UI的理解過渡到數據指標的設計然后到具體的開發環節,所以需要三方都要聽得懂

最后成型的埋點文檔應該長下面這樣

日志基礎信息頁面信息具體字段UI圖
事件事件類型名稱模塊記錄字段記錄值
首頁瀏覽page_view首頁曝光公共字段包含用戶id,設備號,時間頁面id等首頁ui圖
游戲id如果首頁屬于某個游戲或者某個商品

4、數據倉庫

4.1數分同學參與數倉的優勢

數據倉庫一般跟數據存儲,數據安全這些職能是綁定的,所以大部分工作會落到數據開發的同學身上。不過這種情況是在數據體系已經有一定沉淀的基礎上,如果是從零到一的數據倉庫搭建,數據分析同學的參與空間也是很大的。

數據開發的同學擅長將數據倉庫設計的高效,可拓展,可維護,但是在服務層和應用層當中要結合業務進行設計,比如對于一個短視頻產品,數開的同學能夠做到讓上數十億條數據的用戶-視頻維度的事實表清洗任務時長縮短一半,但是到了服務層以上,需要定義一些“近30天用戶活躍天數”,“近90天用戶觀看時長”的時候,數據開發的同學可能就會不知道怎么去設計能更加貼合業務了,此時就需要數分的同學參與進來。

4.2 數倉設計的經驗分享

數據倉庫一般分為:

1、ODS層(數據準備層):包含業務的原始日志,是直接接入數據源的部分。

2、DWD層(數據明細層):將DW層(DWD,DWM,DWS)與業務層(ODS)隔開的部分,在數據字段的定義上與ODS層保持相同的顆粒度,但是會把ODS層的原始JSON等字符串日志進行解析變成數據庫表,同時會做一些空值填補等數據清洗操作。

3、DWM層(數據中間層):在DWD的基礎上做輕微的聚合,計算出相應的統計指標,例如假設對于一個短視頻產品,DWD層記錄的是,用戶-創作者-作品-時長的維度數據,并且當一個用戶多次觀看同一個視頻,可能會產生多條記錄,那么在DWM層可能會根據業務需要把表聚合為用戶-創作者-時長的維度數據,每一對用戶-創作者的只會對應一條記錄。

4、DWS層(數據服務層):在DWM的基礎上整合的主題數據表,例如上面說的用戶-創作者-時長的中間表,可能會根據業務需要被聚合為用戶主題表:用戶-總時長-創作者人數....;創作者主題表:創作者-用戶數-總時長......;這里的數據維度通常就已經是具有業務含義的數據指標了

5、ADS層(數據應用層):這里主要是給提供給產品或者數據分析的表,比如BI展示的數據指標表,以及一些為了方便快速分析預聚合好的數據表,其數據指標自定義程度也會更高,比如”近90天觀看視頻數”等等。

通俗地說,數據倉庫從下層往上層設計的過程就是一個不斷group by的過程,從多條明細group by成一條,從N個維度group by成一兩個維度如何選擇維度,以及要group by出哪些指標,就是數據分析同學發揮作用的地方。一般ODS,DWD這兩個維度可以不需要數分同學參與,數據開發的同學保證數倉的準確性和穩定性即可,但是到了DWM層數據分析的同學就可以適當參與進來。比如此時DWM層待聚合的維度有20個左右,包括用戶id,創作者id,視頻信息,用戶的機型設備IP這些,那么數分的同學就可以結合平時的分析經驗挑選需要聚合哪些維度,比如IP,機型,如果在分析當中并不是一個主要的維度,那么在DWM層當中就無需保留,那么假設數分的同學平時要經常統計“活躍設備數”這樣的指標,那么設備ID就需要在DWM層保留下來。

設計數據倉庫的過程這里介紹Kimball的維度建模步驟:

1、選擇業務過程:這個步驟通俗地講就是業務場景,比如在某個直播產品當中,我們定義一條用戶的核心業務路徑定義為觀看直播-付費充值-禮物打賞,那么最初的事實表就需要確定是單一場景的觀看直播行為表,還是觀看直播-付費充值兩個場景疊加的表。

2、聲明粒度:確定主鍵,比如在上述的觀看直播行為表中,我們選擇用戶作為粒度。

3、確認維度:根據關聯分析的常用維度挑選字段,比如以用戶為粒度的表中,我們通常會關注用戶看了哪些主播,在什么渠道下看的,看的什么類型,那維度就需要包含主播id,渠道來源,直播品類,核心考量的就是業務相關性。

4、確認事實:也就是確定業務的度量指標,比如觀看直播場景下,業務需要關注時長,PV,那么就需要在聚合的過程中把這兩個指標計算出來。

如果按這個過程無限拓展,數倉的維度是可以拆出非常多的,常用的模式有:

模式特點維護難度使用廣泛度
星形模式以事實表為中心,全部的維表直連在事實表上
雪花模式維度表可以擁有其他的維度表
星座模式基于多張事實表,共享維度信息

無論是哪種,其實核心都是要在存儲空間和業務便捷性當中找到一個平衡點,維度表越多,分析的便利性就更強,但是同時增加了存儲成本;維度設計的簡單,數倉運行更高效,但是可能每次做稍微復雜的分析都要從最底層的表開始用起,降低分析效率。這一塊工作是需要數據分析和數據開發的同學長期共建的,數分同學提供業務視角的建議,數開的同學提供技術上的方案,單一方我覺得都很難把這塊做好。

5、數據治理-數據分析共同進化

其實分享了這么多,其實核心都是希望能夠給數分的同學提供一些跳出數據分析框架解決問題的思路,如果能夠了解一些數據治理的基礎方法,在一些關鍵的節點上就可以尋求數據開發的幫助。例如你在分析用戶路徑的過程中發現了一個很關鍵的行為,比如用戶在瀏覽3次以上商品詳情頁之后,購買率會提升10%,那么是不是可以設計對應的埋點,在每次用戶曝光商品時,讓開發同學記錄當天已曝光該商品的次數,產品也可以直接讀取這個數據做對應的干預策略;又例如某個視頻產品的數倉以前只有簡單的用戶-創作者-視頻維度的事實表,結果最近運營總是提需求看不同MCN機構的數據表現,那我們是不是可以給數倉的同學提需求增加對應的字段或者設計新的事實表和維度表,方便后續的BI能力搭建。

反過來說,數據開發的同學也能得到業務經驗的反哺,我發現商品曝光次數是一個非常關鍵的行為,那么我在下次打其他埋點的時候,也可以建議產品加上這個數據;我發現業務方經常看A維度數據不看B維度的數據,那我也可以設計一些更加便捷的維度表給他們用。

整體來說,我覺得對于數據治理這項工作,數分和數開的同學是一個相輔相成,共同進化的合作關系,如果未來大家在做項目的時候,遇到了需要自己參與到數據治理工作當中的情況,希望本文可以給到大家一些啟發。

九、2021豬肉需求量數據?

2021年,豬肉的需求量已經出現飽和狀態,由于今年的豬肉價格下調率太快,造成豬肉的行情比以前好多了,老百姓的購買能力增強,也讓養殖戶看到了可觀的利潤,豬肉的供應量還會提高,所以說今年2021年豬肉的需求量會有所增加,漲幅度不會太高。

十、人才需求如何調查數據?

從分析用人部門需求到最終候選人入職,每個環節都可能影響到招聘的結果和狀態。

對于HR來說,如果想要把業務做得更加專業,

對招聘流程更有控制,那HR就需要用數據分析的思維去指導招聘工作,學會用數據指導招聘。

具體到招聘實踐當中,招聘可以從這四個維度去分析:

關鍵績效、招聘過程、渠道效果和招聘成本。

每一個維度都會有相應的計算方法和展現形式,

企業不同,取值方式不同,展現形式也不完全相同。

HR在招聘過程中,還有很多環節可以用數據進行分析總結。

主站蜘蛛池模板: 巴楚县| 榆社县| 施甸县| 延庆县| 沅江市| 德安县| 盘锦市| 宁陵县| 广元市| 伊吾县| 大连市| 屏南县| 曲水县| 新竹市| 平陆县| 黄浦区| 新余市| 苏州市| 霍邱县| 太湖县| 青神县| 华阴市| 施甸县| 全南县| 岳西县| 格尔木市| 同心县| 三亚市| 宜良县| 南川市| 鹤山市| 新建县| 安康市| 黎川县| 元氏县| 贡嘎县| 紫金县| 绥棱县| 嘉义市| 华宁县| 辽阳县|