日韩偷拍一区二区,国产香蕉久久精品综合网,亚洲激情五月婷婷,欧美日韩国产不卡

在線客服

數據分析方向實用13篇

引論:我們為您整理了13篇數據分析方向范文,供您借鑒以豐富您的創作。它們是您寫作時的寶貴資源,期望它們能夠激發您的創作靈感,讓您的文章更具深度。

篇1

2. 網站訪問時段

從上圖觀察發現,我們可以分析出用戶在上午9點-11點,下午14點-17點,這兩個時段較為活躍,那么便可根據此進行推廣,因為訪客越是活躍,進行推廣便更嘔效果。同樣的,在做競價推廣時,也可以此作為參考。

3. 搜索引擎分析

有統計數據可以發現,各個搜索引擎過來的流量有多少,而從該網站數據上看,該網站的主要訪客來源于百度,竟然如此,該站就更加需要加強百度優化,更多的去迎合百度。

4.搜索詞

通過對搜索詞的查看,我們可以查看用戶主要通過哪些詞來到該網站,從而可根據此來對長尾關鍵詞進行挖掘。同時我們可以發現用戶是通過一些我們根本想不到的詞來訪問網站,通過這些詞我也可作為研究用戶搜索習慣的重要參考因素。

5.訪問時長及跳出率

通過對訪客的頁面停留時間長短及跳出率,我們可以分析出用戶的需求點,從而分析出哪些最終頁,哪些是過度頁。如此此我們就可以根據此來對頁面進行優化,以及分析哪些欄目更應放在首頁等。

6.瀏覽器訪問比例

篇2

The Application of Correlation Analysis Algorithms in the Data Invites Chien

ZHANG Hanyun,DUAN Peng

(School of Mathematics and Computer Science,Yunnan University of Nationalities,Kunming 650031,China)

Abstract: The data warehouse was constructed by using the mass data of computer science majors’ scores generated during the past three years in thirteen classes of four grades, we analyze the corresponding degree of different courses in the database using corresponding analyzing techniques, and condense the attributes in database according to corresponding factors, An example is given to illustrate the application of the proposed method. The analysis introduced in the paper has provided a scientific basis for improving the teaching quality .Then it is prepare for the Association rules mined of different courses.

Key words: data mining;data warehouse; correlation analysis

相關分析法是在分析某個問題或指標時,將與該問題或指標相關的其他問題或指標進行對比,分析其相互關系或相關程度的一種分析方法,用少數幾對綜合變量來反映2組變量間的線性相關性質.目前它已經在眾多領域的相關分析和預測分析中得到廣泛應用.本文主要研究如何利用相關分析技術產生計算機專業課之間的相關系數,發現專業課程之間的相關度,對數據倉庫中的數據進行約簡[1].

1 相關分析

1.1 相關分析概述[2]

相關分析(Correlation Analysis)是研究隨機變量之間的相關關系的一種統計方法.相關關系是一種非確定性的關系,例如,以X和Y分別記一個人的身高和體重,或分別記每公頃施肥量與每公頃小麥產量,則X與Y顯然有關系,而又沒有確切到可由其中的一個去精確地決定另一個的程度,這就是相關關系.例如,教育投資與教育發展速度的關系、教師教學水平和學生的學習效果之間的關系等[3].

相關系數值為-1(完全負相關關系)~+1(完全正相關關系)之間,相關系數為0時,表示不存在相關關系.例:

正相關:學生的學習能力與學習成績的關系;

負相關:教師的身體狀況與缺勤率的關系;

零相關:教師的身高與教學能力的關系.

Pearson相關用于雙變量正態分布的資料,其相關系數稱為積矩相關系數(Coefficient of Product-Moment Correlation).進行相關分析時,我們一般會同時對2變量繪制散點圖,以更直觀地考察2變量之間的相互變化關系[4].

用Flag Significant Correlations 進行顯著性檢驗,標出有顯著性意義的相關系數,用一個星號“*”標記在α=0.05水平上有顯著性意義的相關系數;用2個星號“**”標記在α=0.01水平上有顯著性意義的相關系數[5].

1.2 相關分析的表示方法

進行相關分析的主要方法有圖示法和計算法.圖示法是通過繪制相關散點圖來進行相關分析,計算法則是根據不同類型的數據,選擇不同的計算方法求出相關系數來進行相關分析.

1.2.1 圖示法

圖示法的具體做法就是繪制相關散點圖.相關散點圖是觀察2個變量之間關系的一種非常直觀的方法.具體繪制的方法是:以橫軸表示2個變量中的1個變量(作為自變量),以縱軸表示另一個變量(作為因變量).將2個變量之間相對應的變量值以坐標點的形式逐一標在直角坐標系中,通過點的分布形狀和疏密程度來形象描述2個變量之間的相關關系.

相關散點圖可以通過手工繪制而得到.但如果面對的變量值比較多,手工繪制的過程既費時,又不夠精確.

1.2.2 計算法

相關系數也稱為相關量,是用來描述變量之間變化方向和密切程度的數字特征量,一般用r表示.它的數值范圍在-1到+1之間,它的正負號反映變量之間變化的方向;它的絕對值的大小反映變量之間關系的密切程度.

根據2個變量變化的密切程度,我們把相關關系分為完全相關、高度相關、中度相關、低度相關、零相關[6].

完全相關:│r│=1的相關;

高度相關或強相關:0.7≤│r│<1的相關;

中度相關:0.4≤│r│<0.7的相關;

低度相關或弱相關:│r│<0.4的相關.

1.3 Pearson相關

Pearson相關也稱積差相關,積差相關也稱積矩相關,是英國統計學家Rearson提出的一種計算直線相關的方法,因而又稱為Rearson相關[6-7].

積差相關系數是2列成對觀測值中各對觀測值的標準分數乘積之和除以觀測值對數所得之商[8].

1.3.1 Pearson相關的使用條件

1) 2個變量之間是線性關系,都是連續數據;

2) 2個變量的總體是正態分布,或接近正態的單峰分布;

3) 2個變量的觀測值是成對的,每對觀測值之間相互獨立.

1.3.2 Pearson相關的計算公式

r=∑ZXZYn=∑X-Y-nσXσY.

式中,[ZK(]n表示數據的對數;σX,σY分別表示X和Y變量的樣本標準差;[JP],分別表示X和Y變量的樣本平均數.[ZK)]

對于學生成績,其課程總體分布接近正態分布,滿足Pearson相關的使用條件.在統計軟件SPSS中,可以很方便地得出2變量之間的Pearson相關系數.[JP]

2 用相關分析法進行數據約簡

2.1 學生成績數據倉庫的建立

數據選擇上,主要選擇了作者所在學校計算機專業3年來產生的專業基礎課成績,收集并整理了包含高等數學、C語言、數據結構和數據庫系統原理的504條學生成績數據.并將具體的成績數據離散化為4個等級[9],即:

成績>=80“A”; 70=

2.2 用相關分析法進行數據約簡

對大規模數據庫內容進行復雜的數據分析通常需要耗費大量的時間,這就常常使得這樣分析變得不現實和不可行,尤其是需要交互式數據挖掘時.數據約簡技術正是用于幫助從原有龐大數據集中獲得一個精簡的數據集合,并使這一精簡數據集保持原有數據集的完整性,這樣在精簡數據集上進行數據挖掘,顯然效率更高,并且挖掘出來的結果與使用原有數據集所獲得結果基本相同[10].

數據約簡并不是一個新的領域,現在已經提出了很多理論和方法,如:層次分析法,主成分分析法,隨機抽樣、免疫算法等.本研究根據實際需要,提出將相關分析方法應用于學生成績的屬性約簡,即方便快捷又不失理論性.

在SPSS軟件中,畫出計算機專業課高等數學成績的直方圖,如圖1.

用同樣的方法,可以畫出其他計算機專業課如C語言、數據結構等的直方圖,可以看出,我們所建立的數據倉庫中,學生計算機專業課程成績基本上符合正態分布,滿足Pearson相關的使用條件.

我們用雙變量相關分析技術來分析相關課程之間的關聯程度,并做出統計學推斷,以最少的數據量反映最大的信息量,進而對數據庫的屬性進行約簡.通過相關分析約簡相關性較弱的屬性,選擇相關性強的屬性而不直接利用數據庫中的所有屬性,從而減少大量冗余屬性,以提高算法的效率.

在SPSS中進行課程間Pearson相關系數分析,得到計算機專業課程相關系數分析表如表1.

1:表中數值為4門課程進行相關分析得到的皮爾遜相關系數(Pearson Correlation)、相伴概率(Sig.(2-tailed))、樣本個數(N).“*”標記在α=0.05水平上有顯著性意義的相關系數;用兩個星號“**”標記在α=0.01水平上有顯著性意義的相關系數;

2:相伴概率用來判斷求解線性關系的兩變量之間是否有明顯的線性關系.一般將這個Sig值與0.05相比較,如果它大于0.05,說明平均值在大于5%的幾率上是相等的,而在小于95%的幾率上不相等;如果它小于0.05,說明平均值在小于5%的幾率上是相等的,而在大于95%的幾率上不相等;如C語言與數據結構的Sig是0,此數值說明C語言與數據結構有顯著的線性關系(因為Sig0.05,則說明兩變量之間沒有明顯的線性關系).

由表1可以看出,同一門課程之間的Pearson相關系數為1,是完全相關關系.高等數學與C語言之間的Pearson相關系數為0.283,C語言與數據結構之間的Pearson相關系數為0.281,數據結構與數據庫系統原理之間的Pearson相關系數為0.565,并且都有“*”標記,由此可以推斷這4組課程之間有顯著性意義的相關性.

3 結語

用相關分析技術對數據庫進行約簡,結果表明:線性代數、計算機導論及Pascal語言等多個因素相關性較弱;而C語言、數據結構、高等數學及數據庫系統原理之間相關性較強,根據數據庫約簡原則,可將線性代數、計算機導論及Pascal語言等多個屬性項從數據庫中刪除,以便提高數據挖掘效率.

參考文獻:

[1]段西凌,甘開鵬.數據挖掘在人口普查信息系統中的應用[J].云南民族大學學報:自然科學版,2006,15(2):170-172.

[2]茆詩松.統計手冊[M].北京:科學出版社,2003.

[3]TANG Zhaohui,MACLENNAN J.數據挖掘原理與應用[M]. 鄺祝芳,焦賢龍,高升,譯.北京:清華大學出版社,2007.

[4]王艷.數據挖掘中關聯規則的探討[J].成都信息工程學院學報,2004,19(2):173.

[5]張儒良,王翰虎.論數據挖掘優化教學管理[J].貴州民族學院學報,2004:133.

[6]趙輝.數據挖掘技術在學生成績中分析中的應用[D].大連:大連海事大學,2007.

[7]王月敏.基于遺傳算法的智能組卷系統研究[J].云南民族大學學報:自然科學版,2009,18(2):173-176.

[8]劉利鋒,吳孟達. 關聯規則的快速提取算法 [J].計算機工程.2008,34(5):63-65.

[9]李萍,段富.數據挖掘中數據約簡的研究與應用[J].微計算機應用.2009,25(2):58-60.[ZK)]

[10][ZK(#]蔡勇,韓永國,劉自偉.數據挖掘技術在生源分析中的應用研究[J].計算機應用研究.2004,32(6):48-51.

篇3

真人秀(也稱真人實境秀、真實電視,reality television)一般是指以電視傳媒為介質,通過舉辦某一類別的比賽活動,以從多名參賽者中選取最終獲勝者為目的;同時,有著豐富的獎品,可以獲得廣泛的經濟效益的電視節目。

2、大數據環境下的電視真人秀節目量產分析

盡管電視真人秀節目在熒屏上的收視率已經達到了一定的高度,但是從采編的實際角度上來分析的話,電視真人秀節目在現在的環境下如果實行量產的話仍然有一定的難度,綜合分析主要包括以下四種原因:

2.1采編工作量大。《爸爸去哪兒》每一集都要有五組家庭參與演出,在每一集的游戲設計上,采編人員和導演組要進行多次的協同溝通,無論是從工作量上還是從信息量上都是很大的。盡管每一集的播出時長僅為120分鐘左右,但是導演組要分別派出至少五組的采編人員跟隨演員實景拍攝72小時。這與常規的綜藝娛樂節目最多的2組采編人員現場工作1-2個小時比起來完全是一種“量化”的突破。

2.2后期制作繁瑣。為了突出節目效果,才拍攝素材匯總完成之后,在剪輯的過程中要有大量的后期特效制作跟進,無論是畫面效果還是工作量,在我國的電視熒屏上都是一次創新。如此大的信息量,讓整個《爸爸去哪兒》節目的數據庫信息完全達到了一個峰值。

2.3演員甄選難度高。第一季播出的成功如果是因為節目較為新穎的原因的話,那么第二季以后的節目在演員的甄選上也就相對的增加了很大的壓力,因為按照廣電總局的相關要求,對于這種真人秀的演員甄選要本著一定的原則來執行,因此盡管這個工作并不是采編人員要具體跟進的,但是在整個過程中,幾乎每一個環節上都有采編人員忙碌的身影。

2.4社會效應和經濟效果不成正比。《爸爸去哪兒》在播出的過程中,其實反映了當下的許多育兒教育方面的問題,因此引起的社會效應是十分轟動的,但是由于節目制作過程十分的繁瑣,需要耗費大量的人財物來為其支撐體系的運轉,因此就目前的情況來看,除了與之同名的電影節目的經濟收益還較為明顯之外,常規的電視節目其經濟收益并沒有太過突出。

3、大數據環境下的電視真人秀節目量產改進措施

每一集如此龐大的信息量,和相對不成正比的經濟效益,給節目組,尤其是采編人員帶來了巨大的工作壓力,再加之節目前兩季所取得的巨大社會效應,對于今后的節目制作而言,應遵從以下的幾個改進方向:

3.1將節目大數據由量化管理向質化管理推進。前兩季的成功,節目信息量的相對較為集中起了決定性的作用,如此大的節目數據如果仍然延續現在的量化管理模式的話,不僅仍然要增加采編工作人員的相對工作量,還可能因為節目效果的重復和同化讓節目的收視效果受到沖擊,因此,必須將節目的大數據從量化管理向質化管理進行改革。這種改革主要是將節目的全部信息數據由最初的后期集約化篩選向前期的質量篩選推進。所謂質量篩選是在減少固定攝影機位的同時,增加人工定位攝影機位,這樣在表面上看起來是增加了攝影師的工作量,但是從實際的拍攝效果上來看,其實是減少了總體的節目素材累積量,因為對于固定機位而言,是長時間定位拍攝的,幾乎是在演員到達拍攝現場之后就開始了,在演員離開拍攝現場之后才結束。而對于人工定位攝影而言,在需要采集素材的時候才開始拍攝,在不不要采集素材的時候是處于待機或者關機狀態。這樣在節目的后期制作上對于素材的審驗就節省了大量的時間。

3.2采取商業化運作管理節目大數據。幾百個小時的節目素材最終要濃縮到2個小時的實際播出節目中,其中海量的數據信息被浪費掉了,盡管這些數據信息中也有許多亮點內容和較為新穎的元素,但是僅僅是一個時間關系的問題就把其浪費掉了,這種情況無論是從節目的社會效應上還是從經濟角度都是一種極大的浪費。如果采用一些商業化運作的模式來管理這些大數據的話,其實完全有很大的空間來改進。

首先,將大數據信息分類管理。前兩季的節目不僅帶來了轟動的社會影響,也催生了許多粉絲群的出現,對于這些粉絲群來說,相對應的偶像在拍攝過程中的信息是十分關注的,如果將一些沒有正式播出的信息按照不同的演員主題進行分類處理,可以滿足一些粉絲的需求。

其次,將分類信息商業化包裝。畢竟粉絲群的影響力是有局限性的,而且也不一定帶有太多的商業元素在其中,不過如果將這些經過分類處理的信息通過商業包裝之后以單一演員的形式推向市場的話,那么對于廣大的市場消費群體而言也會是一種拉動。

最后,將包裝信息網格化銷售。《爸爸去哪兒》是通過電視平臺播出的,相關的數據信息如果再通過電視平臺播出的話,并不一定能夠再取得太好的收益,《中國好聲音》的相關節目包裝就是一個反面的教材,隨著互聯網技術和網絡媒體的興盛,如果通過點播平臺和互聯網媒體互動平臺全方位網格化處理這些信息的話,可能要比單一的從電視平臺上獲取收益要強的多。

4、結束語

綜上所述,在大數據環境下,如果讓電視真人秀節目實現量產,達到社會效應和經濟效果雙豐收,其核心在于將采編工作從策劃開始就實行團隊協同合作的方式。這種方式能夠將海量的數據分析細化到每一個節點上進行處理。從而讓電視節目效果達到最佳狀態。

參考文獻:

篇4

一、引 言

居民消費價格指數(Consumer Price Index,英文縮寫為CPI)是反映一定時期內居民消費價格變動趨勢和變動程度的相對數,是以居民購買并用于消費的一組代表性商品和服務項目價格水平的變化情況來反映居民消費價格變動幅度的國民經濟核算統計指標。從一般理論來看,居民消費價格指數受社會總供給與社會總需求之間差數的影響,也受到貨幣發行量的影響。這一指標影響著政府制定貨幣、財政、消費、價格、工資、社會保障等政策,同時也與居民生活密切相關,因此,長期以來,不僅宏觀政策的制定者密切關注著CPI的高低,而且很多學者也圍繞著CPI進行了大量的理論和實證研究。尤其是自2007年以來,CPI持續地呈高位增長,引起了政府、學者、企業廠商的高度關注,成為目前學界研究領域的一個熱點難點問題。

關于CPI的影響因素分析,學界已有研究。李敬輝、范志勇(2005)將糧食價格波動作為價格指數變動的重要因素[1],李慶華(2006)認為固定資產投資增長率對消費價格通脹率的反應是相當敏感和強勁的[2],何維煒等(2007)則認為食品價格和居住價格是決定CPI走勢抬高的兩大主導力量[3]。這些研究都有一定的科學性,但將過多的將視線注意于CPI的構成因素上,即CPI的結果本身是由這些因素如食品、居住等加權計算得來的,這無疑具有較大的自相關性。

筆者認為CPI漲幅的適度規模是由于經濟社會發展、產業結構調整、資源的有限性等諸因素綜合發展的必然結果,屬正常調整。然而,CPI的過高上漲則反映了社會供需之間的矛盾已經明顯,客觀上需要及時調整影響社會供需關系的主導因素以將CPI穩定在一定的變化幅度內。因此,本文試圖從一個比較長的時間跨度內,選取影響社會供需的主導因素的數據,通過VAR模型來測試CPI的影響因素及其程度。

二、VAR模型設置、估計與解釋

(一)數據收集和變量選擇

從宏觀經濟理論看,社會總供給主要有消費、儲蓄、稅收以及進口等構成,社會總需求主要有消費、投資、政府購買以及出口。可進一步將這些因素具體化為城鎮居民人均可支配收入、農村居民人均可支配收入、全社會固定資產投資、貨幣供應量、工業品出廠價格指數、農業生產資料價格指數、出口總額和進口總額。

從宏觀經濟理論來看,物價上漲的原因一般有三種情況:第一種情況是需求拉動式的物價上漲,它是由于需求擴張所引起的;第二種情況是成本推動式的物價上漲,它是由于原料、燃料價格等成本價格的上漲所引起的;第三種情況是物價上漲的國際傳遞,它是由于一個國家的物價上漲或貨幣貶值傳導到他國的現象。為了較準確地分析CPI的影響因素,須對每一種情況進行考察。

從需求來看方差分解,自2007年全國各地區開始出臺了不同程度地提高工資的政策措施。提高工資在短期內會增加居民的購買力,進而有效地刺激需求。一方面,產品會由于需求的增加而漲價,另一方面,這會增加投資者的預期,刺激他們更多的投資。因而,收入的增加在很大程度上拉動了物價上漲。同時,為了盡可能準確客觀地分析收入對CPI的影響程度,在這里采用城鎮居民可支配收入作為變量,因為農村居民可支配收入在對CPI的上漲是滯后的,反應不敏感。其次,貨幣供應量也是影響需求變化的重要因素,根據貨幣數量論,通脹率來自貨幣增長率,所以它在一定程度上具有內生性。再次,固定資產投資規模在很大程度上決定產品價格,固定資產投資由于主要是由政府支撐的,所以它不會因為貨幣政策的變化而發生顯著變化,基于此,將其也作為一個變量進入模型。

從供給來看,農產品價格和工業品價格的增加是物價總水平上漲的外在因素,考察農產品價格波動的指標是農業生產資料價格指數,考察工業品價格波動的指標是工業品出廠價格指數。因此,用農業生產資料價格指數和工業品出廠價格指數來反映供給方的變化,將其作為外生變量進入模型。

從國際傳遞來看,由于我國的經濟總量比較大,經濟結構是復合型的,即不是單一地依賴某一生產要素取得發展,因此,其他國家的物價上漲或貨幣貶值的波及效應是有限的,意即國外通脹率的變化對我國CPI的影響是不顯著的。

(二)VAR模型的建立與估計

根據上述分析,我們選取居民消費價格指數(CPI)、城鎮居民人均可支配收入(Income)、貨幣供應量(Money Providence,簡寫為M)、固定資產投資(Permanent Assets,用PA代替)、農業生產資料價格指數(Agricultural ProductionPrice Index,簡寫為API)、工業品出廠價格指數(IndustrialProduction Price Index,簡寫為IPI),為了量綱的統一,將這些變量通用“率”來考量。

在模型中將貨幣增長率(貨幣供應量)作為內生變量,同時由于固定資產增長率(固定資產投資)決定于利率和貨幣供給兩者的變化,因此將固定資產增長率也作為內生變量進入模型。將來自兩方面的供給沖擊——農業生產資料價格指數API和工業品出廠價格指數IPI作為外生變量。基于此,根據歷年中國統計年鑒并經計算整理后,得到表1的樣本。

表1 與模型相關的數據表

 

YEAR

CPI

M

PA

API

IPI

1990

103.1

100.0

102.4

105.5

104.1

1991

103.4

126.5

123.9

102.9

106.2

1992

106.4

131.3

144.4

103.7

106.8

1993

114.7

137.3

161.8

114.1

124.0

1994

124.1

134.5

130.4

121.6

119.5

1995

117.1

129.5

117.5

127.4

114.9

1996

108.3

125.3

114.5

108.4

102.9

1997

102.8

119.6

108.8

99.5

99.7

1998

99.2

114.8

113.9

94.5

95.9

1999

98.6

114.7

105.1

95.8

97.6

2000

100.4

112.3

110.3

99.1

102.8

2001

100.7

117.6

113.1

99.1

98.7

2002

99.2

116.9

116.9

100.5

97.8

2003

101.2

119.6

127.7

101.4

102.3

2004

103.9

114.9

126.8

110.6

106.1

2005

101.8

117.6

126.0

108.3

104.9

2006

101.5

115.7

篇5

摘要:在虛擬現實項目制作中,由于種種原因,海量數據處理是一項艱巨而復雜的任務,本文主要論述了海量數據處理困難的原因,并提出了對海量數據進行處理的方法。

Abstract: In the virtual reality project production, due to various reasons, mass data processing is a difficult and complex task. This paper discusses the reasons for massive data processing difficulties, and provides methods for massive data processing.

關鍵詞:虛擬現實 海量數據

Key words: virtual reality;massive data

中圖分類號:TP39 文獻標識碼:A文章編號:1006-4311(2011)19-0158-02

0引言

虛擬現實項目制作過程中,由于虛擬現實包含的內容豐富,需要載入的數據量有時會非常巨大,需要進行處理和查詢的內容很多,然后還要以文字和圖像的形式進行表示出來,所以經常會遇到海量數據處理的瓶頸,造成這種情況的原因是:

①數據量過大,數據中什么情況都可能存在。如果說有10條數據,那么大不了每條去逐一檢查,人為處理,如果有上百條數據,也可以考慮,如果數據上到千萬級別,甚至過億,那不是手工能解決的了,必須通過工具或者程序進行處理,尤其海量的數據中,什么情況都可能存在,例如,數據中某處格式出了問題,尤其在程序處理時,前面還能正常處理,突然到了某個地方問題出現了,程序終止了。

②軟硬件要求高,系統資源占用率高。對海量的數據進行處理,除了好的方法,最重要的就是合理使用工具,合理分配系統資源。一般情況,如果處理的數據過TB級,小型機是要考慮的,普通的機子如果有好的方法可以考慮,不過也必須加大CPU和內存,就象面對著千軍萬馬,光有勇氣沒有一兵一卒是很難取勝的。

③要求很高的處理方法和技巧。這也是本文的寫作目的所在,好的處理方法是一位工程師長期工作經驗的積累,也是個人的經驗的總結。沒有通用的處理方法,但有通用的原理和規則。

在多個虛擬現實項目的基礎上,尤其是通過與行內多名專家進行項目經驗交流,以下的方法都可以對海量數據在虛擬現實項目中的處理進行改善。

1選用優秀的數據庫工具

現在的數據庫工具廠家比較多,對海量數據的處理對所使用的數據庫工具要求比較高,一般使用Oracle或者DB2,微軟公司最近的SQL Server 2005性能也不錯。另外在BI領域:數據庫,數據倉庫,多維數據庫,數據挖掘等相關工具也要進行選擇,象好的ETL工具和好的OLAP工具都十分必要,例如Informatic,Eassbase等。筆者在實際數據分析項目中,對每天6000萬條的日志數據進行處理,使用SQL Server 2000需要花費6小時,而使用SQL Server 2005則只需要花費3小時。

2編寫優良的程序代碼

處理數據離不開優秀的程序代碼,尤其在進行復雜數據處理時,必須使用程序。好的程序代碼對數據的處理至關重要,這不僅僅是數據處理準確度的問題,更是數據處理效率的問題。良好的程序代碼應該包含好的算法,包含好的處理流程,包含好的效率,包含好的異常處理機制等。

3對海量數據進行分區操作

對海量數據進行分區操作十分必要,例如針對按年份存取的數據,我們可以按年進行分區,不同的數據庫有不同的分區方式,不過處理機制大體相同。例如SQL Server的數據庫分區是將不同的數據存于不同的文件組下,而不同的文件組存于不同的磁盤分區下,這樣將數據分散開,減小磁盤I/O,減小了系統負荷,而且還可以將日志,索引等放于不同的分區下。

4建立廣泛的索引

對海量的數據處理,對大表建立索引是必行的,建立索引要考慮到具體情況,例如針對大表的分組、排序等字段,都要建立相應索引,一般還可以建立復合索引,對經常插入的表則建立索引時要小心,筆者在處理數據時,曾經在一個ETL流程中,當插入表時,首先刪除索引,然后插入完畢,建立索引,并實施聚合操作,聚合完成后,再次插入前還是刪除索引,所以索引要用到好的時機,索引的填充因子和聚集、非聚集索引都要考慮。

5建立緩存機制

當數據量增加時,一般的處理工具都要考慮到緩存問題。緩存大小設置的好差也關系到數據處理的成敗,例如,筆者在處理2億條數據聚合操作時,緩存設置為100000條/Buffer,這對于這個級別的數據量是可行的。

6加大虛擬內存

如果系統資源有限,內存提示不足,則可以靠增加虛擬內存來解決。筆者在實際項目中曾經遇到針對18億條的數據進行處理,內存為1GB,1個P4 2.4G的CPU,對這么大的數據量進行聚合操作是有問題的,提示內存不足,那么采用了加大虛擬內存的方法來解決,在6塊磁盤分區上分別建立了6個4096M的磁盤分區,用于虛擬內存,這樣虛擬的內存則增加為4096*6+1024=25600M,解決了數據處理中的內存不足問題。

7分批處理

海量數據處理難因為數據量大,那么解決海量數據處理難的問題其中一個技巧是減少數據量。可以對海量數據分批處理,然后處理后的數據再進行合并操作,這樣逐個擊破,有利于小數據量的處理,不至于面對大數據量帶來的問題,不過這種方法也要因時因勢進行,如果不允許拆分數據,還需要另想辦法。不過一般的數據按天、按月、按年等存儲的,都可以采用先分后合的方法,對數據進行分開處理。

8使用臨時表和中間表

數據量增加時,處理中要考慮提前匯總。這樣做的目的是化整為零,大表變小表,分塊處理完成后,再利用一定的規則進行合并,處理過程中的臨時表的使用和中間結果的保存都非常重要,如果對于超海量的數據,大表處理不了,只能拆分為多個小表。如果處理過程中需要多步匯總操作,可按匯總步驟一步步來,不要一條語句完成,一口氣吃掉一個胖子。

9優化查詢SQL語句

在對海量數據進行查詢處理過程中,查詢的SQL語句的性能對查詢效率的影響是非常大的,編寫高效優良的SQL腳本和存儲過程是數據庫工作人員的職責,也是檢驗數據庫工作人員水平的一個標準,在對SQL語句的編寫過程中,例如減少關聯,少用或不用游標,設計好高效的數據庫表結構等都十分必要。筆者在工作中試著對1億行的數據使用游標,運行3個小時沒有出結果,這是一定要改用程序處理了。

10使用文本格式進行處理

對一般的數據處理可以使用數據庫,如果對復雜的數據處理,必須借助程序,那么在程序操作數據庫和程序操作文本之間選擇,是一定要選擇程序操作文本的,原因為:程序操作文本速度快;對文本進行處理不容易出錯;文本的存儲不受限制等。例如一般的海量的網絡日志都是文本格式或者csv格式(文本格式),對它進行處理牽扯到數據清洗,是要利用程序進行處理的,而不建議導入數據庫再做清洗。

11定制強大的清洗規則和出錯處理機制

海量數據中存在著不一致性,極有可能出現某處的瑕疵。例如,同樣的數據中的時間字段,有的可能為非標準的時間,出現的原因可能為應用程序的錯誤,系統的錯誤等,這是在進行數據處理時,必須制定強大的數據清洗規則和出錯處理機制。

12建立視圖或者物化視圖

視圖中的數據來源于基表,對海量數據的處理,可以將數據按一定的規則分散到各個基表中,查詢或處理過程中可以基于視圖進行,這樣分散了磁盤I/O,正如10根繩子吊著一根柱子和一根吊著一根柱子的區別。

13避免使用32位機子

目前的計算機很多都是32位的,那么編寫的程序對內存的需要便受限制,而很多的海量數據處理是必須大量消耗內存的,這便要求更好性能的機子,其中對位數的限制也十分重要。

14考慮操作系統問題

海量數據處理過程中,除了對數據庫,處理程序等要求比較高以外,對操作系統的要求也放到了重要的位置,一般是必須使用服務器的,而且對系統的安全性和穩定性等要求也比較高。尤其對操作系統自身的緩存機制,臨時空間的處理等問題都需要綜合考慮。

15使用數據倉庫和多維數據庫存儲

數據量加大是一定要考慮OLAP的,傳統的報表可能5、6個小時出來結果,而基于Cube的查詢可能只需要幾分鐘,因此處理海量數據的利器是OLAP多維分析,即建立數據倉庫,建立多維數據集,基于多維數據集進行報表展現和數據挖掘等。

16使用采樣數據,進行數據挖掘

基于海量數據的數據挖掘正在逐步興起,面對著超海量的數據,一般的挖掘軟件或算法往往采用數據抽樣的方式進行處理,這樣的誤差不會很高,大大提高了處理效率和處理的成功率。一般采樣時要注意數據的完整性和,防止過大的偏差。筆者曾經對1億2千萬行的表數據進行采樣,抽取出400萬行,經測試軟件測試處理的誤差為千分之五,客戶可以接受。

還有一些方法,需要在不同的情況和場合下運用,例如使用鍵等操作,這樣的好處是加快了聚合時間,因為對數值型的聚合比對字符型的聚合快得多。類似的情況需要針對不同的需求進行處理。

海量數據是發展趨勢,對數據分析和挖掘也越來越重要,從海量數據中提取有用信息重要而緊迫,這便要求處理要準確,精度要高,而且處理時間要短,得到有價值信息要快,所以,對海量數據的研究很有前途,也很值得進行廣泛深入的研究。

參考文獻:

篇6

一、云模型的介紹

云模型主要是定性和定量轉換的模型。在模糊數學和隨機數學的基礎上采用云模型來統一描畫出語言值中存在的大量隨機性、模糊性和二者間的關聯性。用云模型來表示自然語言中的基元即語言值,用云的數字特征即期望、熵以及超熵來表示語言值的數學性質。它既體現了代表定性概念值的樣本中的隨機性,又體現了隸屬程度的不確定性,從而展示了隨機性和模糊性之間的關聯。目前,云模型被廣泛的應用到信任評估、圖像分割和時間序列挖掘等領域上。

二、大數據典型相關分析的現狀

人們在工程實踐項目和科研工作中收集到的大量數據大部分都具備大數據的特性,但是把大數據作為一個獨立的科學來研究是比較新鮮的。其主要相關的研究領域有:生物信息領域,一部分學者研究了生理電大數據的壓縮和存儲等方面問題,將生物學研究中的搜集到的數據可以看做大數據;數據挖掘領域,一些科學家研究了大數據挖掘中存在的在線特征的選擇問題;大數據程序開發以及存儲方面,一些科學家研究了大數據和云計算現狀等。在現階段,大數據研究過程中,還存在諸多不成熟的地方,需要對其進行進一步的完善。雖然一些學者探討了在云計算平臺下的大數據存儲方法,但是并沒有對大數據典型相關分析進行研究,也沒有提出云模型下的大數據典型相關分析方法,使得這一類的研究比較缺乏,因此,就需要加強對大數據典型相關分析的研究,提出切實可行的方法,從而完善大數據典型相關分析,來滿足大數據研究的需求。

三、基于云模型下的大數據典型相關分析方法

1、執行大數據典型相關分析的流程。大數據典型相關分析的流程包括:首先,在各個云端上依據當前云端中的數據,運用逆向云發生器形成云數字特征;其次,把各個端點云傳送到中心云端,采用多維云進行合并,最終在中心云端中生成中心云;再者,依據中心云,采取正向云發生器生成中心云滴;最后,在中心云滴上實行典型相關分析。2、端點云的生成方法。利用逆向云發生器,在云端中的數據中生成云,就是端點云的生成過程。本文主要采用的是多維的逆向正態云發生器。為了提高在大數據中多維逆向正態云發生器生成云的效率,可以在隨機采樣的方法下,采取啟發式的策略生成云。3、多維云的合并方法。在進行多維云合并時,每次只能進行一對云的加法計算。當采用反復調用方式使,每合并一次云,其新生云需要加入合并的操作中,使云的總體數量只能減少一個,大大降低了合并的效率。在大數據的背景下,由于受到數據存儲或者收集方法的影響,就會使不同云端產生的數據也不盡相同,因此,在合并各個云端傳遞到中心云端的云時,要充分地考慮各云端數據的差異。

四、影響大數據典型相關分析方法的因素

1、中心云滴群的大小。隨著云滴群的規模不斷的擴大,典型相關分析的系數誤差也逐漸下降,當達到一定程度時,其下降的速度趨向平緩的狀態。這就顯示出適當的增大云滴群的規模,可以有效地降低典型相關系數誤差,通過少量的云滴可以體現了大數據中包含的相關性。2、云端數量。不同云端數量對典型相關系數的誤差有著不同的差異性,當云端數量不斷增多時,其運行的速度也相對提高。3、數據容量。隨著數據容量的不斷增大,其對應的典型相關系數的誤差也隨之上升。在大數據環境下,典型相關分析系數的誤差有一定的波動性,同時期上升的幅度比較小。

五、總結

基于云模型的大數據典型相關分析方法主要是在小容量的中心云滴群中進行典型相關分析操作,從而提高在大數據環境下執行典型相關分析的效率。為了能夠快速生成中心云滴,改進了多為逆向正態發生器,進而提高了大數據下云的生成效率。同時也總結了多維云合并計算的方法,提升了云合并的速度和質量。為之后類型的研究工作提供了可靠的理論依據,進一步完善了云模型的大數據典型相關方法。

參 考 文 獻

篇7

一、短距離跑中的“擺動”技術

1.從擺與蹬占用時間上分析

有關資料表明:優秀短跑運動員一側腿的支撐時間僅占一個復步時間的22.1%,即蹬地時間,而擺動時間則占到77.9%,兩者之比為1∶3.5。所以,實際上不到1/4的時間是著地和蹬伸階段,而另3/4以上的時間都在擺,因此,從時間上看“擺”要比“蹬”重要得多。

2.從擺的技術動作上分析

在運動中擺的動作,是支撐到下次支撐中間的轉折環節,扒地也好,著地也好,一系列動作都是靠擺動正確與否來完成的。擺動不好,直接影響到下一個動作的完成質量。如果著地動作不好,勢必造成前支撐阻力大,又可能造成步幅短等。跑動中重視擺動技術,注重擺蹬結合,以擺促蹬,有效地提高后蹬效果,從而提高跑的經濟性和實效性。

3.從跑的技術本身分析

近幾年通過對世界優秀短跑選手的技術分析研究發現:“快擺”技術發揮著重大的作用,“快速擺動”已替代了“充分的后蹬”。現代短跑的先進技術,可以認為,快速蹬地,大幅度向前上方送髖抬腿,積極而有力的扒地是現代短跑技術的發展趨勢,而其中又以快速大幅度的擺動腿為關鍵性的技術。

二、短距離跑中的“屈蹬”技術

由于塑膠跑道的運用,特別是高質塑膠的出現和過去所使用煤渣道相比,膠道的彈性大大增加了。這就使我們過去傳統的“后蹬型”技術即所謂的髖、膝、踝三關節充分蹬直的技術已不再適應其變化的要求,取而代之的則是“屈蹬”技術。

1.從“屈蹬”技術的實效性分析

支撐腿后支撐時膝角變化小,蹬伸動作轉換自然、連貫、迅速,有利于提高步頻。小腿傾角后蹬角小,利于增大向前水平速度,減小重心波動,提高跑的實效性,協調步幅與步頻的關系,達到節省體力的目的。強調向前上方快速高抬擺動腿時適當減小后支撐腿髖、膝、踝三關節充分蹬直的幅度,以加大向前的實效性。

2.從“屈蹬”技術的前擺速度分析

“屈蹬”技術有利于減小大小腿折疊角度(即擺動時膝角最小值)縮短折疊時間,提高擺動腿的前擺速度和幅度,因為折疊角度越小,前擺阻力臂越小,而前擺時的角速度就越大,那么大腿帶動小腿前擺的速度也就加快。

三、短距離高速跑中的放松技能

近年來,隨著訓練和比賽條件的改善,塑膠跑道的普及以及訓練水平的科學化,訓練手段呈現多樣化,而放松跑技術在短跑中則成為一項重要的技術因素。所謂的高速跑中的放松技術是運動員在短跑運動過程中,生理、心理、運動負荷都能相互適應。在短距離跑中放松技術是快速擺動技術的發揮和利用,技術的好壞可以說直接影響著運動成績。

1.運動中的放松技術可以增強髖的運動能力

現代短跑技術中髖是人體水平加速的關鍵環節,以髖為軸的高速擺動――平動運動是短跑運動和短跑技術的本質特征。現代短跑技術注重在高速運動中整體運動環節的協調配合和高速跑動中肌肉的放松協調,在短跑中放松可以使肌肉協調用力、增強關節的靈活性和柔韌性,增大運動幅度。

2.高速跑中的放松可以增強擺動力量的發揮

如果短跑運動員下肢力量發展不均衡,腿的前群肌肉發達,后群力量較弱,則前擺大后擺小,就會形成“坐著跑”。而后群較前群發達,則前擺小后擺大,就易形成后撩小腿的毛病。如果髂腰肌力量不足,不利于大腿高抬,使大腿前擺不到位,大腿得不到放松,易疲勞、緊張。腰部肌群也如此,如果腹肌強背肌差,上體就會出現前傾,不利于腿部動作的完成。可以看出,高速跑中的放松技術就是擺動技術和擺動力量的發揮和利用,它是高水平短跑運動員提高運動成績不可忽視的因素,是短跑技術的核心,而這恰恰與現代短跑技術發展所呈現的新特點――“快速擺動”技術相

吻合。

篇8

【Key words】Civil aviation meteorological database system; Oracle; Down; inactive; LOCAL=NO

0 引言

民航氣象數據庫系統利用數據庫技術和商用數據庫管理系統,對各類氣象資料進行有效的組織與管理,采用統一的數據模型和用戶界面,從而實現對氣象資料的有效存儲和快速檢索,并具有分布調用、高度共享和安全可靠等性能,為航空氣象服務、氣象業務與科研培訓提供有力的支持。航空氣象情報及氣象資料的及時、準確、標準化獲取是保障民航安全運行的重要基礎。本文介B了一起由數據庫進程數達到最大導致民航氣象數據庫進程頻繁宕機故障,并給出了故障問題處理方法。

1 民航數據庫系統結構簡介

民航氣象數據庫系統是具有飛行氣象情報及氣象資料的制作、交換、備供、存儲等功能的信息系統,包括通信分系統、數據庫分系統、預報平臺及服務平臺四部分[1],如圖1所示。

1.1 通信分系統

通信分系統是民航氣象數據庫系統的基礎系統,它主要實現各類氣象資料的接收、檢查、處理,并根據一定的規則向其它系統及地區中心進行資料分發,同時實現氣象中心、地區中心與航站之間的數據交換。通信分系統將獲取的各種氣象數據發送給數據庫分系統,數據庫分系統將這些數據進行分類、解析和處理后存儲在數據庫中。

1.2 數據庫分系統

數據庫分系統采根據存儲數據的用途及時間劃分為實時庫、歷史庫及臨時庫,分別滿足不同的業務與服務的要求。數據庫分系統又分為資料處理子系統和數據庫管理子系統。

(1)資料處理子系統對服務器data目錄下接收到的氣象信息進行分析分解,質量控制后入庫;

(2)數據庫管理子系統采用C/S模式,對資料處理、數據庫等進行實時監控與管理,預報平臺與服務平臺則通過獲取Oracle數據庫中的氣象資料,以不同的形式展現給用戶。數據庫管理子系統主要側重于對數據庫中氣象資料的管理。提供的主要功能有:系統登錄、資料處理、數據庫管理、數據庫恢復、日志和統計、告警、用戶管理、進程管理、系統配置、窗口、幫助等。

1.3 預報平臺

預報平臺(民航氣象信息綜合處理系統)利用氣象實時數據庫資料,通過對數據庫中的氣象資料進行檢索、分析、處理,制作成文本、圖形等形式的氣象產品,為航空氣象預報人員提供服務。

1.4 服務平臺

氣象信息服務平臺從數據庫中提取相關產品,以WEB形式展示向航空氣象用戶提供航空氣象產品及服務。

2 故障現象

民航氣象數據庫系統數據庫子系統運行環境:硬件環境為IBM服務器;操作系統為AIX5.2;數據庫系統為oracle 10g。

數據庫運行一段時間后,資料處理子系統相關進程自動停止運行,導致621客戶端及相關協議單位無法檢索到最新資料,且重新啟動后再次停止運行或直接無法重新啟動。

3 故障分析

通過查看數據庫相應進程診斷文件方法檢查故障原因,數據庫診斷文件是獲取有關數據庫活動信息的一種方法,用于解決數據庫出現的一些問題,主要包含有關數據庫中出現的重要事件的一些信息,這些文件能更好的對數據庫進行日常的管理。

5 結束語

本文介紹了一起民航氣象數據庫常見故障,即達到進程最大連接數后導致相關用戶進程頻繁down機問題,造成用戶無法獲取最新報文和自觀數據,一般較為普遍的處理方法為采用修改系統最大進程連接數后重新啟動數據庫,但是民航氣象數據庫對系統停機重啟要求較高,重啟數據庫將導致用戶無法及時獲取數據,具有一定的安全風險。本文主要利用Oracle數據庫中遠程連接進程的共同特點,都含有關鍵字“LOCAL=NO”,然后經根據關鍵字“LOCAL=NO”篩選出inactive進程使用“kill -9”強行殺掉[4],此方法可以實現在不重啟數據庫情況下解決ORA-0020問題。

【參考文獻】

[1]太極計算機股份有限公司,民航氣象衛星傳真廣播系統用戶手冊[M].1-60.

篇9

在經濟全球化的趨勢下,隨著我國經濟的發展和人民幣升值的預期,外資正以各種方式不斷進入房地產市場,以追逐利潤獲取豐厚收益,從而使得房地產業已經成為繼通訊設備、計算機及其他電子設備制造業之后的外商投資第二大行業。與此同時,伴隨著蓬勃發展的房地產市場和熱度空前的房地產開發投資,房地產價格正在節節攀升,使得高房價已經成為與上學貴、看病難并稱的新三大民生問題之一,引起了社會各界的普遍關注。那么,不斷流入房地產市場的外資是否對持續攀升的房價產生了推波助瀾的作用呢,是否是房價上漲的又一重要影響因素呢?為了正確認識外資進入房地產市場將導致房地產價格泡沫的風險,我們有必要研究作為外資流入重要途徑的外商直接投資對我國房地產價格的影響。

二.文獻綜述

針對FDI對我國房地產價格的影響問題,我國學者進行了一些理論探索和實證分析。劉洪玉(2002)從房地產市場與資本市場的關系、房地產金融與投資開發的發展趨勢等角度,探討了國際資本投資中國房地產市場的可能趨勢以及國際資本進入對中國房地產市場的影響。鄭航濱(2006)利用利率平價理論、購買力平價理論、預期理論作為解釋境外資本流入房地產市場的依據,研究了境外資本的進入對我國房價的影響效應。梁立俊,操陳敏(2007)通過采用VAR 模型對我國八年的商品房價格與房地產開發中FDI的投入額月度數據進行分析。證明FDI增長是商品房價格上漲的一個因素,同時FDI的沖擊對商品房價格的增長是持續性的。范東君,單良(2009) 基于1999―2006年省際面板數據,研究房地產開發利用FDI以及其他因素對我國房地產價格的影響,并計算出各個要素對房地產價格上漲的貢獻程度,研究結果發現FDI對我國房地產價格的上升具有正向作用。黃書權(2010)運用灰色關聯理論對我國FDI與房地產業發展、房地產價格之間的關系進行實證研究。研究結果表明:FDI對我國房地產業的發展有正向的推動作用。

總之,多數學者是通過運用時間序列分析方法從不同角度分析了FDI對我國房地產價格的影響,這些研究具有著重要的理論和現實意義。但與此同時亦忽略了我國各省份間FDI水平和房地產發展狀況的差異。

三.理論模型

為了研究FDI對房地產價格的影響,我們將各省房地產價格作為因變量,而自變量中,供給方面可設變量FDI、國內投資額,需求方面設置變量居民人均可支配收入,并加入CPI以剔除價格水平對房地產價格的影響。

由于本文是基于全國31個省的數據進行實證檢驗,故該計量檢驗涉及對面板數據的處理。本論文是對31個省分別進行估計,需要考慮各個省的差異,故采用固定效應變截距模型來說明FDI對房地產價格的影響。此外,考慮到截面個數較多而時間序列個數較少,采用了截面加權回歸的方式進行檢驗。因此我們可以構建如下固定效應變截距模型方程來反映FDI對房地產價格的影響:

式中,下標i、t分別代表省份和時間,P為房地產銷售價格,ID為房地產業國內投資,IF為房地產業外商直接投資,Y代表人均居民可支配收入,CP表示居民消費價格指數, 表示與各地區相關的、時間上恒定的因素,為隨機擾動項。在自變量中,考慮到供給因素對房地產價格影響的滯后,我們采用其各省份前一年的指標,使得分析更加合理。此外,為了消除解釋變量間的異方差和自相關性,可以對解釋變量和被解釋變量取自然對數進行模型改進。

四.實證分析

1.變量選取及數據處理

本文根據中國1999―2007年31個省(市、區)的面板數據,運用上述模型對FDI對我國房地產價格的影響進行實證分析。數據來自于中國統計年鑒(2000―2008),中國房地產統計年鑒(1999―2008),并經綜合整理所得。其中,對數據的描述性統計見表1:

2.實證過程與結果

本文選用固定效應的面板模型分析FDI對房地產價格的影響,根據整理的數據,利用eviews6.0軟件對模型進行估計,得到如下計量結果,其中全國31個省(市、自治區)固定影響變截距模型估計結果為下式,反映各省(市、自治區)差異的的估計結果為表2。

從上式可以看出,國內投資、FDI、居民可支配收入及居民消費價格指數四個變量大約解釋了房屋銷售價格變動的95%;其中, FDI的流入對房地產價格的影響為正,回歸系數為0.008831,且在5%的水平下顯著。由于各變量均取自然對數,這就意味著FDI流入房地產每增加一個百分點,房地產價格就會上升0.008831個百分點。此外,表2說明了我國31個省之間由于地域的差異所導致的房屋銷售價格的顯著差異。

從上述計量結果中可以看出,FDI對我國房地產的價格上漲有正向的推動作用,但其影響有限,產生此種現象的原因在于:一方面,為謀求豐厚的投資回報,FDI利用我國房地產市場尚未形成有效的市場定價機制,趁機通過操縱市場來推高房價,并導致境內民間資金的跟風入市,從而進一步炒高房價,使得房地產價格與真實價值脫離。因此,FDI對我國房地產價格上漲具有明顯的正效應;另一方面,由于流入我國的FDI主要集中于制造業,其占FDI總量超過60%,而房地產業作為FDI流入的第二大行業,僅占FDI總量的10%左右。因此,實際進入房地產業的FDI相對于我國龐大的房地產業資金總量來說是相對較小的,對房地產業的影響有限。

五.研究結論

對于上述實證結果,我們必須清楚的認識到,FDI是置于房地產市場中的一把“雙刃劍”,其在改善房地產市場資本結構,發揮外資企業在房地產開發中的技術、管理優勢的同時,也將由于資本的逐利性和投機性使FDI短期內刺激房地產需求的增加,在供給變化不大的情況下,直接引發房地產價格的迅速上升。而當房價上漲到一定程度后,外資的大量流出將會對房地產市場產生很大沖擊,從而引發房地產泡沫的破裂。我們需要充分利用各種金融、法律手段和政策法規在宏觀層面進行監管和調控,通過對房地產領域的境外資金進行合理引導,規避其不利影響,使之對我國房地產行業健康發展起到較好的推動作用。對此可提出如下政策建議:

首先,要完善政策制度,引導FDI合理流向房地產業。從上述實證分析的結果可以看出,現階段外資流入對我國房地產業的影響是相當有限的。為使外資對我國房地產業的發展發揮更大的積極作用,政府應當出臺相應的有利于外商投資的政策,同時完善房地產市場監管制度,避免利用FDI進行投機活動。針對我國地區發展程度的差異,政府應積極引導FDI投向需要資金支持,有利于當地房地產業健康穩定發展的區域。通過引進民間資本、加快資產重組的方式增強自己的綜合實力,使得我國的房地產企業的發展真正能夠實現多元化、市場化、國際化,進而更好的推進我國房地產市場的健康發展。

參考文獻:

[1] 黃書權.我國FDI與房地產業關系的灰色關聯分析.四川經濟管理學院學報,2010(02)

[2] 范東君,單良.FDI對我國房地產價格影響的實證研究―基于省際面板數據分析.云南財經大學學報,2009(02)

篇10

一、氣象資料壓縮技術的概述

現階段,我國的圖像、音頻以及視頻等多媒體技術領域的數據壓縮技術獲得了長足的進步,對與氣象數據資料壓縮有關的壓縮沒有太多的研究。一般情況下,在氣象界中多是使用格點資料編碼的方式對氣象資料進行壓縮,但是也所都過于簡單,沒有根據氣象資料的實際特征進行,因此壓縮效果沒有達到預期的效果。

從氣象資料壓縮的方法來看的話,氣象資料壓縮所使用的技術可以分為三種,無損、近無損以及有損。無損的壓縮技術可以將氣象數據信息中的信息全部保留出來,但是壓縮效率還有待提高;無損壓縮具備很高的壓縮效率,但是氣象數據資料中較為重要的信息很可能被丟失;近無損的壓縮方法則是對上面兩種方法的一種有機結合,不僅大大提高了氣象數據資料壓縮的效率,而且還能有效控制信息的丟失量。

二、熵和信息的冗余度

信息中存在的被評判的信息量就被稱之為熵,在一個事件的集合中,例如xi(i=1,2……,N)中,它的概率是pi,并且所有概率的之和是1。

在概率空間中,事件中的概率不相等,從而造成了平均的不肯定度或者是平均的信息量就被稱為熵H:

(1)

在氣象事件中,概率的分布函數在分布的過程中越均勻的話,熵就會越大,信息量也就會越大;而概率分布越集中的話,熵就會越小,信息量也就會越小。熵在應用的過程中,代表的是平均的信息能量。

三、神經網絡中的二次預測模型

1.二維線性的預測。通過多年的實踐證明,在對氣象數據資料進行壓縮時,最主要的是要減少數據中存在的熵,也就是盡最大努力的將相鄰格點之間存在的相關性消除。在余弦進行變換的過程中,與正交變換的相差不大,能夠最大限度的消除冗余,但是它的變換系數是浮點數,有截斷誤差的存在,無法實現實際意義上的無損壓縮。因此為了實現氣象資料的無損壓縮的目的,就必須尋求一種方法不僅能夠去除冗余的相關性,又能實現無損壓縮的方法,預測可以實現二者的要求。預測的原理是:在一個數列中,通過前面的m個點,來對第n個點的數值進行估算,如果估算的結果較為準確的話,那么預測結果的誤差所對應的絕對值與方差也會越小,誤差就被嚴格控制在0左右,相鄰格網之間的相關性也被消除的所剩無幾,這時,只需要工作人員對預測的誤差開始編碼的工作即可,有效降低了編碼工作需要的平均碼長。

2.人工神經網絡.對人類大腦的結構與思維進行模擬作為人工網絡發展的基礎。目前在我國氣象中使用較為廣泛且起到明顯效果的就是向后傳播的神經網絡,而在氣象格網資料最常見的就是3層向后傳播的神經網絡,數據模型可以使用下列的公式進行表示:

(2)

(3)

在公式中,X―輸入層;

Y―隱含層;

Z―輸出層矢量;

―輸入層和隱含層之間存在的連接權與閾值;

―隱含層和輸出層之間存在的連接值與閾值。

而網絡輸出層可以使用下列的函數進行表示:

(4)

(5)

不斷的對節點間存在的連接權與閾值進行調節,從而可以得出氣象資料在進行輸入輸出工作時所存在的規律。將能量函數引入到BPNN中:

(6)

在公式中, Z0―理想中的期望輸出矢量。

BP神經網絡具備較強的學習能力,能夠對非線性進行來良好的擬合,因此可以在之前的氣象資料壓縮技術的基礎上,使用BP神經網絡,能夠提高預測的準確度,將冗余信息進行剔除,從而實現無損壓縮。

綜上所述,在我國氣象的格點資料在壓縮過程中,不僅具備較好的線性關系,而且還具備著非線性的信息,要最大程度的消除相鄰格網之間存在的相關性,以保證氣象格點資料實現無損壓縮的目的。二維線性預測的方法就具備良好的壓縮效率,且進行編碼的速度也較快,但是壓縮效果不好。因此BP神經網絡的使用,實現了在氣象網格資料的無損壓縮,為傳輸技術中提供了一種有效的嘗試。

參考文獻:

[1]羅堅,趙蘇璇,姜勇強.氣象格點資料的準無損壓縮方法[J].數據采集與處理.2011(03).

[2]顧洪,李昀英.NC格式氣象數據無損壓縮研究[J].計算機工程與應用.2012(09).

篇11

〔中圖分類號〕G201 〔文獻標識碼〕A 〔文章編號〕1008-0821(2016)02-0167-04

〔Abstract〕This paper systematically studied relevant research outputs and compared respective research status on open research data policy home and abroad.In order to provide references for promoting relevant research,this paper discussed the characteristics of relevant research home and abroad,pointed out the shortages of current research in China,and finally evaluated the future research trends on open research data policy in China.

〔Key words〕research data;open data policy;research status;research trend

科學數據(Scientific Data),也稱科研數據(Research Data),與科學論文一樣也被視為重要的科研產出,也是一種具有潛在經濟價值的戰略資源。開放科學數據對數據驅動科學研究起到了關鍵作用,越來越多的研究是建立在對已有科學數據重用的基礎之上的。因此,完整保存并開放獲取先前研究的科學數據,對于順利開展后續研究、推動科學進步具有重要意義。開放科學數據在國家科技創新中的戰略地位不斷提升,目前在開放規模和開放程度上均達到了前所未有的水平。通過開放科學數據改善社會生活受到眾多投資者、出版商、科學家和其他利益相關者的高度關注,歐洲、美國以及眾多國際組織與研究機構都積極建立開放科學數據的政策保障與管理機制。如美國已經形成了以“完全與開放”為基本國策的科學數據開放共享法規體系;經濟合作與發展組織(OECD)頒布了《公共資金資助的科學數據獲取原則與指南》,以指導成員國制定與完善科學數據開放共享政策;歐盟“地平線2020計劃”將科學數據新增為開放存取的對象并要求逐步達到開放性可獲取,并啟動了旨在促進科學數據獲取和再利用的“科學數據開放先導性計劃”[1]。

我國早在2002年就已正式啟動科學數據共享工程,并先后在六大領域共計24個部門開展了科學數據共享工作。2006年以來,中國科學院國家科學圖書館提出并開展了科學數據與科技文獻跨界集成服務、數據融合技術的研究和開發。目前,我國在科學數據開放政策的制定和完善方面,與美國、英國、澳大利亞、日本、韓國、臺灣等國家和地區相比仍顯滯后。本文針對國內外科學數據開放政策的研究現狀進行了比較分析,在此基礎上探討了國內外相關研究的特點以及我國現有研究的不足,并對我國科學數據開放政策的未來研究動向進行了評判。

1 國內研究現狀分析

對從CNKI和萬方數據兩大中文數據庫檢索到的相關文獻進行閱讀和梳理發現,我國針對科學數據開放政策的相關研究可以概括為以下5個方面:

1.1 建立開放科學數據政策保障機制的理論性研究

目前已有較多成果是針對建立和完善科學數據開放共享政策法規的頂層設計展開論證,如劉細文(2009)指出,美國、英國以及眾多國際組織與研究機構都就科學數據開放獲取問題,積極建立政策保障與管理機制并廣泛推行相關服務與實踐,其政策舉措主要圍繞科學數據交流渠道各環節,集中體現在數據開放資助、數據質量控制、數據合法保護、數據保存以及數據共享利用五大方面[2]。王晴(2014)指出:國內外20余個組織相繼制定或實施了30余條旨在促進科學數據開放共享的政策法規,根據制定主體和效力范圍可以分為宏觀、中觀和微觀3個層面,共同形成了一個較為完備并在不斷完善的制度體系[3]。

1.2 針對國內外各類科學數據開放共享政策的調查研究 目前已有部分成果針對多種政策主體(如高等院校、科研資助機構、信息服務機構等)的有關開放科學數據的聲明、指南以及政策法規等各類政策文本展開了調查分析,如司莉等(2013)考察了美國、英國、澳大利亞3個國家的科研管理機構、高校制定的數據管理政策以及政府制定的數據公開政策,并指出:發達國家的政府部門都制定了科學數據開放共享政策,對科學數據的保存與管理等均作了明確具體的規定。我國政府也應制定完善的科學數據開放共享政策,從政策層面對科學數據的開放共享進行指導和規范[4]。司莉等(2014)針對英美10所高校的科學數據開放共享政策,從一般政策、數據標準、數據訪問與保存、數據共享、數據安全與保護以及數據產權6個方面進行了調查與比較,揭示了英美兩國大學科學數據開放共享政策的特點與差異,指出通過借鑒國外大學科學數據開放共享政策的良好實踐,推動我國大學相關政策法規的制定和[5]。唐源等(2015)針對國外典型醫學相關機構的科學數據開放共享政策從科學數據開放資助、科學數據匯交、科學數據保存、數據共享利用4個方面的政策內容進行文獻調研和網站調研,指出國外政策制定者從政府到機構自身以及期刊等具有多重身份,政策內容集中于數據匯交和共享計劃。

1.3 科學數據開放政策利益主體的開放共享行為研究 由于開放科學數據的利益主體一般要受到相關政策法規的制約,因此也可視為科學數據開放政策的利益主體。國內的相關研究成果主要包括:①單一利益主體的開放共享行為的共享意愿及影響因素分析,如張晉朝(2013)通過問卷調查方法和結構方程模型,分析了我國高校科研人員科學數據共享意愿的影響因素,指出科學數據開放共享工作的順利開展不僅要關注技術維度,還要關注社會環境因素、內在激勵、人際信任等人文維度[7]。②針對單一利益主體的開放共享行為的演化博弈分析,如莊倩等(2015)建立了參與科學數據開放共享的科研人員之間的演化博弈模型,揭示了科學數據開放共享博弈中存在的"公共品困境"及其原因,指出為促進我國科學數據開放共享健康有序發展,不能僅從國家層面制定和完善相關的戰略規劃,還要從政策法規層面建立相應的激勵機制[8]。

1.4 制定開放科學數據相關知識產權政策法律問題的研究 雖然目前科學數據具有著作權已經成為共識,但其使用存在著作權界定不清及其利益分配不當等問題,尤其是科學數據二次研發過程中的著作權分配問題。司莉等(2015)從科學數據開放共享中的授權方式、數據出版及引用、技術措施、制度與法規、科學數據二次利用5個方面分別探討了科學數據著作權保護存在的問題及對策,指出我國應結合知識產權保護法、著作權法、專利法和中華人民共和國政府信息公開條例等已有法規條例,盡快建立完善的科學數據著作權保護體系[9]。

1.5 基于政策文本分析的科學數據開放政策實證研究 目前國內的相關研究成果非常有限,主要是通過內容分析法進行政策文本分析,如裴雷(2013)通過內容分析法構建了基于政策文本的上下位政策概念一致性的測算框架,并對我國12個領域的科學數據開放共享政策文本進行內容編碼和實證分析,探討了當前我國科學數據開放共享政策在吸收、擴散和創新過程中的政策文本質量[10]。

2 國外研究現狀分析

對從Springer、Emerald和Elsevier三大外文數據庫檢索到的相關文獻進行閱讀和梳理,可以發現國外科學數據開放政策研究所涉及的研究主題更為廣泛,可以大致概括為以下5個方面:

2.1 制定科學數據開放政策的理論探討與實踐研究

國外學者針對這一研究主題的研究成果也比較豐富,如Childs S等(2014)探討了作為實現開放科學數據的機制――科研數據管理(RDM)的作用以及它帶給記錄管理者的機遇,并指出開放科學數據議程的前提是盡可能公開可用的數據,在開放科學數據的背景下仍然存在方法、倫理、政策和實踐等層面的問題[11]。Higman R等(2015)借鑒行動者網絡理論(Actor Network Theory)并結合政策分析過程和案例研究方法,考察了在英國高等教育機構中建立科學數據管理(RDM)政策與實踐的驅動因素,以及科學數據開放共享在科學數據管理過程中的關鍵作用[12]。

2.2 科學數據開放政策利益主體的開放共享行為研究 國外學者針對科研人員的開放共享行為的共享意愿及其影響因素展開了較為系統的實證研究,如Wicherts J M等(2011)對心理學期刊中的統計結果顯著與數據共享意愿的相關性進行了實證研究,發現科研人員不愿意共享數據的主要原因在于:統計結果不構成充分的證據以及更有可能存在明顯的錯誤,并強調了建立科學數據的強制性歸檔政策的重要性[13]。Sayogo D S等(2013)指出科學數據開放共享存在多重障礙與挑戰:①技術上的障礙;②社會、組織和經濟上的障礙;③法律和政策上的障礙,并通過問卷調查得出影響科研人員開放共享意愿的幾個關鍵因素:數據管理技能、組織參與、法律與政策需求、向數據集提供者致謝[14]。

2.3 面向科學數據開放政策利益主體的開放共享服務研究 國外學者針對高校圖書館、研究型圖書館、信息服務機構的科學數據開放共享服務實踐展開了廣泛的研究,國內的相關研究主要是對國外科學數據服務實踐的案例研究及調查分析,如Nielsen H J等(2014)認為科學數據管理(RDM)是圖書館員和信息專業人員的潛在職責,研究型圖書館是選擇、保護、組織與利用科學數據的最佳場所,并應積極參與到其所在學科領域的特定領域的分析研究[15]。Tenopir C等(2014)指出數據密集型科學的出現和數據管理規范的制定,驅動高校圖書館為其教師和學生開展數據管理服務(RDS),并通過調查研究建立了圖書館員、圖書館、信息服務機構參與數據管理服務的評價基準[16]。

2.4 針對專業領域科學數據開放政策的政策分析研究 國外學者針對天文、氣象、地球、生物、醫學等自然科學以及心理學、倫理學等社會科學專業領域的科學數據開放共享政策進行了政策分析研究,如Harris R等(2015)考察了參與開放地球觀測數據的八國集團、歐盟和國際組織的21個政策文本和法律文書――八國集團(G8)開放數據、全球綜合地球觀測系統(GEOSS)數據共享原則、經濟合作與發展組織(OECD)科學數據原則與指南、歐洲環境信息指令等,指出地球觀測領域開放數據政策應更加明確、完整地說明開放獲取的條件,以期充分實現開放地球觀測數據的潛在利益[17]。

2.5 基于政策文本分析的科學數據開放政策實證研究 國外學者進行政策文本分析時除了運用常規的內容分析法以外,還創新性地引入了語義網分析、社會網絡分析等研究方法,如Jung K等(2015)對韓國《開放公共數據指令》(OPDD)的政策文本進行了語義網分析,并指出:利用語義網的概念模型及分析過程有助于確定各類公共政策針對的主要問題及解決視角的一致性[18]。

3 國內外研究現狀的比較分析

對國內外科學數據開放政策的相關研究進行對比,可以發現具有以下幾個特點:①總體來看,我國學者針對科學數據開放政策各研究主題的相關研究,目前大多處于對國外先進政策實踐的案例研究與調查分析階段。②國內外針對科學數據開放政策的相關研究目前主要以英美兩國的政策實踐為主,原因在于英美兩國已經建立起相對完善的科學數據開放政策法規體系,如經濟合作與發展組織(OECD)于2007年頒布了《公共資助科學數據開放獲取的原則和指南》,提倡所有的獲公共資金支持得到的科學數據都應能被公眾獲取、共享。美國、英國等一些重要基金機構也提出了科學數據開放政策指南,如美國國家科學基金會(NSF)、美國國立衛生研究院(NIH)、美國國家航空航天局(NASA)、英國研究理事會(RCUK)等,要求所有獲得資助的項目提交科學數據的開放共享計劃。美國科技政策辦公室(OSTP)于2013年簽署了關于“提高聯邦政府資助的科學研究結果的訪問”的備忘錄,要求由聯邦資金資助所產生的非保密的科學數據,應該存儲并為公眾提供免費的最大化訪問[19]。③國內外對于具體專業領域的科學數據開放政策的研究相對較多,但對于國家統一綜合層面的科學數據開放政策研究十分有限。

對比國內外開放數據政策研究的現狀不難看出,國內相關研究主要存在以下不足:①目前的研究成果主要是針對國外高等院校、信息服務機構和科研資助機構的科學數據開放共享政策的調查研究與比較分析,但從整體來看這類研究成果的研究內容比較分散、系統性不強;②已有研究針對參與科學數據開放的單一利益主體(如研究人員)的開放共享行為進行了演化博弈分析,尚未發現針對參與科學數據開放的多個利益主體之間的演化博弈分析的相關研究;③針對科學數據開放政策的政策文本分析目前主要采用內容分析法,尚未展開借鑒多學科理論與方法的政策文本分析方法的探索性研究;④尚未展開針對科學數據開放政策群的政策協同研究,已有學者針對政府數據的開放數據政策與數據安全政策的協同關系展開研究[20],如黃道麗等(2015)分析了美國政府的開放數據政策與網絡安全政策之間的沖突與協調[21],但尚未發現有針對科學數據展開的類似研究;⑤尚未從政策科學的研究視角展開系統性的科學數據開放政策評估研究。

4 我國未來研究動向評判

通過以上的比較分析,筆者認為,我國圖書情報及相關學科領域研究者應展開協作研究,并從以下5個方面強化和拓展這一重要的跨學科研究領域。

4.1 各類科學數據開放政策的調查與比較分析

針對主要發達國家的政府部門、高等院校與科研機構以及各類國際組織的有關開放科學數據的聲明、指南以及政策法規等各類政策文本展開廣泛的調查分析,比較和分析各類政策文本中有關一般政策、數據標準、數據共享、數據保存、數據安全和數據產權等方面內容的特點與差異,合理借鑒發達國家在政策的系統性、一致性、完善性方面的經驗,為推進我國科學數據開放政策的制定與完善提供必要的參考借鑒。

4.2 科學數據開放政策多個利益主體的博弈分析

現有的研究成果主要是針對參與科學數據開放的單一利益主體(如研究人員)的博弈分析,在后續研究中可針對參與科學數據開放的多個利益主體(研究人員、科研機構、數據中心、資助者、出版者、第三方用戶等)之間的利益訴求關系展開研究,建立參與科學數據開放的多個利益主體之間的演化博弈模型,探索促進多個利益主體開放科學數據的激勵機制,為從微觀層面制定和完善科學數據開放政策提供演化博弈的理論框架。

4.3 基于多學科方法的科學數據開放政策文本分析

值得關注的研究方向包括:①借鑒多學科理論與方法對政策文本進行內容分析,如借鑒扎根理論的“信息提取-歸納-概念化-重組”思想,對各類科學數據開放政策文本進行解構、分類和比較,提取科學數據開放政策的區分要素,確定政策文本結構化編碼體系和分類標準,將政策文本轉化為半結構化數據,建立類定量化的政策文本分析框架。②基于知識單元的政策文本分析方法的探索性研究,如借助于語義網分析和社會網絡分析方法,探索政策文本的詞匯分析單元之間的語義關聯關系,并可通過軟件工具進行網絡結構分析及可視化展示。

4.4 各類科學數據開放政策的政策協同研究

值得關注的研究方向包括:①科學數據開放政策群內部的政策協同研究。通過內容分析法對各類科學數據開放政策進行政策文本分析,從政策連續性、政策互補性、政策交叉性、政策缺失性及政策矛盾性等多個維度考察科學數據開放政策群內部的政策協同。②科學數據開放政策群與數據安全政策群的政策協同研究。借鑒協同論思想和政策協同理論及工具,設計科學數據開放政策群與《中華人民共和國保守國家秘密法》、《中華人民共和國科學技術保密規定》以及其他相關部門頒布的保密規定等數據安全政策群的政策協同機制,制定科學數據開放政策群與數據安全政策群的政策協同策略。

4.5 科學數據開放政策的政策分析與評估研究

將側重于定性分析的政策分析研究與側重于定量分析的政策評估研究相結合,針對科學數據開放政策,從政策科學的學科視角進行多角度的政策分析與評估研究,如針對科學數據開放政策完整的生命周期中的每一環節――政策提案、政策制定、政策實施、政策反饋和政策調整,綜合運用多種政策科學相關理論、方法與工具進行系統性的政策評估研究;運用層次分析法、模糊綜合評判法、數據包絡分析法和灰色關聯度法等政策評估方法,建立科學數據開放政策評估指標體系并進行指標權重分析,采用數學模型及軟件工具構建科學數據開放政策評估模型并進行模擬實驗。

5 結 論

通過CNKI和萬方數據兩大中文數據庫以及Springer、Emerald和Elsevier三大外文數據庫,筆者對國內外現有的科學數據開放政策的相關研究成果進行了比較研究,并在此基礎上探討了國內外相關研究的特點:目前國內的相關研究基本處于對國外先進政策實踐的案例研究與調查分析階段,國內外針對科學數據開放政策的相關研究目前主要以英美兩國的政策實踐為主。結合科學數據開放政策相關領域的學術研究與實踐進展,我國在這一跨學科研究領域未來可能出現五大研究動向:①各類科學數據開放政策的調查與比較分析;②科學數據開放政策多個利益主體的博弈分析;③基于多學科方法的科學數據開放政策文本分析;④各類科學數據開放政策的政策協同研究;⑤科學數據開放政策的政策分析與評估研究。從而推動我國開放科學數據的政策保障與管理機制的建立。

參考文獻

[1]韓纓.歐盟“地平線2020計劃”相關知識產權規則與開放獲取政策研究[J].知識產權,2015,(3):92-96.

[2]劉細文,熊瑞.國外科學數據開放獲取政策特點分析[J].情報理論與實踐,2009,32(9):5-9.

[3]王晴.論科學數據開放共享的運行模式、保障機制及優化策略[J].國家圖書館學刊,2014,(1):3-9.

[4]司莉,邢文明.國外科學數據管理與共享政策調查及對我國的啟示[J].情報資料工作,2013,(1):61-66.

[5]司莉,辛娟娟.英美高校科學數據管理與共享政策的調查分析[J].圖書館論壇,2014,(9):80-85,65.

[6]唐源,吳丹.國外醫學科學數據共享政策調查及對我國的啟示[J].圖書情報工作,2015,59(18):6-13.

[7]張晉朝.我國高校科研人員科學數據共享意愿研究[J].情報理論與實踐,2013,36(10):25-30.

[8]莊倩,何琳.科學數據共享中科研人員共享行為的演化博弈分析[J].情報雜志,2015,34(8):152-157.

[9]司莉,賈歡,邢文明.科學數據著作權保護問題與對策研究[J].圖書與情報,2015,(4):118-122.

[10]裴雷.我國科學數據共享政策概念一致性與政策質量評估[J].情報理論與實踐,2013,36(9):28-31.

[11]Childs S,McLeod J,Lomas E,et al.Opening research data:issues and opportunities[J].Records Management Journal,2014,24(2):142-162.

[12]Higman R,Pinfield S.Research data management and openness:The role of data sharing in developing institutional policies and practices[J].Program:Electronic library and information systems,2015,49(4):364-381.

[13]Wicherts J M,Bakker M,Molenaar D.Willingness to share research data is related to the strength of the evidence and the quality of reporting of statistical results[J].PLoS ONE,2011,6(11):1-7.

[14]Sayogo D S,Pardo T A.Exploring the determinants of scientific data sharing:Understanding the motivation to publish research data[J].Government Information Quarterly,2013,30(S1):19-31.

[15]Nielsen H J,Hjrland B.Curating research data:the potential roles of libraries and information professionals[J].Journal of Documentation,2014,70(2):221-240.

[16]Tenopir C,Sandusky R J,Allard S,et al.Research data management services in academic research libraries and perceptions of librarians[J].Library & Information Science Research,2014,36:84-90.

[17]Harris R,Baumann I.Open data policies and satellite Earth observation[J].Space Policy,2015,32:44-53.

[18]Jung K,Park H W.A semantic(TRIZ)network analysis of South Koreas“Open Public Data”policy[J].Government Information Quarterly,2015,32(3):353-358.

篇12

Analysis of Relevant Factors of Prevention of Antimicrobial Prophylaxis in in-Patients in Plastic Hospital

LI Ge-hong,SUN Bao-yan,LI Shao-ying,HUANG Jin-jing

(Plastic Surgery Hospital, PUMC,Beijing 100041,China)

Abstract:ObjectiveTo analyze the rationality in antimicrobial prophylaxis in patients during perioperative time in plastic hospital.MethodsFrom 1989 to 2003,48 958 records were at random reviewed,26575 cases male,22383 female. The average time in hospital was 12.32 days. Analysisand research was performed to the rationality in antimicrobial prophylaxis in patients during perioperative time in plastic hospital. ResultsAntimicrobial prophylaxis was applied to 46 611 in the in-patient accounting for 95.21% in total in-patient. The main medicine include cephalosporins, penicillin, aminoglycoside and 2-Methyl-5-nitroimidazole-1-ethanol. Combination drug was used in 6 352 patients accounting for 13.62%. Nosocomial infection happened in 359 cases accounting for 4.79%. Prevention of antimicrobial prophylaxis postoperation was used in 39 982 cases accounting 85.78%. ConclusionTherapeutic guidelines on antimicrobial prophylaxis in perioperative time shoud be made to guide the Reasonable use of antibiotics in clinic. Computer management testing system of antimicrobial prophylaxis should be made to increase the strength of management supervision which can make the management ofantimicrobial prophylaxis into rule and system.

Key words: plastic surgery; perioerative trentment; prevent diseases; antibiotic

在整形外科領域,抗生素的使用范圍比較寬泛,圍手術期預防性應用抗生素是預防術后感染、增加手術安全性、提高治愈率的有力措施。然而,若不能合理的使用抗生素,不僅造成經濟上浪費,還會帶來許多不良反應,如造成醫院內耐藥菌株積聚、細菌或真菌的二重感染、藥物毒性或過敏反應等,而增加患者發生醫院感染的危險性。為此,筆者對我院1989~2003年住院患者圍手術期預防性抗生素的使用情況進行調查,對使用的抗生素種類、使用方法和各科抗生素使用規律進行分析,擬找出適合整形領域中抗生素合理使用的方案,使抗生素的應用更能有效的發揮作用。

1材料和方法

1.1研究對象:隨機抽取本院1989~2003年期間在整形外科醫院住院手術且已出院的病例共48958 例,男 26 575例,女22 383例,平均住院時間12.32 天。

1.2方法:根據有關規定制定整形外科圍手術預防性抗生素應用合理性評價標準,根據標準對住院病例圍手術期預防性抗生素使用情況進行分析,并進行合理性評價。其中手術切口按《臨床外科學》分類法進行分類;醫院感染診斷按《醫院感染診斷標準(試行)》全國統一診斷標準;預防性抗生素合理性應用評價參考抗感染藥物使用管理及指導原則,結合本院實際制定的使用抗生素管理制度以及預防性抗生素的應用范圍等制定《整形外科圍手術預防性抗生素應用合理性評價標準》(見表1)。用藥適應征:I類切口手術不主張使用抗生素,但下列情況除外:①應用人工血管或其他移植物;②遠處有感染灶;③有易患感染的伴隨疾病、營養不良、接受激素治療或全身情況差者;④估計分離組織廣泛,手術時間長,局部組織血供不良。II類切口的手術有兩種情形也應使用抗生素:①屬上述清潔手術需用抗生素的范圍;②胃癌手術、大腸或末端回腸手術、小腸手術有腸管供血不良以及有膽管阻塞的膽道手術等。污染與污穢的手術也稱為第Ⅲ、Ⅳ類切口應全部預防性應用抗生素,此時預防與治療沒有太大區別,但考慮到抗生素的應用可預防感染的遠處播散、預防切口和組織分離面的感染,仍將其列入預防性抗生素使用范疇。

2結果

2.1一般情況:全組有46 611例預防性應用抗生素,占住院患者總人數的95.21%。主要的藥物種類為頭孢菌素類氨基糖苷類、甲硝唑等。聯合用藥占6 352人次,占抗生素使用總人數的13.62%。發生醫院感染的359人次,占住院總數的4.79%。術后預防性使用抗生素的有39 982人,占預防性應用抗生素總人數的 85.78%。根據表1所示標準可知,我院預防性應用抗生素多屬于經驗性用藥。用藥指征基本合理,使用劑量、給藥方法合理。但在給藥時機、用藥時間、合理選擇藥物和聯合用藥的選擇上,存在不合理性。沒有把握住用藥時機,在術前和術中使用人數比例低;術后平均用藥時間過長;聯合用藥存在選藥不當,標本送檢和藥敏監測未受重視。

2.2 預防性抗生素使用指征過寬,半數以上的Ⅰ類手術都使用了抗生素,而所有的II類手術也都無一例外的使用了抗生素;而且不同類型切口手術均存在著預防性抗生素使用時機不當的現象,各類手術絕大多數是在術畢回病房后才使用,違背了預防性抗生素的使用原則;在術后使用時間上過長,I類、II類手術的抗生素使用情況與規范相比差距較大。(見表2)

2.3調查II類切口手術術后預防性抗生素使用情況顯示,聯合用藥指征過寬,有的甚至超過4種,從藥物配伍禁忌和藥代動力學方面考慮更顯示為濫用。

2.4醫院感染情況:48 958例病例中,共發生醫院感染359 例次,其中,I類切口手術92例次,感染率為 25.63%,Ⅲ類切口手術感染267例次,感染率74.37%。在359例次感染中,標本送檢率11.92%。

3討論

預防性抗生素要合理選擇。理想的圍手術期抗生素應具有高效殺菌能力、抗菌譜廣、高度的組織滲透力、有效濃度時間長、副作用少及恰當的價格等特點。所以選用高血清蛋白結合力、高組織滲透力、低機體總清除率、半衰期長的抗生素作為長時間手術的預防性用藥,可以在一次給藥后無需追加,血液與組織中仍有足夠的藥濃度,這樣種類的抗生素是一個不錯的選擇。半衰期長的預防性用藥還有減少副作用發生率的優點,因而對一些預期時間長,術后感染率高的手術應提倡使用。

預防性抗生素的給藥一般采用靜脈途徑。我院幾乎都采用頭孢拉定術前肌注,術后加入9%生理鹽水中靜滴的方式。目前有觀點認為:靜脈推注優于靜脈滴注。理由是雖然兩種方式到達切口的純凈藥量相等,當單劑量推注后藥物在切口組織中出現的速度快得多,峰濃度要高得多。靜脈推注后,切口組織中抗生素濃度即與血液中相等,在以后數小時內,切口組織中濃度比血液中高,并將維持到再給一次劑量時。而靜脈滴注抗生素,切口中濃度將在一段時間后才與血液中相等,且以后數小時內始終低于血液中的水平。

預防性抗生素使用要把握使用時機,及時術中追加。在臨床上,由于各種原因導致手術開始時間無法確定,影響了臨床醫生正確掌握預防性應用預防性抗生素的使用時機,使其成為預防性抗生素的合理使用中一個較突出的問題。因而有人建議由麻醉醫師負責預防性抗生素的給藥和術中追加,這也不失為一種好的辦法。

篇13

1.1 一般資料

2011年1-6月和2013年1-6月我院出院的腹腔鏡膽囊手術(膽囊結石、膽囊息肉、慢性膽囊炎、急性膽囊炎早期)等,病歷數分別為 147份和 119份,兩年同期數據進行對比分析。

1.2 方法

對抗菌藥物用藥指征、用藥時機、用藥療程、選藥合理性及住院總費用、藥品費用、抗菌藥物費用等進行分析評價。抗菌藥物規范使用評判標準依據《抗菌藥物臨床應用指導原則》、《衛生部辦公廳關于抗菌藥物臨床應用管理有關問題的通知》(簡稱“38號文件”)評判標準見表1。

1.3 手術條件

手術在層流凈化手術室進行,按要求做好消毒準備工作等。

2 結果

2.1 腹腔鏡膽囊手術費用情況

2011年1-6月腹腔鏡膽囊手術147份,2013年1-6月腹腔鏡膽囊手術119份,同期數據相比,平均住院總費用、平均總藥費用、平均抗菌藥物費用分別下降了7.9%、11.1%、30.22%。見表2。

2.2 腹腔鏡膽囊手術中抗菌藥物使用情況

2011年與2013年1-6月抗菌藥物統計結果顯示,專項整治活動后,抗菌藥物使用天數明顯縮短,由4.4天縮短到2.1天,抗菌藥物使用由98.63%減少到31.93%;抗菌藥物品種選擇合理率由77.38%增長到84.21%;給藥時機合理率由6.71%增長到71.95%;用藥療程合理率由16.67%增長到72.27%。見表3。

3 討論

3.1我院圍手術期抗菌藥物濫用現象得到了極大的改善。專項整治活動開始后,我院制定措施,不定期對臨床科室的手術病例進行動態監測,隨機抽查科室的病例,發現存在不合理應用抗菌藥物的病例,立即派臨床藥學室人員到臨床科室進行現場指導。又進一步制定了控費指標,落實到人。調查結果顯示,腹腔鏡膽囊手術中抗菌藥物費用有了明顯的下降,下降了30.22%,并未增加手術感染機率。

3.2擇期性腹腔鏡膽囊切除術是否需用抗生素預防尚存在爭議,國外多數學者主張不用,理由是感染率很低,僅0.5%,而國內則大多使用抗生素。合理的選擇看來應當是:預計能順利完成的單純膽囊切除(如膽囊隆起性病變),不必預防用藥;估計腹腔鏡膽囊切除操作困難、有可能中轉手術者,或有感染高危因素者,則應該使用抗生素預防〔1〕。我國外科手術患者抗菌藥物使用率達到了97%,然而真正需要使用抗菌藥物的患者比例還不到20%〔2〕。2011年1-6月份147份病歷中145份使用了抗菌藥物,2013年1-6月份119份病歷中只有38份使用了抗菌藥物。抗菌藥物使用率明顯下降。

3.3 抗菌藥物品種選擇:2011年1-6月份調查病歷顯示抗菌藥物主要集中在頭孢呋辛、頭孢他啶、頭孢哌酮等;2013年1-6月份調查病歷顯示抗菌藥物主要集中在頭孢呋辛、頭孢美唑等。依照“38號文件”中“常見手術預防用藥抗菌藥物表”,肝膽系統手術首選第二代頭孢菌素,有反復感染史者可選頭孢曲松或頭孢哌酮或頭孢哌酮/舒巴坦。抗菌藥物品種選擇合理率由77.38%增長到84.21%,還需進一步提要。

3.4 抗菌藥物給藥時機:2011年1-6月份調查病歷中抗菌藥物給藥時機合格率僅為6.71%,主要集中在術前未用藥而術后用藥,個別情況是術前給藥過早;2013年1-6月份調查病歷中抗菌藥物給藥時機合格率提高到71.95%,依然存在術前未用藥而術后用藥的問題。《抗菌藥物臨床應用指導原則》明確指出,預防用藥的最佳時機應在術前0.5—2h內給藥或在麻醉開始時給藥,若手術時間超過3h或者失血量>1500ml,則應根據藥物半衰期,術中追加用藥1次。術后給藥則錯過了最佳的給藥時機,預防效果不如術前。因此不應在病房內或是書后給予抗菌藥物,應該在手術室內給藥〔3〕。

3.5 抗菌藥物療程:抗菌藥物使用天數明顯縮短。《抗菌藥物臨床應用指導原則》規定,接受清潔-污染手術者的手術時預防用藥時間亦為24小時,必要時延長至48小時。

3.6 抗菌藥物用法用量:預防用藥單次劑量偏大,如頭孢呋辛單次使用量2.25g,說明書明確指出,預防手術感染頭孢呋辛的預防量應為1.5g。加大劑量,增加了不良反應的發生幾率。因此,應按規定規范使用。

專項整治活動后,我院圍手術期抗菌藥物使用情況成效顯著,但仍未達到理想水平,仍需繼續努力。

參考文獻

主站蜘蛛池模板: 龙里县| 双城市| 永新县| 浙江省| 廉江市| 阿拉善盟| 阿拉善左旗| 吉水县| 东阿县| 邯郸县| 阳朔县| 金阳县| 鄂伦春自治旗| 遂川县| 通化市| 南涧| 阿克| 双鸭山市| 菏泽市| 宜兰市| 祥云县| 修文县| 阿拉善左旗| 长白| 龙山县| 静乐县| 南阳市| 娱乐| 建瓯市| 高密市| 民县| 灵寿县| 连南| 大荔县| 祁阳县| 广昌县| 崇明县| 洱源县| 中阳县| 徐州市| 伊通|