當前位置:文書都 >

事務文書 >工作總結 >

數據員的個人工作總結

數據員的個人工作總結

一段時間的工作在不知不覺間已經告一段落了,經過過去這段時間的積累和沉澱,我們已然有了很大的提升和改變,制定一份工作總結吧。那麼要如何寫呢?以下是小編收集整理的數據員的個人工作總結,希望能夠幫助到大家。

數據員的個人工作總結

數據員的個人工作總結1

在市委、市政的領導和關心下,在自治區農普辦的業務指導下,經過市農普辦和縣區農普辦全體人員的通力合作,我市第二次農業普查數據處理工作接近尾聲。現將全市農業普查數據處理工作總結如下:

一、數據處理基本情況

我市共有1602個普查區、17010個普查小區,涉農單位1960家,需要錄入的普查表有200多萬張。我市農普數據處理工作全部安排在市一級開展,分為光電錄入和Apras邏輯審核兩個階段,兩個階段同時進行。市農普辦調配二十多台電腦,加上自治區調撥的12台電腦,約有30多台PC機用於農普數據處理工作。

整個普查數據處理工作從準備階段到數據上報,歷時一年半時間,經歷了數據處理組組建階段、清查處理階段、設備安裝調試階段、培訓階段、光電錄入階段、邏輯審核階段、數據上報階段等。我市光電錄入工作開始於2007年4月上旬,採取外聘實習生和市農普辦工作人員相結合操作的方式,由實習生進行掃描、校驗、審核整個流程的操作,農普辦人員在旁監督以保證掃描錄入的質量。全面的光電錄入工作於6月12日結束,期間共掃描普查表2300579張,平均每天掃描3萬張左右,最高一天掃描約7萬張的普查表。Apras邏輯審核開始於4月中旬,採取的方法是由鄉鎮人員操作對本鄉鎮的數據進行邏輯審核、改錯,市農普辦業務組人員控制總體數據質量。為確保數據質量,市農普辦多次召開現場培訓會,通過制定、執行完整的工作流程,從而對Apras審核進行全程監控。市農普辦先後組織了20批約400人次參加了農普Apras邏輯審核工作,整個審核工作於7月下旬結束。市農普辦還結合我市的實際,發揮創新能力,在國家下發的Apras程序制度基礎上,新增了19條審核公式和10張彙總表用於數據質量控制。8月下旬,我市農普數據順利通過自治區審核並上報至國家。

二、主要做法

(一)領導重視,為數據處理工作提供強有力的組織保障。

數據處理作為整個農普工作的重要環節,關係到農普工作的好壞,我市農普數據處理工作之所以順利開展,與市農普辦領導密切關心分不開的。農普辦領導經常對數據處理工作進行檢查指導,及時糾正數據處理工作錯誤,協調解決數據處理工作遇到的困難。

市農普辦領導從普查經費中劃撥出數據處理專項經費,用於保障數據處理培訓、外聘數據處理人員勞務費、購買數據處理用服務器和PC機等電子設備、網站建設和網絡正常運行以及平時日常辦公所需要的支出,保障了農普數據處理工作的順利進行。

(二)精心準備,成立農普數據處理組,制定本市普查數據處理實施。

根據南農普辦字11號文《南寧市第二次全國農業普查領導小組辦公室成員職責分工方案》的要求,在市農業普查領導小組辦公室專門設立數據處理組,並以文件形式明確了數據處理組的工作職責,處理組成員由市統計局計算站業務骨幹組成。

根據國家和自治區的普查數據處理實施方案要求,結合南寧市的實際情況,我們制定了農普數據處理實施方案。方案明確規定了整個農普數據處理工作流程、處理模式,建立了數據處理工作崗位責任制,確保了系統管理、掃描、識別、校驗、審核、任務管理、數據管理崗位責任到人。市農普辦還制定了一些數據處理工作規定,如計算機房管理規定、機房日常工作管理要求等。

(三)密切配合,做好農普清查數據處理工作,為普查正式開展夯實基礎。市農普數據處理組積極配合業務組開展農普清查摸底工作,協助業務組完成清查快速彙總工作。

(四)認真籌備,做好數據處理環境的落實、數據處理系統的集成和設備補充工作。

市農普辦及時落實了數據處理工作的場地,並對數據場地按要求進行了改造,保證獨立接地並且小於1歐姆。購置了17台PC機,在機房安裝了一台格力5P天井式空調,給機房配備了打印機,調配5台電腦和2台服務器用於Apras邏輯審核工作,並更新了機房的兩台UPS。

及時接收自治區下發的數據處理軟、硬件,及時組織數據處理組人員組裝設備、安裝程序、調試網絡、測試系統集成,搭建了與外部隔絕的農普數據處理專用網絡,保障了數據處理按時開展。同時,落實了資料週轉、調閲和管理的資料庫用房。

(五)精心挑選,做好數據處理人員選調和培訓工作。

根據農普工作要求,市農普辦從各成員單位抽調了一批年紀輕、學歷高、業務精的同志充實到農普數據處理工作中來,在數據處理工作各環節擔當監督員、審核員等重要角色。並從南寧市有關院校挑選出39名學生參加光電錄入和Apras邏輯審核工作。

市農普辦多次派出業務骨幹參加國家、自治區舉辦的各種數據處理工作的培訓會,結合本市實際制定了詳細的培訓計劃,對我市參加數據處理工作的縣區及外聘的人員進行數據處理技術的培訓。培訓取得良好效果,受訓人員熟練理解培訓內容和掌握了相應的操作技巧,極大促進了我市農普數據處理工作順利開展。

(六)合理安排,做好各縣區普查表上交及數據處理工作中原始資料的登記交接工作。

制定原始資料交接流程,製作了交接登記表,規定各縣區上交普查表的時間,指定專人負責資料的交接工作,原始資料有專門地點存放,專人進行管理,已錄入和未錄入的資料分開存放,避免了在資料管理上出現混亂。

在光電錄入和邏輯審核過程中,每個環節普查表的流轉均有詳細的記錄。特別是在光電錄入環節中,有專人領取普查表並由專人負責回收領取的普查表,對於已掃描、已校對、已審核的普查表均有明顯標識。

(七)精心組織,做好普查表光電錄入和邏輯審核工作。

在自治區下發的12台PC機的基礎上,我市又購置一批PC機用於光電錄入工作。制定了規範的錄入工作流程,領表、掃描、校驗、審核、收表等環節均定人定崗,專人負責,市級和縣級排出專業人員負責跟班答疑。參與錄入工作的人員實行兩班倒,每班設有一個由市農普辦人員擔任的班長負責對光電錄入的全面調配。每班交接有詳細的交接單,記錄清楚前一班未完成的工作、已領出報表的小區名。

數據處理組負責把光電掃描的數據從光電錄入系統導出,再導入到Apras邏輯審核中,並進行審核,記錄好審核出來的錯誤筆數。當光電錄入導出時遇到錯誤,數據處理組人員將錯誤清單打出,交由光電錄入當班班長處理。

Apras邏輯審核由鄉鎮人員操作完成,鄉鎮人員負責審核、修訂本鄉鎮的農普數據。市農普辦統一協調,安排各個鄉鎮進行數據處理的時間,業務組和數據處理組人員實時監控,當發現問題、錯誤,及時告知相關鄉鎮的人員。為進一步控制好我市的數據質量,市農普辦結合我市的實情,發揮創新能力,在國家下發的Apras程序制度基礎上,新增了19條審核公式和10張彙總表。光電錄入工作基本結束後,原先參與光電錄入的人員立即轉入到Apras邏輯審核的工作。

(八)嚴格執行,做好農普圖像、數據的備份和處理設備的維護工作。

數據處理組對光電錄入系統進行刻盤備份,定期對光電掃描的圖像和Apras邏輯審核的數據進行備份,圖像可以通過程序定時自動備份,Apras中的數據通過人工定時備份。接入農普數據處理專用網絡的每台電腦上均裝有國家下發的VRV北信源殺毒軟件,並對其設置了定時自動查殺病毒。由於措施得當,整個數據處理工作中未出現因操作不當或不及時備份或未及時查殺病毒而造成數據和圖像丟失現象。

每天工作結束時,均要求掃描儀操作人員對掃描儀進行清潔。數據處理組每個月定期對掃描儀進行深度清潔。當掃描儀出現故障超出能力範圍時,數據處理組均能及時與贊華公司聯繫,請技術人員上門維護處理故障。其他設備在農普數據處理工作期間未出現任何故障。

及時對光電錄入系統和邏輯審核系統進行升級。一旦國家農普網或自治區下文件更新,市農普辦數據處理組均能及時對市級相關程序按要求進行更新(包含Apras制度更新),避免出現更新不及時而耽誤整個數據處理進程的事件。

(九)服從調配,積極配合全區農普數據處理工作的開展。

根據自治區的要求,在光電錄入期間,我市先後支援了貴港市和北海市各一台光電掃描儀,支援貴港市四台PC機,有力支持了兄弟市的數據處理工作。在數據上報後,及時返還了自治區下發的所有掃描儀、PC機、服務器等數據處理設備。

(十)按時保質,做好普查數據質量檢查、評估和上報工作。

市農普辦安排有專人負責統計每天的光電錄入進度,並按照要求及時向自治區上報光電錄入進度。

嚴格按照規定的內容、時間和方式向自治區農普辦上報我市農普數據和掃描圖像。在上報數據之前,數據經市農普辦業務組進行了分析和評估,符合要求的評估報告及有關文字隨同普查數據一併上報自治區。

對於自治區審核反饋的數據和錯誤清單,及時組織人員進行核實、修訂,及時按規定再次上報數據。

(十一)密切配合,做好普查數據事後質量抽查工作。

數據上報後,根據自治區農普辦的安排,我市派出業務組組長和數據處理業務骨幹參加了普查數據事後質量的抽查工作。在整個抽查工作中,我市按照自治區農普辦的要求,嚴格把關,認真完成抽查工作的每一個步驟。我市農普數據處理工作質量得到了較大提升。

三、今後工作計劃

下一步數據處理工作的重心將轉移到數據資料的開發上。我們計劃在自治區反饋數據後,立即組織人員對全市農普資料進行系統整理,及早開展本市的農業普查資料彙編的編輯工作,完成縣區一級的彙總並向其反饋相關數據和資料,努力搞好農業普查數據庫的建設工作。

數據員的個人工作總結2

一、數據量過大,數據中什麼情況都可能存在。

如果説有10條數據,那麼大不了每條去逐一檢查,人為處理,如果有上百條數據,也可以考慮,如果數據上到千萬級別,甚至過億,那不是手工能解決的了,必須通過工具或者程序進行處理,尤其海量的數據中,什麼情況都可能存在,例如,數據中某處格式出了問題,尤其在程序處理時,前面還能正常處理,突然到了某個地方問題出現了,程序終止了。

二、軟硬件要求高,系統資源佔用率高。

對海量的數據進行處理,除了好的方法,最重要的就是合理使用工具,合理分配系統資源。一般情況,如果處理的數據過TB級,小型機是要考慮的,普通的機子如果有好的方法可以考慮,不過也必須加大CPU和內存,就象面對着千軍萬馬,光有勇氣沒有一兵一卒是很難取勝的。

三、要求很高的處理方法和技巧。

這也是本文的寫作目的所在,好的處理方法是一位工程師長期工作經驗的積累,也是個人的經驗的總結。沒有通用的處理方法,但有通用的原理和規則。

下面我們來詳細介紹一下處理海量數據的經驗和技巧:

一、選用優秀的數據庫工具

現在的數據庫工具廠家比較多,對海量數據的處理對所使用的數據庫工具要求比較高,一般使用Oracle或者DB2,微軟公司最近發佈的SQLServer2005性能也不錯。另外在BI領域:數據庫,數據倉庫,多維數據庫,數據挖掘等相關工具也要進行選擇,象好的ETL工具和好的OLAP工具都十分必要,例如Informatic,Eassbase等。筆者在實際數據分析項目中,對每天6000萬條的'日誌數據進行處理,使用SQLServer2000需要花費6小時,而使用SQLServer2005則只需要花費3小時。

二、編寫優良的程序代碼

處理數據離不開優秀的程序代碼,尤其在進行復雜數據處理時,必須使用程序。好的程序代碼對數據的處理至關重要,這不僅僅是數據處理準確度的問題,更是數據處理效率的問題。良好的程序代碼應該包含好的算法,包含好的處理流程,包含好的效率,包含好的異常處理機制等。

三、對海量數據進行分區操作

對海量數據進行分區操作十分必要,例如針對按年份存取的數據,我們可以按年進行分區,不同的數據庫有不同的分區方式,不過處理機制大體相同。例如SQLServer的數據庫分區是將不同的數據存於不同的文件組下,而不同的文件組存於不同的磁盤分區下,這樣將數據分散開,減小磁盤I/O,減小了系統負荷,而且還可以將日誌,索引等放於不同的分區下。

四、建立廣泛的索引

對海量的數據處理,對大表建立索引是必行的,建立索引要考慮到具體情況,例如針對大表的分組、排序等字段,都要建立相應索引,一般還可以建立複合索引,對經常插入的表則建立索引時要小心,筆者在處理數據時,曾經在一個ETL流程中,當插入表時,首先刪除索引,然後插入完畢,建立索引,並實施聚合操作,聚合完成後,再次插入前還是刪除索引,所以索引要用到好的時機,索引的填充因子和聚集、非聚集索引都要考慮。

五、建立緩存機制

當數據量增加時,一般的處理工具都要考慮到緩存問題。緩存大小設置的好差也關係到數據處理的成敗,例如,筆者在處理2億條數據聚合操作時,緩存設置為100000條/Buffer,這對於這個級別的數據量是可行的。

六、加大虛擬內存

如果系統資源有限,內存提示不足,則可以靠增加虛擬內存來解決。筆者在實際項目中曾經遇到針對18億條的數據進行處理,內存為1GB,1個P42.4G的CPU,對這麼大的數據量進行聚合操作是有問題的,提示內存不足,那麼採用了加大虛擬內存的方法來解決,在6塊磁盤分區上分別建立了6個4096M的磁盤分區,用於虛擬內存,這樣虛擬的內存則增加為4096*6+1024=25600M,解決了數據處理中的內存不足問題。

七、分批處理

海量數據處理難因為數據量大,那麼解決海量數據處理難的問題其中一個技巧是減少數據量。可以對海量數據分批處理,然後處理後的數據再進行合併操作,這樣逐個擊破,有利於小數據量的處理,不至於面對大數據量帶來的問題,不過這種方法也要因時因勢進行,如果不允許拆分數據,還需要另想辦法。不過一般的數據按天、按月、按年等存儲的,都可以採用先分後合的方法,對數據進行分開處理。

八、使用臨時表和中間表

數據量增加時,處理中要考慮提前彙總。這樣做的目的是化整為零,大表變小表,分塊處理完成後,再利用一定的規則進行合併,處理過程中的臨時表的使用和中間結果的保存都非常重要,如果對於超海量的數據,大表處理不了,只能拆分為多個小表。如果處理過程中需要多步彙總操作,可按彙總步驟一步步來,不要一條語句完成,一口氣吃掉一個胖子。

九、優化查詢SQL語句

在對海量數據進行查詢處理過程中,查詢的SQL語句的性能對查詢效率的影響是非常大的,編寫高效優良的SQL腳本和存儲過程是數據庫工作人員的職責,也是檢驗數據庫工作人員水平的一個標準,在對SQL語句的編寫過程中,例如減少關聯,少用或不用遊標,設計好高效的數據庫表結構等都十分必要。筆者在工作中試着對1億行的數據使用遊標,運行3個小時沒有出結果,這是一定要改用程序處理了。

十、使用文本格式進行處理

對一般的數據處理可以使用數據庫,如果對複雜的數據處理,必須藉助程序,那麼在程序操作數據庫和程序操作文本之間選擇,是一定要選擇程序操作文本的,原因為:程序操作文本速度快;對文本進行處理不容易出錯;文本的存儲不受限制等。例如一般的海量的網絡日誌都是文本格式或者csv格式(文本格式),對它進行處理牽扯到數據清洗,是要利用程序進行處理的,而不建議導入數據庫再做清洗。

十一、定製強大的清洗規則和出錯處理機制

海量數據中存在着不一致性,極有可能出現某處的瑕疵。例如,同樣的數據中的時間字段,有的可能為非標準的時間,出現的原因可能為應用程序的錯誤,系統的錯誤等,這是在進行數據處理時,必須制定強大的數據清洗規則和出錯處理機制。

十二、建立視圖或者物化視圖

視圖中的數據來源於基表,對海量數據的處理,可以將數據按一定的規則分散到各個基表中,查詢或處理過程中可以基於視圖進行,這樣分散了磁盤I/O,正如10根繩子吊着一根柱子和一根吊着一根柱子的區別。

十三、避免使用32位機子(極端情況)

目前的計算機很多都是32位的,那麼編寫的程序對內存的需要便受限制,而很多的海量數據處理是必須大量消耗內存的,這便要求更好性能的機子,其中對位數的限制也十分重要。

十四、考慮操作系統問題

海量數據處理過程中,除了對數據庫,處理程序等要求比較高以外,對操作系統的要求也放到了重要的位置,一般是必須使用服務器的,而且對系統的安全性和穩定性等要求也比較高。尤其對操作系統自身的緩存機制,臨時空間的處理等問題都需要綜合考慮。

十五、使用數據倉庫和多維數據庫存儲

數據量加大是一定要考慮OLAP的,傳統的報表可能5、6個小時出來結果,而基於Cube的查詢可能只需要幾分鐘,因此處理海量數據的利器是OLAP多維分析,即建立數據倉庫,建立多維數據集,基於多維數據集進行報表展現和數據挖掘等。

十六、使用採樣數據,進行數據挖掘

基於海量數據的數據挖掘正在逐步興起,面對着超海量的數據,一般的挖掘軟件或算法往往採用數據抽樣的方式進行處理,這樣的誤差不會很高,大大提高了處理效率和處理的成功率。一般採樣時要注意數據的完整性和,防止過大的偏差。筆者曾經對1億2千萬行的表數據進行採樣,抽取出400萬行,經測試軟件測試處理的誤差為千分之五,客户可以接受。

還有一些方法,需要在不同的情況和場合下運用,例如使用代理鍵等操作,這樣的好處是加快了聚合時間,因為對數值型的聚合比對字符型的聚合快得多。類似的情況需要針對不同的需求進行處理。

海量數據是發展趨勢,對數據分析和挖掘也越來越重要,從海量數據中提取有用信息重要而緊迫,這便要求處理要準確,精度要高,而且處理時間要短,得到有價值信息要快,所以,對海量數據的研究很有前途,也很值得進行廣泛深入的研究。

標籤:
  • 文章版權屬於文章作者所有,轉載請註明 https://wenshudu.com/shiwuwenshu/gongzuozongjie/pd8jyo.html
專題