写数据个人总结5篇

时间:2023-07-08 17:14:11 分类:工作报告

在如今的工作环境,小伙伴们一定经常写到个人总结,为了让自己的工作质量有所提升,我们一定要认真写个人总结,以下是淘范文小编精心为您推荐的写数据个人总结5篇,供大家参考。

写数据个人总结5篇

写数据个人总结篇1

时光荏苒,很快就要过去了,回首过去一年来的统计工作,内心不禁感慨万千,在领导和全体同志的关怀、帮助、支持下,紧紧围绕中心工作,充分发挥岗位职能,不断改进工作方法,提高工作效率,以服从领导、团结同志、认真学习、扎实工作为准则,始终坚持高标准、严要求,工作上有了进步,总结过去、取长补短、挖掘潜力,为明年的工作做好充分的准备和规划。 一、一年来的工作表现

(一)仔细认真,提高自身素质。为做好统计工作,我坚持严格要求自己,统计工作最大地要求就是仔细认真,因此,我正确认识自身的工作价值,提高自己的耐心,增强自己的细心,时刻提醒自己,要以高效率,高质量的报表数据上报给各位领导。同时细心学习他人长处,改掉自己不足,并虚心向领导、同事请教,在不断学习和探索中使自己有所提高。

(二)严于律已,不断加强作风建设。一年来我对自身严格要求,始终把耐得平淡、舍得付出、默默无闻作为自己的准则,始终把作风建设的重点放在严谨、细致、扎实、求实脚踏实地埋头苦干上。在工作中,以制度、纪律规范自己的一切言行,严格遵守公司各项规章制度,尊重领导,团结同志,谦虚谨慎,主动接受来自各方面的意见,不断改进工作;坚持做到不利于公司形象的事不做,不利于公司形象的话不说,积极维护公司的良好形象。

(三)强化后勤处室职能,做好服务工作。对办公室费用方面,继续发扬以必需品为前提,节省处室费用消耗,保证各种办公必需用品齐全,确保领导与同事对办公用品的需求。在这一年里,我积极配合做好后勤工作,与同事心往一处想,劲往一处使,不会计较干得多,干得少,只希望把工作圆满完成。 二、工作中的不足与今后的努力方向

一年来的工作虽然取得了一定的进步,但也存在一些不足,在今后工作中,我一定认真总结经验,克服不足,努力把工作做得更好。

(一)仔细认真,克服浮躁心理。面对枯燥的数字统计工作,不怕繁琐,做到谨慎细心,不浮躁,积极适应各种数据变化,在工作中磨练意志,增长才干。

(二)发扬孜孜不倦的进取精神。加强学习,勇于实践,博览群书,在向书本学习的同时注意收集各类信息,广泛吸取各种营养;同时,讲究学习方法,端正学习态度,提高学习效率,努力培养自己具有扎实的理论功底、辩证的思维方法、正确的思想观点、踏实的工作作风。力求把工作做得更好,树立处室室的良好形象。

(三)多从细节考虑,紧跟领导意图,协调好内外部关系,多为领导分忧解难。继续加强对公司各种制度和业务的学习,做到全面深入的了解公司的各种制度和业务。用公司的各项制度作为自己工作的理论依据,结合实际更好的开展统计工作。

总之,一年来,我做了一定的工作,也取得了一些成绩,但距领导和同志们的要求还有不少的差距:主要是对政治理论和文字基础的学习抓得还不够紧,学习的系统性和深度还不够;工作创新意识不强,创造性开展不够。在今后的工作中,我将发扬成绩,克服不足,以对工作、对事业高度负责的态度,脚踏实地,尽职尽责地做好各项工作,不辜负领导和同志们对我的期望。

写数据个人总结篇2

一、统计学课程介绍:

统计学是一门实践性很强的方法__学科。1992年国家技术监督局在gb/t14745—92《学科分类与代码》,把包括原来社会科学领域和自然科学领域的各种统计学归并为一门统计学,并将其与数学、经济学等并列上升为一级学科,统计学从此以崭新的面貌出现在我国。

课程作用:21世纪是知识经济的时代,也是信息高速发展和传递的时代。统计是获得信息的手段和源泉且具有反馈信息、提供咨询、实施监督、支持决策的作用。统计学作为一门收集、整理、和分析数据的方法__科学,目的是探索客观事物内在的数量规律性,以达到对客观事物的科学认识。越是先进的`国家,统计理论和统计方法普及率、应用率越高。因此,培养统计意识,经常关注统计数据,掌握实用的统计知识,在日常经济生活和管理活动中运用统计知识,无论是对于学习、研究还是对我们的生活来讲都具有重要意义。

课程定位:《统计学》课程是面向经济管理类各专业的核心课程。它是经济管理类专业包括会计学专业、财务管理专业、旅游管理专业、市场营销专业、国际经济与贸易专业、金融学专业、社会保障等专业的专业基础课。在统计学教学中,注重培养学生的数据收集与分析能力、统计预测能力。培养学生的统计思想,提高学生的统计分析与应用能力。

课程目标:本课程的基本目标是:系统地介绍统计学的基本思想、基本方法及其在经济管理领域中的应用。通过本门课程的学习,使学生具备基本的统计思想,培养学生学习统计的兴趣,提高学生掌握基本统计方法和应用统计分析方法解决经济管理中实际问题的能力。同时为今后进一步学习相关专业打下坚实的基础。

二、实习时间:20__年12月26日——20__年12月31日

三、实习目的:

实习是统计学专业教学计划的重要组成部分,是对学生进行实际统计工作能力初步训练的基本形式,是培养学生职业技能与能力的重要环节,是全面检验和提高我校教育教学质量的必要措施。

统计学是我们这学期新开的课程,在大家学习了一学期理论知识后,都对统计学有了初步的认识与了解。实习的目的是使我们巩固和运用所学的基础知识和基本技能,建立统计意识和思想,运用收集数据的方法,并能够根据数据的特点选用恰当的统计方法进行分析和推断,获得相关经验,进一步理解统计的特点与规律,培养与提高我们的独立从事统计工作的能力,并使我们接受深刻的专业思想教育。

四、实习内容:

本次实习是通过上机试验的形式,主要通过运用e_cel软件对数据进行处理、分析、解释,以学习过的理论为指导和老师的现场指导。学生通过自己在网上找资料,作为原始数据对其进行统计。

实习的内容只要有一下几个实验:

(1)用e_cel进行数据的收集整理和分析。学会数字抽样,分析,产生直方图,饼图,散点图等对数字进行分析。

(2)用e_cel计算描述统计量。主要是计算一组数据的众数、中位数、标准差、算术平均数。使用描述统计工具量对数据进行描述。

(3)用e_cel进行时间序列分析。计算逐期增长量、累计增长率、平均增长量,测定发展速度、环比发展速度及平均发展速度。计算长期趋势与季节变动。

(4)用e_cel进行指数分析。包括计算总指数和平均指数以及因素分析。

(5)用e_cel进行相关和回归分析。

五、实习过程中注意点

通过用对这五个实验的实习,我觉得以下几个方面是值得注意的:

1、数据的搜集

统计数据的来源渠道主要有两个。一个是数据的间接来源,另一个是数据的直接来源。城我们作为学生没有那样的能力也没有那个时间来通过自己的调查来获得的一手的资料,更主要是因为,我们只是试验没有那个必要来亲自调查,因此在数据的来源方面主要是间接来源。国家统计局取得和自己从网络上取得别人调查好的数据。

2、数据的图表展示

表格性的数据,我们不易从中找出规律性的东西,不便于我们对其分析。而将表格性的出具同图表的形式展示出来使数据说明更加形象直观。便于我们从中发现其规律。本次试验所分析的数据是数值型寻呼机。数值型数据的展示方法很多,对分类数据和顺序数据的展示方法都适用于数值型数据而数值型数据还有自己的一些图示方法。我们要根据数字的性质,选择与其合适的图表形式。

3、e_cel数据处理技术

我们学习的教材的一个特点就是更加突出了与计算机的结合主要是突出了与e_cel的结合。因此我们在试验中更主要的是运用e_cel软件对数据处理分析。e_cel数据处理技术贯穿与整个试验过程的始终。e_cel是我们统计试验的基础知识。若不知e_cel的运用则无法进行试验。因此在试验中运用最多的还是e_cel技术。所以我们要充分了解计算机包括e_cel对统计的重要性。

六、实习心得与体会

这学期,我们开设的统计学这门课是是理论性与实践性并重的一门课。通过一学期的学习我们对统计学应用领域及其类型喝基本概念有了一个基本的了解,掌握了数据的收集、展示、分析的技术。但这都是些书本上的理论知识,是纸上谈兵。理论须用来指导实践,把我们学习到的理论知识运用到我们的工作和生活中去,这是我们学习的目的也是教育改革的方向。在学期末,学校为我们安排了统计学的实习。实践提高我们动手操作的能力和把理论应用到实践中去的思想,也通过试验加深我们对课本上理论的认识和掌握。在统计学实习此期间,我进一步学习了统计学的理论知识体系,对统计有了更深的理解,并且将理论与实践有机结合起来,深化了对课本知识的了解。从而巩固和运用所学的基础知识和基本技能,建立统计意识和思想,运用分析处理数据的方法,根据数据的特点选用恰当的统计方法进行分析和推断,获得相关经验,进一步理解统计的特点与规律,提高独立从事统计工作的能力,从而接受更深刻的专业思想教育。

本次实习,我也发现了自己有很多不足。首先对于数字统计的粗心,统计,对于人的细心程度由很高的要求。而我却在此过程中马马虎虎,很多次犯一些低级错误,引起不必要的错误与麻烦。其次发现自己对统计的认识深刻程度还远远不够,以前自以为是的认为书本上的知识都了解了,统计实习一定

没有问题,但事实是自己太高估自己了。

本次实习是我大学生活中不可或缺的重要经历,其收获和意义可见一斑。首先,我将自己所学的知识应用于实际的工作中,学会了利用e_cel软件进行数据搜集与整理数据,对数据进行统计分组,然后再做成各种统计图和散点图。我还学会了用e_cel计算描述统计量,用e_cel进行实践序列分析、指数分析和相关回归分析。真正做到了理论应用于实际,在实践中我的知识得到了巩固,解决问题的能力也得到了提升;这也就是本次实习的目的。实习期间,我利用此次难得的机会,努力学习,严格要求自己。原本以为统计学实习是件很简单的事,就是做几个e_cel而已,但是实习了才发现,其实我在统计学学习中还有一些问题的。但是遇到问题后,在老师的指导下,解决了问题,最后顺利得完成了实习任务。我也深深的感觉到自己所学知识的肤浅和在实际运用中的专业知识的匮乏,今后我将继续学习统计学方面的知识,不断丰富自我,完善自我,超越自我。

最后,借此机会,由衷地感谢为我此次实习提供帮助和指导的老师和同学。

写数据个人总结篇3

时间如梭,新年的钟声即将敲响。20xx年将告别它的光辉,20xx年从容而至。在这个辞旧迎新之际,第一次尝试把自己在这一年来的行动用语言表达。下面我就做个简单的总结。

一、统计工作

1、每日做好生产一线职工的个人产量与次品数据的汇总与登记,并间断性地抽查相关数据是否准确;

2、每月汇总并公布职工的出勤、个人产量、次品等。做好产量月报表上报生产经理和财务部门,包括生产车间和包装车间;

3、每月月底进行一次彻底的盘库,主要有原材料、辅料、半成品、成品。整理分析数据后上交财务部等相关部门;

4、每月将生产部各种人员流动情况及考勤,奖罚,请假等数据汇总上报行政人事部;

5、协助人事部门招聘、登记求职人员信息,刊出宣传橱窗;

6、配合生产部发布和修改各类制度、通知、考核等;

7、自从公司实行免费餐以后,每日进行就餐人数统计;

8、年底将部分数据用表格的形式进行汇总与分析。主要有《年度原材料消耗表》、《年度生产表》、《年度成品包装产量表》。

二、20xx的工作计划

努力完成本职工作之余,学习更多有关财务、统计方面的知识,以提升自己专业学识。

积极参加一些和专业有关的培训,有效提高对统计数据的准确性,并做好数据的登记与分析。

三、总结经验与不足之处

20xx年,在原有的各种统计报表基础上,对一些没有实际意义的表格作了改进,并对统计数字的准确性进行了加强。但也存在着不少问题,尤为突出的是“食堂就餐人数的统计”问题。由于如今在厂职工按部门划分,人员变动情况很难在同一时间最准确地掌握,给每日的上报带来很大的麻烦。为此经过一系列的改进与调整,我们将专属部门专职人员上报签字认可,希望能够起到更准确更及时的统计。12月份最多统计人数相差了8人,为此我也做了检讨。有人反映人数统计方面存在问题,那是否职工产量也是如此。关于这个问题是我统计中的疏忽,但产量我可以大胆地说,不是百分之百的正确,却有99%的准确!工作中经常会出现这样那样的问题,我们要勇于正视错误,并且解决错误。有则改之,无则加勉!

回顾过去,20xx年是个不平凡的一年,是我职业生涯的一个重要转折点。宝光给了我锻炼的舞台,使我取得了不少的收益。这些成绩是离不开领导的信任和支持,离不开车间各道质检的共同努力。在此我要感谢各位对本人工作的支持!过去的成绩只能说明过去,未来的日子还是要靠我们共同的努力去实现。一份耕耘,一份收获,我相信宝光的未来会更加辉煌!

最后,衷心地祝愿各位领导和同事们新年快乐!

写数据个人总结篇4

一、数据量过大,数据中什么情况都可能存在。

如果说有10条数据,那么大不了每条去逐一检查,人为处理,如果有上百条数据,也可以考虑,如果数据上到千万级别,甚至过亿,那不是手工能解决的了,必须通过工具或者程序进行处理,尤其海量的数据中,什么情况都可能存在,例如,数据中某处格式出了问题,尤其在程序处理时,前面还能正常处理,突然到了某个地方问题出现了,程序终止了。

二、软硬件要求高,系统资源占用率高。

对海量的数据进行处理,除了好的方法,最重要的就是合理使用工具,合理分配系统资源。一般情况,如果处理的数据过tb级,小型机是要考虑的,普通的机子如果有好的方法可以考虑,不过也必须加大cpu和内存,就象面对着千军万马,光有勇气没有一兵一卒是很难取胜的。

三、要求很高的处理方法和技巧。

这也是目的所在,好的处理方法是一位工程师长期工作经验的积累,也是个人的经验的总结。没有通用的处理方法,但有通用的原理和规则。

下面我们来详细介绍一下处理海量数据的经验和技巧:

一、选用优秀的数据库工具

现在的数据库工具厂家比较多,对海量数据的处理对所使用的数据库工具要求比较高,一般使用oracle或者db2,微软公司最近发布的sqlserver20xx性能也不错。另外在bi领域:数据库,数据仓库,多维数据库,数据挖掘等相关工具也要进行选择,象好的etl工具和好的olap工具都十分必要,例如informatic,eassbase等。笔者在实际数据分析项目中,对每天6000万条的日志数据进行处理,使用sqlserver20xx需要花费6小时,而使用sqlserver20xx则只需要花费3小时。

二、编写优良的程序代码

处理数据离不开优秀的程序代码,尤其在进行复杂数据处理时,必须使用程序。好的程序代码对数据的处理至关重要,这不仅仅是数据处理准确度的问题,更是数据处理效率的问题。良好的程序代码应该包含好的算法,包含好的处理流程,包含好的效率,包含好的异常处理机制等。

三、对海量数据进行分区操作

对海量数据进行分区操作十分必要,例如针对按年份存取的数据,我们可以按年进行分区,不同的数据库有不同的分区方式,不过处理机制大体相同。例如sqlserver的数据库分区是将不同的数据存于不同的文件组下,而不同的文件组存于不同的磁盘分区下,这样将数据分散开,减小磁盘i/o,减小了系统负荷,而且还可以将日志,索引等放于不同的分区下。

四、建立广泛的索引

对海量的数据处理,对大表建立索引是必行的,建立索引要考虑到具体情况,例如针对大表的分组、排序等字段,都要建立相应索引,一般还可以建立复合索引,对经常插入的表则建立索引时要小心,笔者在处理数据时,曾经在一个etl流程中,当插入表时,首先删除索引,然后插入完毕,建立索引,并实施聚合操作,聚合完成后,再次插入前还是删除索引,所以索引要用到好的时机,索引的填充因子和聚集、非聚集索引都要考虑。

五、建立缓存机制

当数据量增加时,一般的处理工具都要考虑到缓存问题。缓存大小设置的好差也关系到数据处理的成败,例如,笔者在处理2亿条数据聚合操作时,缓存设置为100000条/buffer,这对于这个级别的数据量是可行的。

六、加大虚拟内存

如果系统资源有限,内存提示不足,则可以靠增加虚拟内存来解决。笔者在实际项目中曾经遇到针对18亿条的数据进行处理,内存为1gb,1个p42.4g的cpu,对这么大的数据量进行聚合操作是有问题的,提示内存不足,那么采用了加大虚拟内存的方法来解决,在6块磁盘分区上分别建立了6个4096m的磁盘分区,用于虚拟内存,这样虚拟的内存则增加为4096*6+1024=25600m,解决了数据处理中的内存不足问题。

七、分批处理

海量数据处理难因为数据量大,那么解决海量数据处理难的问题其中一个技巧是减少数据量。可以对海量数据分批处理,然后处理后的数据再进行合并操作,这样逐个击破,有利于小数据量的处理,不至于面对大数据量带来的问题,不过这种方法也要因时因势进行,如果不允许拆分数据,还需要另想办法。不过一般的数据按天、按月、按年等存储的,都可以采用先分后合的方法,对数据进行分开处理。

八、使用临时表和中间表

数据量增加时,处理中要考虑提前汇总。这样做的目的是化整为零,大表变小表,分块处理完成后,再利用一定的规则进行合并,处理过程中的临时表的使用和中间结果的保存都非常重要,如果对于超海量的数据,大表处理不了,只能拆分为多个小表。如果处理过程中需要多步汇总操作,可按汇总步骤一步步来,不要一条语句完成,一口气吃掉一个胖子。

九、优化查询sql语句

在对海量数据进行查询处理过程中,查询的sql语句的性能对查询效率的影响是非常大的,编写高效优良的sql脚本和存储过程是数据库工作人员的职责,也是检验数据库工作人员水平的一个标准,在对sql语句的编写过程中,例如减少关联,少用或不用游标,设计好高效的数据库表结构等都十分必要。笔者在工作中试着对1亿行的数据使用游标,运行3个小时没有出结果,这是一定要改用程序处理了。

十、使用文本格式进行处理

对一般的数据处理可以使用数据库,如果对复杂的数据处理,必须借助程序,那么在程序操作数据库和程序操作文本之间选择,是一定要选择程序操作文本的,原因为:程序操作文本速度快;对文本进行处理不容易出错;文本的存储不受限制等。例如一般的海量的网络日志都是文本格式或者csv格式(文本格式),对它进行处理牵扯到数据清洗,是要利用程序进行处理的,而不建议导入数据库再做清洗。

十一、定制强大的清洗规则和出错处理机制

海量数据中存在着不一致性,极有可能出现某处的瑕疵。例如,同样的数据中的时间字段,有的可能为非标准的时间,出现的原因可能为应用程序的错误,系统的错误等,这是在进行数据处理时,必须制定强大的数据清洗规则和出错处理机制。

十二、建立视图或者物化视图

视图中的数据来源于基表,对海量数据的处理,可以将数据按一定的规则分散到各个基表中,查询或处理过程中可以基于视图进行,这样分散了磁盘i/o,正如10根绳子吊着一根柱子和一根吊着一根柱子的区别。

十三、避免使用32位机子(极端情况)

目前的计算机很多都是32位的,那么编写的程序对内存的需要便受限制,而很多的海量数据处理是必须大量消耗内存的,这便要求更好性能的机子,其中对位数的限制也十分重要。

十四、考虑操作系统问题

海量数据处理过程中,除了对数据库,处理程序等要求比较高以外,对操作系统的要求也放到了重要的位置,一般是必须使用服务器的,而且对系统的安全性和稳定性等要求也比较高。尤其对操作系统自身的缓存机制,临时空间的处理等问题都需要综合考虑。

十五、使用数据仓库和多维数据库存储

数据量加大是一定要考虑olap的,传统的报表可能5、6个小时出来结果,而基于cube的查询可能只需要几分钟,因此处理海量数据的利器是olap多维分析,即建立数据仓库,建立多维数据集,基于多维数据集进行报表展现和数据挖掘等。

十六、使用采样数据,进行数据挖掘

基于海量数据的数据挖掘正在逐步兴起,面对着超海量的数据,一般的挖掘软件或算法往往采用数据抽样的方式进行处理,这样的误差不会很高,大大提高了处理效率和处理的成功率。一般采样时要注意数据的完整性和,防止过大的偏差。笔者曾经对1亿2千万行的表数据进行采样,抽取出400万行,经测试软件测试处理的误差为千分之五,客户可以接受。

还有一些方法,需要在不同的情况和场合下运用,例如使用代理键等操作,这样的好处是加快了聚合时间,因为对数值型的聚合比对字符型的聚合快得多。类似的情况需要针对不同的需求进行处理。

海量数据是发展趋势,对数据分析和挖掘也越来越重要,从海量数据中提取有用信息重要而紧迫,这便要求处理要准确,精度要高,而且处理时间要短,得到有价值信息要快,所以,对海量数据的研究很有前途,也很值得进行广泛深入的研究。

写数据个人总结篇5

工作以来,在项目部领导的关怀下,在同事的帮助下,我能尽心尽职,全身心的投入到工作中,尽自己的全力履行好统计员工作职责,刻苦钻研业务知识,努力提高理论知识和业务工作水平,并认真完成领导交给的各项工作任务。把自己多年来在学校所学到的书本经验应用在实践工作中,并能够严于律己,在同事的关心、支持和帮助下,思想、学习和工作等方面取得了新的进步,现工作总结如下:

一、主要工作情况:

1.强化理论和业务的学习。我重视加强理论和业务知识学习,在工作中,坚持一边工作一边学习,不断提高自身综合业务素质水平,认真学习工作业务知识,并结合自己在实际工作中存在的不足有针对性地进行学习,并且认真翻阅了《现场物资管理实施方案》,明确了统计员的工作职责。

2.在工作以来,我始终坚持严格要求自己,勤奋努力,时刻牢记在自己平凡而普通的工作岗位上,努力做好本职工作。在具体工作中,我努力做好领导交给的每一个工作,分清轻重缓急,科学安排时间,按时、按质、按量完成任务。

3.每天及时、准确按《采购合同》或《供货协议》的到货明细填写《材料物资统计表》和《成套设备统计表》;按照司机提供的到货清单认真填写《设备物资统计表》,将每天的到货情况输入到《二期扩建工程管理软件(p3系统)》,再将到货记录通过sql数据库软件的企业管理器导入到《中唐电现场物资管理系统(mis系统)》,并及时作好数据的备份。

4.每隔两天向计划设备部和工程部发送《设备物资统计表》;每周作好《现场物资周报》的统计工作;每个月将总到货车数和总物资重量与月到货车数和物资重量报给项目经理;并在月初将一个月的到货情况统计到《物资库存动态盘点表》,并存档。

5.在设备厂家和保管员确认设备无问题情况下,及时对照发票作入库单,将发票复印件存档,并作好《入库单记录明细》。

6.在作好统计工作之后,对项目部的电脑及网络进行定时维护,更新系统,更新修复被攻击的ie浏览器,扫描系统存在的漏洞并进行修补和安装补丁,定期对操作系统清理垃圾和作ghost备份;解决同事们在电脑上遇到的所有困难和存在的问题。

二、存在不足

1.在工作中,虽然我不断加强理论知识的学习,努力使自己在各方面走向熟练,但由于自身学识、能力、思想、心理素质等的局限,导致在平时的工作中比较死板、心态放不开,工作起来束手束脚,对工作中的一些问题没有全面的理解与把握。同时由于个人不爱说话,与同事们尤其是领导的沟通和交流很少,工作目标不明确,并且遇到问题请教不多,没有做到虚心学习。

2.身为新时代的大学生,却没有青年人应有的朝气,学习新知识、掌握新东西不够。领导交办的事基本都能完成,但自己不会主动牵着工作走,很被动,而且缺乏工作经验,独立工作能力不足。在工作中不够大胆,总是在不断学习的过程中改变工作方法,而不能在创新中去实践,去推广。

3.由于进了大量的设备,有时没有及时统计到货情况,出现累积现像。对sql数据库软件没有作到按时备份。网络线路不规整没有及时进行处理。

这是我对这段时间工作的总结,说的不太多。但我认为用实际行动做出来更有说服力。所以在今后工作中我将努力奋斗,无论自己手头的工作有多忙,都服从公司领导的工作安排,遇到工作困难,及时与领导联系汇报,并寻找更好解决问题的办法,继续巩固现有成绩,针对自身的不足加以改进,争取做的更好。

《写数据个人总结5篇.doc》
将本文的Word文档下载,方便收藏和打印
推荐度:
点击下载文档

相关文章

最新文章

分类

关闭