站内搜索: 商品 资讯 职位 下载

        新闻分类
        您现在的位置:新闻首页 >> 鉴定指南 >> DNA遗传学 >> 统计学之随机化检验

        字号:   

        统计学之随机化检验

        浏览次数: 日期:2015年1月23日 10:04

        为了证实数据的有效性,通常要应用计算机软件对数据进行随机化检验。研究者可以通过随机化检验提出一些问题,例如数据来源不同时,所有的结果是否存在显著性差异。排列组合检验,如“确切检验”,反复混合群体数据中获得的原始基因型以检验原有样本基因型是多么少见。反复混合的数据可产生新的基因型分布,这可与原始的相比较。

        再抽样检验,称为“自举法”或“jack-knifing法”,也可用于检验数据资料。自举法是一种计算机模拟实验,该法中原始的n个观察值通过替换重新抽样。另一方面,jack-knifing法的重新抽样是每次在原始n个观察值中减少一个,产生样本含量为n -1的n个样本。文献中描述群体数据的大部分论文使用确切检验重排数据2000次,尽管有些报道重排次数高达100 000次。

        因为在多数情况下对一个DNA型仅进行一次抽样,如果再进行检验,我们其实是使用统计学检验来估计期望值的变异。最后,对遗传学数据进行一系列统计学检验来估计基因型频率,因为许多基因型非常稀少,在检测的群体样本中无法观察到。

        所属类别: DNA遗传学

        该资讯的关键词为: