<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20241031//EN" "JATS-journalpublishing1-4.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" article-type="research-article" dtd-version="1.4" xml:lang="zh">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">ml</journal-id>
      <journal-title-group>
        <journal-title>Modern Linguistics</journal-title>
      </journal-title-group>
      <issn pub-type="epub">2330-1716</issn>
      <issn pub-type="ppub">2330-1708</issn>
      <publisher>
        <publisher-name>汉斯出版社</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.12677/ml.2026.144273</article-id>
      <article-id pub-id-type="publisher-id">ml-139107</article-id>
      <article-categories>
        <subj-group>
          <subject>Article</subject>
        </subj-group>
        <subj-group>
          <subject>人文社科</subject>
        </subj-group>
      </article-categories>
      <title-group>
        <article-title>基于小型语料库的维吾尔语信息熵估算</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Estimation of Information Entropy in Uyghur Based on Small-Scale Corpora</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <name name-style="eastern">
            <surname>高</surname>
            <given-names>昆</given-names>
          </name>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
      </contrib-group>
      <aff id="aff1"><label>1</label> 新疆大学中国语言文学学院，新疆 乌鲁木齐 </aff>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>04</month>
        <year>2026</year>
      </pub-date>
      <pub-date pub-type="collection">
        <month>04</month>
        <year>2026</year>
      </pub-date>
      <volume>14</volume>
      <issue>04</issue>
      <fpage>111</fpage>
      <lpage>118</lpage>
      <history>
        <date date-type="received">
          <day>07</day>
          <month>03</month>
          <year>2026</year>
        </date>
        <date date-type="accepted">
          <day>22</day>
          <month>03</month>
          <year>2026</year>
        </date>
        <date date-type="published">
          <day>07</day>
          <month>04</month>
          <year>2026</year>
        </date>
      </history>
      <permissions>
        <copyright-statement>© 2026 Hans Publishers Inc. All rights reserved.</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="open-access">
          <license-p> This article is an open access article distributed under the terms and conditions of the Creative Commons Attribution (CC BY) license ( <ext-link ext-link-type="uri" xlink:href="https://creativecommons.org/licenses/by/4.0/">https://creativecommons.org/licenses/by/4.0/</ext-link> ). </license-p>
        </license>
      </permissions>
      <self-uri content-type="doi" xlink:href="https://doi.org/10.12677/ml.2026.144273">https://doi.org/10.12677/ml.2026.144273</self-uri>
      <abstract>
        <p>信息熵是一种衡量信息量的指标，在信息论中用于度量随机变量的不确定性。语言的信息熵是数学方法和语言学的结合，反映语言中每个字符的平均信息量，可以帮助我们了解语言中某一字符表达能力。本文以维吾尔语为研究对象开展维吾尔语信息熵估算研究。在简要论述香农三大定理与自然语言处理关系基础上，基于120万词的维吾尔语单语语料库开展频率统计，运用信息熵计算方法，将统计结果代入香农信息熵公式初步估算出了维吾尔语的零阶熵，并将估算结果与一些表音文字系统语言进行了对比。</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>Information entropy is a metric for measuring the amount of information, used in information theory to quantify the uncertainty of random variables. Linguistic information entropy combines mathematical methods and linguistics, reflecting the average information content of each character in a language, which helps us understand the expressive power of a particular character. This study focuses on Uyghur as the research subject, conducting an investigation into the estimation of Uyghur information entropy. After briefly discussing the relationship between Shannon’s three theorems and natural language processing, the study performs frequency statistics based on a monolingual corpus of 1.2 million Uyghur words. Using information entropy calculation methods, the statistical results are substituted into Shannon’s entropy formula to preliminarily estimate the zero-order entropy of Uyghur. The estimated results are then compared with some languages of the abugida writing system.</p>
      </trans-abstract>
      <kwd-group kwd-group-type="author-generated" xml:lang="zh">
        <kwd>维吾尔语</kwd>
        <kwd>信息熵</kwd>
        <kwd>香农三大定理</kwd>
        <kwd>语料库</kwd>
      </kwd-group>
      <kwd-group kwd-group-type="author-generated" xml:lang="en">
        <kwd>Uyghur Language</kwd>
        <kwd>Information Entropy</kwd>
        <kwd>Shannon’s Three Major Theorems</kwd>
        <kwd>Corpus</kwd>
      </kwd-group>
    </article-meta>
  </front>
  <body>
    <sec id="sec1">
      <title>1. 引言</title>
      <p>随着社会信息化程度的不断提高，自然语言处理(NLP)或为语言研究的一个重点与热点。而信息熵的计算就是进行自然语言处理的一项重要基础研究。教育部、国家语委、中央网信办明确提出，要以数字中文建设服务数字中国战略，全面加强语言文字信息化、规范化、标准化建设，以语言文字数字化与数据中文化深度融合，推动教育现代化和语言文字事业高质量发展。本项目充分发挥计算语言学作为“新文科”研究前沿的理论优势，灵活运用计算语言学研究方法估算维吾尔语信息熵。在理论层面具有以下几方面意义：一是，运用交叉学科研究方法开展具体语言问题研究，符合语言学研究发展趋势。二是，目前关于少数民族语言信息熵的研究较少，本项目可以一定程度上弥补少数民族语言在信息熵方面研究的空缺。</p>
    </sec>
    <sec id="sec2">
      <title>2. 各国对语言信息熵研究历程</title>
      <p>信息熵是信息论的基本概念，也是信息论的基础。其描述所获取的信息中各可能事件发生的概率。从语言学角度来看，信息熵的基本作用是消除或减少人们对事件的不确定性，对于越模糊的事情，需要把它弄清楚所需要的信息量也就越多，其信息熵也就越大。比如：对于一道选择题，当做题者被告知正确答案为C后，那么他对问题的不确定性便被消除。此时，做题者从他所获取到的信息中获得了一定的信息量。通俗的讲，想要消除更多的不确定性，就需要更多的信息。因此，我们可以用在做题者接收到信息之前，其对题目答案不确定性程度的大小来表示语言符号所负荷的信息量。</p>
      <p>1951年，美国数学家香农首次运用数学方法测出了英语中包含在一个字母中的熵，并以此为基础提出了香农三大定律，奠定了现代信息科学基础。此后,随着科学的发展，在信息化时代需求下，人们依据香农三大定律，运用信息熵测量方法陆续测出了一些其他语言的信息熵。如：英语4.03比特；法语3.98比特；德语4.10比特；西班牙语4.01比特；俄语4.35比特；罗马尼亚语4.12比特等。至此，信息熵成为了语言文字信息化的一项基础数据，并广泛应用于信息编码、文字输入法以及文本自动处理等自然语言处理领域。</p>
      <p>在国内，上世纪70年代末冯志伟先生通过对汉字手动查频，建立了6个不同容量的汉字频度表，采用逐渐扩大汉字容量的方法。首次计算出了汉字的零阶熵值是9.65比特。最后得出结论：当汉字容量不大时，汉字的信息熵随着汉字容量的增加而增加，当汉字容量达到12,366个字时，汉字的信息熵就不再增加，并将研究结果于1984年发表在《语文建设》中[<xref ref-type="bibr" rid="B1">1</xref>]。1995年，冯志伟又根据英汉双语语料库的对比研究，进一步测定了在充分联系上下文的基础上包含在一个汉字中的熵，这个熵也就是汉字的“极限熵”。他测得，汉字的极限熵的平均值为4.0462比特[<xref ref-type="bibr" rid="B2">2</xref>]。尽管冯志伟先生认为他所计算的信息熵只是一种猜测，但计算机发展落后的当时，通过对数量庞大的汉字进行手动查频计算出其零阶熵，也是一件极其困难的工作[<xref ref-type="bibr" rid="B3">3</xref>]。冯志伟先生的这项工作为汉字电脑端显示以及中文输入法制作奠定了语言学基础，也为汉字双字节编码奠定了理论基础。随后，随着信息科学理论发展与计算机计算能力的提升，语言信息熵的测算不断精确。80年代末期，刘源运用汉字频度统计的方法，计算出汉字的零阶熵是9.71比特[<xref ref-type="bibr" rid="B4">4</xref>]。在1999年，黄萱菁等人在大规模语料的基础上求得的汉语的零阶熵为9.62比特、一阶熵为6.18比特、二阶熵为4.89比特[<xref ref-type="bibr" rid="B5">5</xref>]。孙帆等人用基于词的语言模型估计方法估算出汉语的极限熵值为5.31比特[<xref ref-type="bibr" rid="B6">6</xref>]。</p>
      <p>关于我国少数民族语言文字信息熵的估算，由于当时计算机可读文本较少，所以起步较晚。在2007年第七届中文信息处理国际会议上，那日松、淑琴发表文章《蒙古文信息熵和拉丁转写研究》并估算出蒙古文名义字符的估算熵为4.165比特[<xref ref-type="bibr" rid="B7">7</xref>]。在语言文字信息熵计算方面大都采用基于语料库的统计方法计算信息熵。江荻以20余万字的藏文单语语料为基础，采用统计的方法，估算出了藏文字符的一阶熵其值为3.9913比特[<xref ref-type="bibr" rid="B8">8</xref>]。在2020年，完么扎西等人以300多万字的藏语单语语料为基础，采用概率统计的方法，估算了藏文字符的信息熵为4.17比特和藏文字的信息熵为8.21比特[<xref ref-type="bibr" rid="B9">9</xref>]。严海林等人同样采用概率统计的方法，以4千万字符的藏语单语语料为基础估计出了藏文“字丁”的零阶熵、一阶熵、二阶熵和三阶熵，以及冗余度，其值分别为9.59比特、4.80比特、3.12比特、2.70比特和0.72比特[<xref ref-type="bibr" rid="B10">10</xref>]。对于少数民族语言文字信息熵的研究主要集中在蒙古文和藏文领域，对于维吾尔语信息熵估算方面的研究几乎为空白。</p>
      <p>近些年随着科学的发展，计算机逐渐普及，各民族语言信息化文本不断丰富，少数民族语语料收集变得更加方便，这也为开展少数民族语言信息熵估算工作提供了便利，也使本研究开展具备了可能性。</p>
    </sec>
    <sec id="sec3">
      <title>3. 信息熵基本概念及其在语言学方面应用</title>
      <sec id="sec3dot1">
        <title>3.1. 信息熵</title>
        <p>20世纪40年代末，香农(C.E. Shannon)借鉴了热力学中熵的概念，把信息中排除了无效信息后的平均信息量称为“信息熵”，同时也给出了描述信息熵的数学公式。信息熵的提出解决了对信息的量化度量问题。</p>
        <p>信息熵是反映语言的数学面貌的一个重要的信息论参数，与热力学中的熵相似。他在著作<italic>The Bell System Technica Journal</italic>中提出，在信息论中的熵是信息不确定性的度量单位，也就是信息量的度量单位。他用公式<inline-formula><mml:math display="inline"><mml:mrow><mml:mi> H </mml:mi><mml:mo> = </mml:mo><mml:mo> − </mml:mo><mml:mi> log </mml:mi><mml:mn> 2 </mml:mn><mml:mi> P </mml:mi></mml:mrow></mml:math></inline-formula> 来表示信息量[<xref ref-type="bibr" rid="B11">11</xref>]。</p>
        <p>信息熵的定义：如果一个符号集合X，其中每个符号出现的概率分别为<inline-formula><mml:math display="inline"><mml:mrow><mml:msub><mml:mi> p </mml:mi><mml:mn> 1 </mml:mn></mml:msub><mml:mo> , </mml:mo><mml:msub><mml:mi> p </mml:mi><mml:mn> 2 </mml:mn></mml:msub><mml:mo> , </mml:mo><mml:mo> ⋯ </mml:mo><mml:mo> , </mml:mo><mml:msub><mml:mi> p </mml:mi><mml:mi> n </mml:mi></mml:msub></mml:mrow></mml:math></inline-formula> ，则其的熵为：</p>
        <disp-formula id="FD1">
          <mml:math display="inline">
            <mml:mrow>
              <mml:mi>H</mml:mi>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mi>X</mml:mi>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>=</mml:mo>
              <mml:mo>−</mml:mo>
              <mml:munderover>
                <mml:mstyle mathsize="140%" displaystyle="true">
                  <mml:mo>∑</mml:mo>
                </mml:mstyle>
                <mml:mrow>
                  <mml:mi>i</mml:mi>
                  <mml:mo>=</mml:mo>
                  <mml:mn>1</mml:mn>
                </mml:mrow>
                <mml:mi>n</mml:mi>
              </mml:munderover>
              <mml:mtext>
                 
              </mml:mtext>
              <mml:msub>
                <mml:mi>p</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
              <mml:mi>log</mml:mi>
              <mml:mn>2</mml:mn>
              <mml:msub>
                <mml:mi>p</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>信息论中采用比特(bit)作为信息量的单位[<xref ref-type="bibr" rid="B12">12</xref>]。</p>
      </sec>
      <sec id="sec3dot2">
        <title>3.2. 香农三大定理与自然语言处理</title>
        <p>香农三大定理是信息论的基础理论，是存在性定理，虽然在定理中并没有提供具体的信息编码实现方法，但却为通信信息理论的研究指明了方向。香农三大定理结合起来就构成了现代信息论的基础理论，三大理论之间相辅相成，相互联系，推动了通信技术的发展和应用，为现代通信数字理论的发展做出了巨大的贡献[<xref ref-type="bibr" rid="B13">13</xref>]。同样，在自然语言处理领域中，香农三大定理也有着很高的地位。</p>
        <p>定理一：可变长无失真信源编码定理，假设有一个信息源，其中的信息都是来自<italic>X</italic>的<italic>n</italic>个字符。如果信息中的每一个字符都符合<inline-formula><mml:math display="inline"><mml:mrow><mml:mi> p </mml:mi><mml:mrow><mml:mo> ( </mml:mo><mml:mi> x </mml:mi><mml:mo> ) </mml:mo></mml:mrow></mml:mrow></mml:math></inline-formula> 分布，那么：</p>
        <disp-formula id="FD2">
          <mml:math display="inline">
            <mml:mrow>
              <mml:mi>H</mml:mi>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mi>X</mml:mi>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>≤</mml:mo>
              <mml:msub>
                <mml:mi>L</mml:mi>
                <mml:mi>n</mml:mi>
              </mml:msub>
              <mml:mo>&lt;</mml:mo>
              <mml:mi>H</mml:mi>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mi>X</mml:mi>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>+</mml:mo>
              <mml:mfrac>
                <mml:mn>1</mml:mn>
                <mml:mi>n</mml:mi>
              </mml:mfrac>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>其中<inline-formula><mml:math display="inline"><mml:mrow><mml:msub><mml:mi> L </mml:mi><mml:mi> n </mml:mi></mml:msub></mml:mrow></mml:math></inline-formula> 为所输入字符期望编码长度，因此，通过使用足够大的分组长度，可以获得一个编码，可以使其每字符期望码长任意地接近熵。可变长无失真信源编码定理是采用无失真最佳信源编码在失真度限制下，可以用较短的编码长度来表示信息，而不会引起信息传输的失真。它给出了在无损情况下，数据压缩的临界值。同时它也可以有效的提高通信系统的传输效率和质量，降低通信成本和复杂度。在自然语言处理中，我们可以将一个语言模型看作一个信息源，其中每个词汇都有一个概率分布，表示该词汇在该语境中出现的概率。通过计算语言模型的信息熵，我们可以评估其预测能力和模型的复杂度。可用于语言模型的比较与评估。</p>
        <p>定理二：有噪信道编码定理，是关于编码存在的定理。只要信息传输速率小于信道容量，就存在一类编码，使得信息传输的错误概率可以任意小。它可以帮助我们设计更高效、更可靠的通信系统。在自然语言处理中，可以将该定理应用于语音识别和文本翻译等有干扰的任务中，通过优化代码的方式来提高模型的精确度和可靠性。</p>
        <p>定理三：保真度准则下的信源编码定理，或称有损信源编码定理。在信息论中，保真度准则是衡量信息传输效果的一个重要指标。它可以用于评估信息传输过程中信息的失真程度，从而进一步优化信源编码方案。根据保真度准则，一个信源编码的失真率被定义为该编码对于每个信息符号所引入的平均失真程度。在这个定义下，如果一个编码方案的失真率小于预定的阈值，那么这个编码方案就可以被认为是有效的。在自然语言处理中，可以将该定理应用于文本压缩和数据压缩的任务中，通过压缩技术来减小储存空间的占用，提高传输效率。</p>
        <p>根据字符编码的观点，语言符号的熵可视为该语言字符编码的平均最小码长。通过计算某语言字符的信息熵，可以确定该语言符号系统的较短编码长度，从而实现最佳的数据存储、管理和传输效率，以最小的成本和消耗为代价。例如，我们在处理一个有10,000个字符的英文文本，如果采用1个字节8比特代表一个符号的ASCII码进行编码，那么我们就需要10000*8 = 80000比特，来储存这个文本。如果我们统计出该文本每个字符出现频率所对应的概率，根据概率高低设计不同的编码长度，概率越高，编码长度越短。这样我们就可以把数据量压缩下去远远小于80,000比特，而香农提出的三大定理就是告诉我们如何计算数据压缩的极限。</p>
        <p>香农的三大定理在自然语言处理中有着广泛的应用。它们可以用于语言模型的评估和比较、文本信息量的评估、语音信号的压缩和表示等方面。例如，在自然语言生成中，我们可以使用可变长无失真信源编码定理来评估生成模型的预测能力和复杂度，从而选择最优的模型。在语音识别中，我们可以使用有噪信道编码定理来评估不同的语音信号传输方式的可靠性和效率，从而选择最优的传输方式。在文本分类中，我们可以使用保真度准则下的信源编码定理来对文本进行压缩和表示，从而提高分类效果和减少计算成本。</p>
        <p>此外，香农三大定律也为自然语言处理研究提供了重要的理论基础。它们揭示了信息传输和处理中的基本规律和限制，为自然语言处理技术的设计和优化提供了指导和启示。</p>
      </sec>
    </sec>
    <sec id="sec4">
      <title>4. 维吾尔语语料库的建设及语料处理</title>
      <sec id="sec4dot1">
        <title>4.1. 维吾尔语语料库构建</title>
        <p>随着计算机的迅猛发展，大量计算机可读文本不断产生，电脑语料库容量大，资料真实，信息提取准确，因此利用语料库对语言进行研究已经发展成为一个跨世纪跨学科的语言研究学科。</p>
        <p>语料库是一种被广泛用于自然语言处理和语言学研究的数据集合。它是由收集、整理、标注和储存大量的自然语言文本构成的，并可用于研究自然语言的语法、语义、语用、文本分类、词汇分析、机器翻译、信息检索等领域。语料库的规模可以从小到大，可以包含数千个语言样本，也可以包含数亿个语言样本。语料库可以通过手工构建，也可以是从网络、出版物、语音录音等不同渠道自动采集。本文所使用的语料来源于新疆大学2018~2019级硕士毕业生翻译材料，共计120万词，材料中的所有作品均由维吾尔族母语作者撰写，且均已正式出版，确保了语料的语言真实性和规范性。</p>
      </sec>
      <sec id="sec4dot2">
        <title>4.2. 语料处理</title>
        <p>维吾尔语是一种属于阿尔泰语系的语言，它的文字系统基于阿拉伯字母。维吾尔语的书写方式是从右向左、从上到下。维吾尔语共有32个字母，其中，分为24个辅音字母和8个元音字母。在书写维吾尔语时，根据字母出现在词语中位置的不同，这32个字母共有126种不同的书写形式可供使用。用空格将单词和单词分开，使其更易于阅读和理解。</p>
        <p>在计算机处理维吾尔语老文字时，由于维吾尔文采用基于阿拉伯字母的书写系统，其Unicode编码中，出现在词首的元音通常由两个独立字符组合表示(例如，元音[ɑ]在词首写作“ئا”，由“ئ”和“ا”两个字符组成)，这导致计算机统计时会将一个音素误计为两个字符，从而扭曲后续的概率分布。为了准确反映维吾尔语的语音单位，我们采用国际音标对语料进行转写。国际音标是一种记录语言中的音素的符号，它是一种公认的书写符号，一个音素只表示一个音标，一个音标只代表一个音素。国际音标是为了方便记录语言中的音素而制定的，每个符号都有特定的含义和用途[<xref ref-type="bibr" rid="B14">14</xref>]。这些符号的表示方式是基于其在语言学中的定义和使用方式，以确保它们能够准确地表示语言中的音素，因此可有效消除因计算机编码带来的计数偏差。此外，转写过程中还去除了语料中的标点符号、数字及特殊字符，仅保留纯音素序列，以确保统计对象为语言的核心语音单元。</p>
        <p>将语料划分为一百份文本文件，并导入至Python脚本中。为准确实现字符转换，脚本利用Python字典存储维吾尔语老文字字符与国际音标之间的映射关系；由于字典要求每个键唯一对应一个值，这与国际音标“一音一符”的原则高度契合。随后，脚本对语料进行批量处理：将维吾尔语老文字转换为国际音标，同时过滤掉所有标点符号、数字及特殊字符。</p>
      </sec>
    </sec>
    <sec id="sec5">
      <title>5. 维吾尔语信息熵的估算</title>
      <sec id="sec5dot1">
        <title>5.1. 维吾尔语信息熵估算公式</title>
        <p>计算语言的熵是使用数学方法和语言文字结合，语言的熵反映了语言中每个字符所携带的平均信息量。在测定语言的熵值时，我们通常只考虑语言符号出现概率的不同，而不必考虑它们出现概率之间是否相互影响。因此，用传统的信息论公式计算得出的数值是静态平均信息熵。根据信息论的基本原理，这个熵也可以被称为“零阶熵”。本文中估算的维吾尔语信息熵为维吾尔语的零阶熵。</p>
        <p>以维吾尔语为例，我们将维吾尔语看作一个离散信源。若<italic>X</italic> (维吾尔语中的维文字符或单词)为离散随机变量，则变量<italic>X</italic>元素的集合及其每个元素出现的概率<italic>Pi</italic>分别为：</p>
        <disp-formula id="FD3">
          <mml:math display="inline">
            <mml:mrow>
              <mml:mi>X</mml:mi>
              <mml:mo>=</mml:mo>
              <mml:mrow>
                <mml:mo>{</mml:mo>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>x</mml:mi>
                    <mml:mn>1</mml:mn>
                  </mml:msub>
                  <mml:mo>,</mml:mo>
                  <mml:msub>
                    <mml:mi>x</mml:mi>
                    <mml:mn>2</mml:mn>
                  </mml:msub>
                  <mml:mo>,</mml:mo>
                  <mml:mo>⋯</mml:mo>
                  <mml:mo>,</mml:mo>
                  <mml:msub>
                    <mml:mi>x</mml:mi>
                    <mml:mi>n</mml:mi>
                  </mml:msub>
                </mml:mrow>
                <mml:mo>}</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <disp-formula id="FD4">
          <mml:math display="inline">
            <mml:mrow>
              <mml:msub>
                <mml:mi>P</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
              <mml:mo>=</mml:mo>
              <mml:mi>P</mml:mi>
              <mml:mrow>
                <mml:mo>[</mml:mo>
                <mml:mrow>
                  <mml:mi>X</mml:mi>
                  <mml:mo>=</mml:mo>
                  <mml:msub>
                    <mml:mi>x</mml:mi>
                    <mml:mi>i</mml:mi>
                  </mml:msub>
                </mml:mrow>
                <mml:mo>]</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>由此可得：</p>
        <p><inline-formula><mml:math display="inline"><mml:mrow><mml:mrow><mml:mo> [ </mml:mo><mml:mrow><mml:mtable><mml:mtr><mml:mtd><mml:mi> X </mml:mi></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mrow><mml:mi> p </mml:mi><mml:mrow><mml:mo> ( </mml:mo><mml:mi> x </mml:mi><mml:mo> ) </mml:mo></mml:mrow></mml:mrow></mml:mtd></mml:mtr></mml:mtable></mml:mrow><mml:mo> ] </mml:mo></mml:mrow><mml:mo> = </mml:mo><mml:mrow><mml:mo> [ </mml:mo><mml:mrow><mml:mtable><mml:mtr><mml:mtd><mml:mrow><mml:msub><mml:mi> x </mml:mi><mml:mn> 1 </mml:mn></mml:msub></mml:mrow></mml:mtd><mml:mtd><mml:mrow><mml:msub><mml:mi> x </mml:mi><mml:mn> 2 </mml:mn></mml:msub></mml:mrow></mml:mtd><mml:mtd><mml:mo> ⋯ </mml:mo></mml:mtd><mml:mtd><mml:mrow><mml:msub><mml:mi> x </mml:mi><mml:mi> i </mml:mi></mml:msub></mml:mrow></mml:mtd><mml:mtd><mml:mo> ⋯ </mml:mo></mml:mtd><mml:mtd><mml:mrow><mml:msub><mml:mi> x </mml:mi><mml:mi> n </mml:mi></mml:msub></mml:mrow></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mrow><mml:msub><mml:mi> p </mml:mi><mml:mn> 1 </mml:mn></mml:msub></mml:mrow></mml:mtd><mml:mtd><mml:mrow><mml:msub><mml:mi> p </mml:mi><mml:mn> 2 </mml:mn></mml:msub></mml:mrow></mml:mtd><mml:mtd><mml:mo> ⋯ </mml:mo></mml:mtd><mml:mtd><mml:mrow><mml:msub><mml:mi> p </mml:mi><mml:mi> i </mml:mi></mml:msub></mml:mrow></mml:mtd><mml:mtd><mml:mo> ⋯ </mml:mo></mml:mtd><mml:mtd><mml:mrow><mml:msub><mml:mi> p </mml:mi><mml:mi> n </mml:mi></mml:msub></mml:mrow></mml:mtd></mml:mtr></mml:mtable></mml:mrow><mml:mo> ] </mml:mo></mml:mrow></mml:mrow></mml:math></inline-formula> 且<inline-formula><mml:math display="inline"><mml:mrow><mml:munderover><mml:mstyle mathsize="140%" displaystyle="true"><mml:mo> ∑ </mml:mo></mml:mstyle><mml:mrow><mml:mi> i </mml:mi><mml:mo> = </mml:mo><mml:mn> 1 </mml:mn></mml:mrow><mml:mi> n </mml:mi></mml:munderover><mml:mtext>   </mml:mtext><mml:msub><mml:mi> p </mml:mi><mml:mi> i </mml:mi></mml:msub><mml:mo> = </mml:mo><mml:mn> 1 </mml:mn></mml:mrow></mml:math></inline-formula></p>
        <p>其中，<italic>P</italic><italic><sub>i</sub></italic>是离散信源各元素发生的概率。若离散信源中每个元素的出现与上下文无关，且每个元素出现的概率相等，则该离散信源含有的信息量(<italic>H</italic><sub>0</sub>)为：</p>
        <disp-formula id="FD5">
          <mml:math display="inline">
            <mml:mrow>
              <mml:msub>
                <mml:mi>H</mml:mi>
                <mml:mn>0</mml:mn>
              </mml:msub>
              <mml:mo>=</mml:mo>
              <mml:mi>log</mml:mi>
              <mml:mn>2</mml:mn>
              <mml:mfrac>
                <mml:mn>1</mml:mn>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>p</mml:mi>
                    <mml:mi>i</mml:mi>
                  </mml:msub>
                </mml:mrow>
              </mml:mfrac>
              <mml:mo>=</mml:mo>
              <mml:mo>−</mml:mo>
              <mml:mi>log</mml:mi>
              <mml:mn>2</mml:mn>
              <mml:msub>
                <mml:mi>p</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>但是，在维吾尔语语言文字中，构成维吾尔语句子的各元素<italic>X</italic><italic><sub>i</sub></italic>出现的概率是不可能相等的。若暂时不考虑各个元素的上下文相关性，则该离散信源中各个元素<italic>X</italic><italic><sub>i</sub></italic>含有的平均信息量(<italic>H</italic>)为：</p>
        <disp-formula id="FD6">
          <mml:math display="inline">
            <mml:mrow>
              <mml:mi>H</mml:mi>
              <mml:mo>=</mml:mo>
              <mml:munderover>
                <mml:mstyle mathsize="140%" displaystyle="true">
                  <mml:mo>∑</mml:mo>
                </mml:mstyle>
                <mml:mrow>
                  <mml:mi>i</mml:mi>
                  <mml:mo>=</mml:mo>
                  <mml:mn>1</mml:mn>
                </mml:mrow>
                <mml:mi>n</mml:mi>
              </mml:munderover>
              <mml:mtext>
                 
              </mml:mtext>
              <mml:msub>
                <mml:mi>p</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
              <mml:mi>log</mml:mi>
              <mml:mn>2</mml:mn>
              <mml:mfrac>
                <mml:mn>1</mml:mn>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>p</mml:mi>
                    <mml:mi>i</mml:mi>
                  </mml:msub>
                </mml:mrow>
              </mml:mfrac>
              <mml:mo>=</mml:mo>
              <mml:mo>−</mml:mo>
              <mml:munderover>
                <mml:mstyle mathsize="140%" displaystyle="true">
                  <mml:mo>∑</mml:mo>
                </mml:mstyle>
                <mml:mrow>
                  <mml:mi>i</mml:mi>
                  <mml:mo>=</mml:mo>
                  <mml:mn>1</mml:mn>
                </mml:mrow>
                <mml:mi>n</mml:mi>
              </mml:munderover>
              <mml:mtext>
                 
              </mml:mtext>
              <mml:msub>
                <mml:mi>p</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
              <mml:mi>log</mml:mi>
              <mml:mn>2</mml:mn>
              <mml:msub>
                <mml:mi>p</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>在信息论中，<italic>H</italic>被定义为信息熵。容易证明<italic>H</italic> &lt; <italic>H</italic><sub>0</sub>，由此我们就可以通过公式计算出维吾尔语字符中所包含的平均信息量，即忽略上下文关系的零阶熵。</p>
      </sec>
      <sec id="sec5dot2">
        <title>5.2. 维吾尔语信息熵估算过程</title>
        <p>语言通常都是由一组符号的集合构成的信息源，这些符号可以代表不同的音节、单词或语素。不同的语言文字都有不同的书写方式，如：汉字是汉语的书写符号，英语和维吾尔语采用不同的字母作为书写符号。字母表则是一个由字母组成的符号库，用来表示一定的发音规则和语言含义，而且这些字母在各种文本中的出现也有一定的规律性。因此本文将采用基于字符统计的信息熵计算方法，估算维吾尔语的信息熵。首先，统计各个字母在语料库中出现的次数，之后，计算字母的频率分布，最后，应用香农的信息熵公式估算出维吾尔语的信息熵。</p>
        <p>根据上述过程，首先统计各个字母在语料库中出现的次数，将语料导入至word文件中并对语料中每个字母出现的次数进行手动查频，为了防止人工手动查频出现错误，因此又用代码对语料进行自动查频，对照两次查频数据，得到总字符数为7,442,799个。</p>
        <p>第二步：获取总字符数下各字母概率分布，根据上一节中介绍的相关方法，对语料库的的总字符数与各字母在语料库中出现的次数进行统计，并根据字母出现频率计算各字母的概率分布：</p>
        <disp-formula id="FD7">
          <mml:math display="inline">
            <mml:mrow>
              <mml:msub>
                <mml:mi>P</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
              <mml:mo>=</mml:mo>
              <mml:mfrac>
                <mml:mrow>
                  <mml:mi>该</mml:mi>
                  <mml:mi>字</mml:mi>
                  <mml:mi>母</mml:mi>
                  <mml:mi>出</mml:mi>
                  <mml:mi>现</mml:mi>
                  <mml:mi>频</mml:mi>
                  <mml:mi>次</mml:mi>
                </mml:mrow>
                <mml:mrow>
                  <mml:mi>总</mml:mi>
                  <mml:mi>字</mml:mi>
                  <mml:mi>母</mml:mi>
                  <mml:mi>数</mml:mi>
                </mml:mrow>
              </mml:mfrac>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:mi>i</mml:mi>
                  <mml:mo>=</mml:mo>
                  <mml:mn>1</mml:mn>
                  <mml:mo>~</mml:mo>
                  <mml:mn>32</mml:mn>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>得到每个字母出现概率，见表1。</p>
        <p><bold>Table 1.</bold>Uyghur language frequency and probability statistics table</p>
        <p><bold>表</bold><bold>1.</bold>维吾尔语频次、概率统计表</p>
        <table-wrap id="tbl1">
          <label>Table 1</label>
          <table>
            <tbody>
              <tr>
                <td>老文字</td>
                <td>国际音标</td>
                <td>频次</td>
                <td>
                  概率(
                  <italic>P</italic>
                  <italic>
                    <sub>i</sub>
                  </italic>
                  )
                </td>
                <td>老文字</td>
                <td>国际音标</td>
                <td>频次</td>
                <td>
                  概率(
                  <italic>P</italic>
                  <italic>
                    <sub>i</sub>
                  </italic>
                  )
                </td>
              </tr>
              <tr>
                <td>ئا</td>
                <td>ɑ</td>
                <td>691,849</td>
                <td>0.092955486</td>
                <td>ق</td>
                <td>q</td>
                <td>273,878</td>
                <td>0.036797715</td>
              </tr>
              <tr>
                <td>ئە</td>
                <td>ɛ</td>
                <td>502,172</td>
                <td>0.067470853</td>
                <td>ك</td>
                <td>k</td>
                <td>231,435</td>
                <td>0.031095157</td>
              </tr>
              <tr>
                <td>ب</td>
                <td>b</td>
                <td>188,428</td>
                <td>0.02531682</td>
                <td>گ</td>
                <td>g</td>
                <td>79,984</td>
                <td>0.010746495</td>
              </tr>
              <tr>
                <td>پ</td>
                <td>p</td>
                <td>176,682</td>
                <td>0.02373865</td>
                <td>ڭ</td>
                <td>ŋ</td>
                <td>112,910</td>
                <td>0.015170368</td>
              </tr>
              <tr>
                <td>ت</td>
                <td>t</td>
                <td>326,612</td>
                <td>0.043882953</td>
                <td>ل</td>
                <td>l</td>
                <td>451,550</td>
                <td>0.06066938</td>
              </tr>
              <tr>
                <td>ج</td>
                <td>ʤ</td>
                <td>25,877</td>
                <td>0.003476783</td>
                <td>م</td>
                <td>m</td>
                <td>291,935</td>
                <td>0.039223819</td>
              </tr>
              <tr>
                <td>چ</td>
                <td>ʧ</td>
                <td>101,780</td>
                <td>0.013674963</td>
                <td>ن</td>
                <td>n</td>
                <td>476,422</td>
                <td>0.064011133</td>
              </tr>
              <tr>
                <td>خ</td>
                <td>χ</td>
                <td>47,804</td>
                <td>0.006422852</td>
                <td>ھ</td>
                <td>h</td>
                <td>62,563</td>
                <td>0.008405843</td>
              </tr>
              <tr>
                <td>د</td>
                <td>d</td>
                <td>286,155</td>
                <td>0.038447229</td>
                <td>ئو</td>
                <td>o</td>
                <td>142,177</td>
                <td>0.019102625</td>
              </tr>
              <tr>
                <td>ر</td>
                <td>r</td>
                <td>348,079</td>
                <td>0.046767218</td>
                <td>ئۇ</td>
                <td>u</td>
                <td>302,398</td>
                <td>0.040629607</td>
              </tr>
              <tr>
                <td>ز</td>
                <td>z</td>
                <td>112,976</td>
                <td>0.015179236</td>
                <td>ئۆ</td>
                <td>ø</td>
                <td>64,101</td>
                <td>0.008612486</td>
              </tr>
              <tr>
                <td>ژ</td>
                <td>ʒ</td>
                <td>389</td>
                <td>5.22653E−05</td>
                <td>ئۈ</td>
                <td>y</td>
                <td>107,093</td>
                <td>0.014388807</td>
              </tr>
              <tr>
                <td>س</td>
                <td>s</td>
                <td>171,361</td>
                <td>0.023023731</td>
                <td>ۋ</td>
                <td>w</td>
                <td>59,874</td>
                <td>0.008044554</td>
              </tr>
              <tr>
                <td>ش</td>
                <td>ʃ</td>
                <td>150,110</td>
                <td>0.020168488</td>
                <td>ئې</td>
                <td>e</td>
                <td>145,327</td>
                <td>0.019525853</td>
              </tr>
              <tr>
                <td>غ</td>
                <td>ʁ</td>
                <td>113,776</td>
                <td>0.015286722</td>
                <td>ئى</td>
                <td>i</td>
                <td>1173,799</td>
                <td>0.157709351</td>
              </tr>
              <tr>
                <td>ف</td>
                <td>f</td>
                <td>3049</td>
                <td>0.000409658</td>
                <td>ي</td>
                <td>j</td>
                <td>220,254</td>
                <td>0.029592899</td>
              </tr>
            </tbody>
          </table>
        </table-wrap>
        <p>第三步：估算信息熵，根据香农的信息熵计算公式，估算维吾尔语信息熵。即将各个字母出现的概率带入信息熵公式计算：</p>
        <disp-formula id="FD8">
          <mml:math display="inline">
            <mml:mrow>
              <mml:mi>H</mml:mi>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mi>X</mml:mi>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>=</mml:mo>
              <mml:mo>−</mml:mo>
              <mml:munderover>
                <mml:mstyle mathsize="140%" displaystyle="true">
                  <mml:mo>∑</mml:mo>
                </mml:mstyle>
                <mml:mrow>
                  <mml:mi>i</mml:mi>
                  <mml:mo>=</mml:mo>
                  <mml:mn>1</mml:mn>
                </mml:mrow>
                <mml:mrow>
                  <mml:mi>n</mml:mi>
                  <mml:mo>=</mml:mo>
                  <mml:mn>32</mml:mn>
                </mml:mrow>
              </mml:munderover>
              <mml:msub>
                <mml:mi>p</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
              <mml:mi>log</mml:mi>
              <mml:mn>2</mml:mn>
              <mml:msub>
                <mml:mi>p</mml:mi>
                <mml:mi>i</mml:mi>
              </mml:msub>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>用excel表格对数据进行计算得到：比特</p>
        <disp-formula id="FD9">
          <mml:math display="inline">
            <mml:mtable>
              <mml:mtr>
                <mml:mtd>
                  <mml:mi>H</mml:mi>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mi>X</mml:mi>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                  <mml:mo>=</mml:mo>
                  <mml:mo>−</mml:mo>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mrow>
                      <mml:mn>0.0929</mml:mn>
                      <mml:mo>×</mml:mo>
                      <mml:msub>
                        <mml:mrow>
                          <mml:mi>log</mml:mi>
                        </mml:mrow>
                        <mml:mn>2</mml:mn>
                      </mml:msub>
                      <mml:mn>0.0929</mml:mn>
                      <mml:mo>+</mml:mo>
                      <mml:mo>⋯</mml:mo>
                      <mml:mo>+</mml:mo>
                      <mml:mn>0.0295</mml:mn>
                      <mml:mo>×</mml:mo>
                      <mml:msub>
                        <mml:mrow>
                          <mml:mi>log</mml:mi>
                        </mml:mrow>
                        <mml:mn>2</mml:mn>
                      </mml:msub>
                      <mml:mn>0.0295</mml:mn>
                    </mml:mrow>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                </mml:mtd>
              </mml:mtr>
              <mml:mtr>
                <mml:mtd>
                  <mml:mo>≈</mml:mo>
                  <mml:mo>−</mml:mo>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mrow>
                      <mml:mo>−</mml:mo>
                      <mml:mn>4.409678</mml:mn>
                    </mml:mrow>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                </mml:mtd>
              </mml:mtr>
              <mml:mtr>
                <mml:mtd>
                  <mml:mo>≈</mml:mo>
                  <mml:mn>4.431301</mml:mn>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mrow>
                      <mml:mi>比</mml:mi>
                      <mml:mi>特</mml:mi>
                    </mml:mrow>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                </mml:mtd>
              </mml:mtr>
            </mml:mtable>
          </mml:math>
        </disp-formula>
      </sec>
      <sec id="sec5dot3">
        <title>5.3. 维吾尔语信息熵估算结果</title>
        <p>通过上述计算，我们得到维吾尔语字母的零阶熵为4.431301比特。为验证结果的合理性，我们将其与同为拼音文字的俄语(零阶熵4.35比特)进行比较。需要注意的是，俄语的熵值是基于类似统计方法得到的，但其语料库规模、文本体裁及语言结构存在差异。俄语使用33个西里尔字母，而维吾尔语虽仅有32个基础字母，但实际书写中字母存在词首、词中、词末等变体形式，本研究通过国际音标转写统一为音素层面，因此统计单位与俄语字母相当。此外，俄语语料通常涵盖文学、新闻等多领域，而本文语料主要来自硕士翻译材料，可能偏向书面语，这可能导致频率分布略有不同，但总体而言，相近的字母数量和熵值表明维吾尔语在字母层面的信息负载与俄语等语言处于同一量级。</p>
        <p>从字母频率分布看，音素/i/、/ɑ/、/ɛ/、/l/、/t/、/r/、/n/的出现频率最高，累计占比达53%。这一分布特性对实际应用具有重要指导意义。例如，在设计维吾尔语最优编码方案时，可依据频率采用变长编码(如哈夫曼编码)，为高频字母分配较短码字，从而降低平均码长。理论上，最佳编码的平均码长应接近信息熵值。若以当前频率分布构建哈夫曼编码，其平均码长可计算并与4.431比特比较，以评估编码效率。类似地，在维吾尔文输入法设计中，可将高频音素映射到便于触及的键位，或通过词频预测减少击键次数，从而提升输入效率。</p>
        <p>需要指出的是，本研究所估算的零阶熵仅为初步结果，存在一定的不确定性。首先，语料规模为120万词，虽能反映基本频率特征，但受限于样本量，低频字母(如ژ，频次仅389)的频次极低，其概率估计的抽样误差较大。根据信息熵的方差近似公式，可粗略估计熵值的标准误约为0.02比特量级，对应的95%置信区间约为[4.39, 4.47]比特。然而，这一区间仅为理论近似，实际不确定性需通过自助法等重采样技术进一步精确评估。其次，语料来源相对单一，未充分覆盖口语、科技、新闻等多种文体，可能导致频率分布存在偏差。</p>
      </sec>
    </sec>
    <sec id="sec6">
      <title>6. 结论</title>
      <p>本文引用信息论的方法研究了维吾尔语文字的信息熵，并在120万词语料的基础上，采用字符统计的方法对维吾尔语的信息熵进行了估算，所求得的零阶熵约为4.431301比特。得到的结果已经相当接近其他拼音文字的信息熵。这个研究成果可以应用在计算机维吾尔语信息处理的研究领域，如：建立语言模型，文本压缩，机器翻译，评估维吾尔语生成式语言模型质量等。</p>
      <p>在刚才我们估算维吾尔语字母的信息熵时，只考虑了每个字母在文本中出现的概率，而没有考虑这些字母之间的相互影响。因此，我们得到的只是维吾尔语的零阶熵。实际上，语言符号的出现概率是相关的，彼此相互影响的。比如，在维吾尔语词汇中一个音节中只有一个元音字母，所以在同一个音节中，当已经出现了一个元音字母时，下一个字母是元音的概率为零。在充分考虑上下文关联后计算得出的信息熵被称为极限熵。基于极限熵的数值，我们可以深入研究如何提高字符传输速度的编码方法。这种方法不仅针对单个字符，还针对整个文本进行编码，从而使平均码长缩短，更接近极限熵。</p>
      <p>需要说明的是，本研究存在一定的局限性。首先，120万词的语料规模虽能提供基础频率统计，但对于低频字母的概率估计仍不够稳定，且语料来源偏重书面翻译文本，未能涵盖口语、科技、新闻等多领域，可能导致频率分布存在系统性偏差。未来若采用更大规模、更均衡的语料库，有望将熵值估计精度提升至±0.01比特以内。其次，本研究仅估算了零阶熵，即假设字母独立同分布，而实际语言中字母之间存在强烈的上下文关联，因此零阶熵仅反映了信息量的上限。后续研究可进一步计算一阶、二阶乃至高阶熵，并最终逼近极限熵，从而为维吾尔语文本压缩、语言模型评估等应用提供更精确的理论依据。尽管存在上述局限，本研究作为维吾尔语信息熵的首次估算，仍为相关领域提供了基础数据和方法参考。</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="B1">
        <label>1.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">冯志伟. 汉字的熵[J]. 文字改革, 1984(4): 12-17.</mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>冯志伟</string-name>
            </person-group>
            <year>1984</year>
            <article-title>汉字的熵</article-title>
            <source>文字改革</source>
            <volume>1984</volume>
            <issue>4</issue>
            <fpage>12</fpage>
            <lpage>17</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B2">
        <label>2.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">冯志伟. 汉字的极限熵[J]. 中文信息, 1996(2): 53-56.</mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>冯志伟</string-name>
            </person-group>
            <year>1996</year>
            <article-title>汉字的极限熵</article-title>
            <source>中文信息</source>
            <volume>1996</volume>
            <issue>2</issue>
            <fpage>53</fpage>
            <lpage>56</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B3">
        <label>3.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">关于汉字的熵和极限熵致编辑部的一封信[J]. 中文信息学报, 1998(1): 64-65.</mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>关于汉字的熵和极限熵致编辑部的一封信[J]</string-name>
            </person-group>
            <year>1998</year>
            <source>中文信息学报</source>
            <volume>1998</volume>
            <issue>1</issue>
            <fpage>64</fpage>
            <lpage>65</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B4">
        <label>4.</label>
        <citation-alternatives>
          <mixed-citation publication-type="confproc">刘源. 汉语字词的概率分布, 熵及冗余度[C]//中文信息处理国际会议论文集. 1987.</mixed-citation>
          <element-citation publication-type="confproc">
            <person-group person-group-type="author">
              <string-name>刘源</string-name>
            </person-group>
            <year>1987</year>
            <article-title>汉语字词的概率分布, 熵及冗余度</article-title>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B5">
        <label>5.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">黄萱菁, 吴立德, 郭以昆, 刘秉伟. 现代汉语熵的计算及语言模型中稀疏事件的概率估计[J]. 电子学报, 2000(8): 110-112.</mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>黄萱菁</string-name>
              <string-name>吴立德</string-name>
              <string-name>郭以昆</string-name>
              <string-name>刘秉伟</string-name>
            </person-group>
            <year>2000</year>
            <article-title>现代汉语熵的计算及语言模型中稀疏事件的概率估计</article-title>
            <source>电子学报</source>
            <volume>2000</volume>
            <issue>8</issue>
            <fpage>110</fpage>
            <lpage>112</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B6">
        <label>6.</label>
        <citation-alternatives>
          <mixed-citation publication-type="confproc">孙帆, 孙茂松. 基于统计的汉字极限熵估测[C]//中文信息处理前沿进展——中国中文信息学会二十五周年学术会议论集. 北京: 清华大学出版社, 2006: 550-559.</mixed-citation>
          <element-citation publication-type="confproc">
            <person-group person-group-type="author">
              <string-name>孙帆</string-name>
              <string-name>孙茂松</string-name>
            </person-group>
            <year>2006</year>
            <article-title>基于统计的汉字极限熵估测</article-title>
            <source>//中文信息处理前沿进展——中国中文信息学会二十五周年学术会议论集. 北京: 清华大学出版社</source>
            <fpage>550</fpage>
            <lpage>559</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B7">
        <label>7.</label>
        <citation-alternatives>
          <mixed-citation publication-type="confproc">那日松, 淑琴. 蒙古文信息熵和拉丁转写研究[C]//中国计算技术与语言问题研究——第七届中文信息处理国际会议论集. 北京: 电子工业出版社, 2007: 793-796.</mixed-citation>
          <element-citation publication-type="confproc">
            <person-group person-group-type="author">
              <string-name>那日松</string-name>
              <string-name>淑琴</string-name>
            </person-group>
            <year>2007</year>
            <article-title>蒙古文信息熵和拉丁转写研究</article-title>
            <source>//中国计算技术与语言问题研究——第七届中文信息处理国际会议论集. 北京: 电子工业出版社</source>
            <fpage>793</fpage>
            <lpage>796</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B8">
        <label>8.</label>
        <citation-alternatives>
          <mixed-citation publication-type="confproc">江荻. 藏语文本信息处理的历程与进展[C]//中文信息处理前沿进展——中国中文信息学会二十五周年学术会议论文集. 北京: 清华大学出版社, 2006: 91-105.</mixed-citation>
          <element-citation publication-type="confproc">
            <person-group person-group-type="author">
              <string-name>江荻</string-name>
            </person-group>
            <year>2006</year>
            <article-title>藏语文本信息处理的历程与进展</article-title>
            <source>//中文信息处理前沿进展——中国中文信息学会二十五周年学术会议论文集. 北京: 清华大学出版社</source>
            <fpage>91</fpage>
            <lpage>105</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B9">
        <label>9.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">完么扎西. 现代藏语信息熵的估算及语言模型的复杂度[J]. 电子技术与软件工程, 2020(17): 213-215.</mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>完么扎西</string-name>
            </person-group>
            <year>2020</year>
            <article-title>现代藏语信息熵的估算及语言模型的复杂度</article-title>
            <source>电子技术与软件工程</source>
            <volume>2020</volume>
            <issue>17</issue>
            <fpage>213</fpage>
            <lpage>215</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B10">
        <label>10.</label>
        <citation-alternatives>
          <mixed-citation publication-type="confproc">严海林, 江荻. 藏文大藏经信息熵研究[C]//那顺乌日图, 陈玉忠. 中国少数民族多文种信息处理研究与进展. 2004: 1-6.</mixed-citation>
          <element-citation publication-type="confproc">
            <person-group person-group-type="author">
              <string-name>严海林</string-name>
              <string-name>江荻</string-name>
            </person-group>
            <year>2004</year>
            <article-title>藏文大藏经信息熵研究</article-title>
            <fpage>1</fpage>
            <lpage>6</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B11">
        <label>11.</label>
        <citation-alternatives>
          <mixed-citation publication-type="book">Shannon, C.E. and Weaver, W. (1949) The Mathematical Theory of Communication. The University of Illinois Press.</mixed-citation>
          <element-citation publication-type="book">
            <person-group person-group-type="author">
              <string-name>Shannon, C.E.</string-name>
              <string-name>Weaver, W.</string-name>
            </person-group>
            <year>1949</year>
            <article-title>The Mathematical Theory of Communication</article-title>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B12">
        <label>12.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">Shannon, C.E. (1951) Prediction and Entropy of Printed English. <italic>Bell System Technical Journal</italic>, 30, 50-64. https://doi.org/10.1002/j.1538-7305.1951.tb01366.x <pub-id pub-id-type="doi">10.1002/j.1538-7305.1951.tb01366.x</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1002/j.1538-7305.1951.tb01366.x">https://doi.org/10.1002/j.1538-7305.1951.tb01366.x</ext-link></mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>Shannon, C.E.</string-name>
            </person-group>
            <year>1951</year>
            <article-title>Prediction and Entropy of Printed English</article-title>
            <source>Bell System Technical Journal</source>
            <volume>30</volume>
            <pub-id pub-id-type="doi">10.1002/j.1538-7305.1951.tb01366.x</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B13">
        <label>13.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">邓烨. 从通信系统的收发联合优化看香农三大定理的内在联系[J]. 中国新通信, 2012, 14(6): 78-80.</mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>邓烨</string-name>
            </person-group>
            <year>2012</year>
            <article-title>从通信系统的收发联合优化看香农三大定理的内在联系</article-title>
            <source>中国新通信</source>
            <volume>14</volume>
            <issue>6</issue>
            <fpage>78</fpage>
            <lpage>80</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B14">
        <label>14.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">帕丽旦·木合塔尔, 热依曼·吐尔逊, 吾守尔·斯拉木, 买买提阿依甫. 维吾尔文本转换国际音标系统设计与实现[J]. 信息通信, 2017(5): 97-99.</mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>帕丽旦·木合塔尔</string-name>
              <string-name>热依曼·吐尔逊</string-name>
              <string-name>吾守尔·斯拉木</string-name>
              <string-name>买买提阿依甫</string-name>
            </person-group>
            <year>2017</year>
            <article-title>维吾尔文本转换国际音标系统设计与实现</article-title>
            <source>信息通信</source>
            <volume>2017</volume>
            <issue>5</issue>
            <fpage>97</fpage>
            <lpage>99</lpage>
          </element-citation>
        </citation-alternatives>
      </ref>
    </ref-list>
  </back>
</article>