信息量

信息量

通信技术术语
信息多少的量度。1928年R.V.L.哈特莱首先提出信息定量化的初步设想,他将消息数的对数定义为信息量。若信源有m种消息,且每个消息是以相等可能产生的,则该信源的信息量可表示为I=logm。但对信息量作深入而系统研究,还是从1948年C.E.仙农的奠基性工作开始的。在信息论中,认为信源输出的消息是随机的。即在未收到消息之前,是不能肯定信源到底发送什么样的消息。而通信的目的也就是要使接收者在接收到消息后,尽可能多的解除接收者对信源所存在的疑义(不定度),因此这个被解除的不定度实际上就是在通信中所要传送的信息量。
  • 中文名:信息量
  • 外文名:amount of information
  • 适用领域:
  • 所属学科:
  • 应用学科:通信
  • 领域:工程技术
  • 初提时间:1928年
  • 含义:指信息多少的量度

历史

1928年,R.V.L.哈特莱提出了信息定量化的初步设想,他将符号取值数m的对数定义为信息量,即I=logm。对信息量作深入、系统研究的是信息论创始人C.E.仙农。1948年,仙农指出信源给出的符号是随机的,信源的信息量应是概率的函数,以信源的信息熵表示,即

,其中P表示信源不同种类符号的概率,i=1,2,…,n。

实质上哈特莱公式是等概率时仙农公式的特例。

基本内容实际信源多为有记忆序列信源,只有在掌握全部序列的概率特性后,才能计算出该信源中平均一个符号的熵H(U)(L为符号数这通常是困难的。

如果序列信源简化为简单的一阶、齐次、遍历马氏链,则比较简单。根据符号的条件概率P(即前一符号为i条件下后一符号为j的概率),可以求出遍历信源的稳定概率P,再由P和P求出H(U)。即如图1。

其中H(U|V)称为条件熵,即前一符号V已知时后一符号U的不确定度

信息量与信息熵在概念上是有区别的。在收到符号之前是不能肯定信源到底发送什么符号,通信的目的就是使接收者在收到符号后,解除对信源存在的疑义(不确定度),使不确定度变为零。这说明接收者从发送者的信源中获得的信息量是一个相对的量(H(U)-0)。而信息熵是描述信源本身统计特性的物理量,它表示信源产生符号的平均不确定度,不管有无接收者,它总是客观存在的量。

从信源中一个符号V中获取另一符号u的信息

量可用互信息表示,即

I(U;V)=H(U)-H(U|V)

表示在收到V以后仍然存在对信源符号U的疑义(不确定度)。一般情况下

I(U;V)≤H(U)

即获得的信息量比信源给出的信息熵要小。

连续信源可有无限个取值,输出信息量是无限大,但互信息是两个熵值之差,是相对量。这样,不论连续或离散信源,接收者获取的信息量仍然保持信息的一切特性,且是有限值。

信息量的引入,使通信、信息以及相关学科得以建立在定量分析基础上,为各有关理论的确立与发展提供了保证。

互信息和信息熵有关,指的是两个随机变量之间的关联程度,即给定一个随机变量后,另一个随机变量不确定性的削弱程度,因而互信息取值最小为0,意味着给定一个随机变量对确定一另一个随机变量没有关系(完全独立),最大取值为随机变量的熵,意味着给定一个随机变量,能完全消除另一个随机变量的不确定性(两个随机变量完全一致)

简介

所谓信息量是指从N个相等可能事件中选出一个事件所需要的信息度量或含量,也就是在辩识N个事件中特定的一个事件的过程中所需要提问"是或否"的最少次数.

香农(C.E.Shannon)信息论应用概率来描述不确定性。信息是用不确定性的量度定义的.一个消息的可能性愈小,其信息愈多;而消息的可能性愈大,则其信息愈少.事件出现的概率小,不确定性越多,信息量就大,反之则少。

信息现代定义。[2006年,医学信息(杂志),邓宇等].

信息是及其属性的标示。逆维纳信息定义

信息是确定性的增加。逆香农信息定义

信息是事物现象及其属性标识的集合。2002年

在数学上,所传输的消息是其出现概率的单调下降函数。如从64个数中选定某一个数,提问:“是否大于32?”,则不论回答是与否,都消去了半数的可能事件,如此下去,只要问6次这类问题,就可以从64个数中选定一个数。我们可以用二进制的6个位来记录这一过程,就可以得到这条信息。

信息多少的量度。1928年R.V.L.哈特莱首先提出信息定量化的初步设想,他将消息数的对数定义为信息量。若信源有m种消息,且每个消息是以相等可能产生的,则该信源的信息量可表示为I=logm。但对信息量作深入而系统研究,还是从1948年C.E.香农的奠基性工作开始的。

信息的统计特征描述是早在1948年香农把热力学中熵的概念与熵增原理引入信息理论的结果。先行考察熵增原理。热力学中的熵增原理是这样表述的:存在一个态函数-熵,只有不可逆过程才能使孤立系统的熵增加,而可逆过程不会改变孤立系统的熵。

从中可以看出:一、熵及熵增是系统行为;二、这个系统是孤立系统;三、熵是统计性状态量,熵增是统计性过程量。讨论信息的熵表述时,应充分注意这些特征的存在。并且知道,给定系统中发生的信息传播,是不可逆过程。

在信息论中,认为信源输出的消息是随机的。即在未收到消息之前,是不能肯定信源到底发送什么样的消息。而通信的目的也就是要使接收者在接收到消息后,尽可能多的解除接收者对信源所存在的疑义(不定度),因此这个被解除的不定度实际上就是在通信中所要传送的信息量。

因此,接收的信息量在无干扰时,在数值上就等于信源的信息熵,式中P(xi)为信源取第i个符号的概率。但在概念上,信息熵与信息量是有区别的。

信息熵是描述信源本身统计特性的一个物理量。它是信源平均不定度,是信源统计特性的一个客观表征量。不管是否有接收者它总是客观存在的。

信息量则往往是针对接收者而言的,所谓接收者获得了信息,是指接收者收到消息后解除了对信源的平均不定度,它具有相对性。对于信息量的说明须引入互信息的概念。

在信息论中,互信息的定义是:I(X;Y)=H(X)-H(X|Y),数式右边后一项称为条件熵,对离散消息可表示

,它表示已知Y以后,对X仍存在的不定度。因此,互信息I(X;Y)是表示当收到Y以后所获得关于信源X的信息量。与互信息相对应,常称H(X)为自信息。互信息具有三个基本性质。

①非负性:I(X;Y)≥0,仅当收到的消息与发送的消息统计独立时,互信息才为0。

②互信息不大于信源的熵:I(X;Y)≤H(X),即接收者从信源中所获得的信息必不大于信源本身的熵。仅当信道无噪声时,两者才相等。

③对称性:I(X;Y)=I(Y;X),即Y隐含X和X隐含Y的互信息是相等的。

对于连续信源的互信息,它仍表示两个熵的差值,所以也可直接从离散情况加以推广,并保持上述离散情况的一切特性,即实际信源是单个消息信源的组合,所以实际信源的互信息I(X;Y)也可以直接从上述单个消息的互信息I(X;Y)加以推广,即I(X;Y)=H(X)-H(X│Y)。配图相关连接

发展过程

被称为信息化社会的今天,现代情报学理论及其应用,非常注重信息量化测度。

1980年代,英国著名情报学家B.C.布鲁克斯,在阐述人之信息(情报)获取过程时,深入研究了感觉信息的接收过程,并将透视原理──对象的观察长度Z与从观察者到被观察对象之间的物理距离X成反比,引入情报学,提出了Z=LogX的对数假说。

用此能较好地说明信息传递中,情报随时间、空间、学科(行业)的不同而呈现的对数变换。然而,关于用户的情报搜寻行为,在其信息来源上,“获取距离最近的比例最高,最远的比例最低”的结论,在跨域一体、存在国际互联网的今天,需要有新的理论进行新的概括。

对数透视变换,源于实验心理物理学。1846年德国心理学家E.H.Weber提出了韦伯公式:△I/I=k。

这里,△I代表刚可感觉到的差别阈限,I代表标准刺激物理量,k是小于1的常数。后来,Fechner把这个关于差别阈限的规律称之为韦伯定律,并于1860年在此基础上提出了著名的费肯纳对数定律:心理的感觉量值S是物理刺激量I的对数函数,即S=cLogI,c是由特殊感觉方式确定的常数。

1957年Stevens提出幂定律:S=bIa,a与b为特征常数。

心理物理函数究竟是服从幂定律还是服从对数定律?W.S.Togerson认为,这不能通过实验解决,而是一个在实验中进行选择的问题。G.Ekman在假定Fechner的对数定律是普遍正确的前提下,推导出幂定律是对数定律的一个特例。

中国有突出贡献的科学家程世权,在1990年出版的《模糊决策分析》一书中,评介引述于宏义等对“系统的定性和定量转化,总结归纳出了一种方便可行、科学可靠的定性排序与定量转化的方法”。

于宏义等之方法,在利用显在的频数信息的同时,巧妙利用了潜在的泛序信息——权数,使模糊系统简便有效地转化成明晰的工程系统。其测度模式是:

F(I)=Ln(max{I}-I+2)/Ln(max{I}+1)。

式中,I为所论对象按一定指标的排序序号,F(I)为其隶属度。实际应用中巧妙运用“自动连锁”机制,确实简便、实用、有效。所谓“自动连锁”机制,就是“评价者在评价他人他事他物的同时,不能不表现自身,不能不被评价”。

相关词条

相关搜索

其它词条