Conceptos de información la información como magnitud física




descargar 174.39 Kb.
títuloConceptos de información la información como magnitud física
página2/7
fecha de publicación20.10.2016
tamaño174.39 Kb.
tipoDocumentos
b.se-todo.com > Derecho > Documentos
1   2   3   4   5   6   7

.2. MAGNITUDES FÍSICAS




Las magnitudes físicas son herramientas conceptuales desarrolladas para la descripción de sistemas y procesos propios de la física. Tal descripción exige dar valores numéricos a estas magnitudes. A su vez, la asignación de valores numéricos implica el establecimiento y la aceptación de un conjunto de definiciones de unidades. Aquí emplearemos solamente el Sistema Internacional de Pesos y Medidas, o simplemente sistema SI , reconocido legalmente en numerosos países. Es un sistema práctico o metro-kilogramo-segundo , de uso común en la vida cotidiana y en la tecnología. Es también extensamente usado en la física, aunque no en forma exclusiva.
El sistema SI reconoce siete unidades fundamentales de referencia. Sólo mencionamos aquí las unidades de
. longitud , el metro , m
. tiempo , el segundo , s
. masa , el kilogramo , kg
. intensidad de corriente eléctrica , el Ampère , A
La asignación de valores numéricos supone el establecimiento de una escala y , en algunos casos , también de un sistema de referencia en el espacio físico de tres dimensiones. Por ejemplo, la longitud puede expresarse mediante un número real no negativo, pero para localizar un punto en el espacio debemos especificar tres números reales que representan longitudes. Otros ejemplos : la masa siempre se mide mediante un número no negativo, pero en el caso del tiempo y de la corriente eléctrica puede ser útil emplear además números negativos.
Se definen muchas otras magnitudes físicas, para medir las cuales se emplean unidades que resultan de combinar las siete unidades de referencia. En no pocos casos estas unidades complementarias han sido bautizadas con nombres propios en homenaje a investigadores o inventores destacados. Así, por ejemplo, la unidad de carga eléctrica, que es el Ampère-segundo o A·s , se denomina Coulomb , C .
Medimos la velocidad en m / s , la aceleración en m / s 2 , la densidad o masa específica en unidades kg / m 3 , la energía en unidades kg · m 2 / s 2 , bautizadas Joule , J . Para la temperatura , T , hay al menos dos escalas de uso común, que miden en grados centígrados o en grados Kelvin , K. También para medir presión se emplean comúnmente diversas escalas.
En muchos casos , pero no siempre, es posible y útil distinguir entre magnitudes físicas de cantidad, que llamamos extensivas , y magnitudes de grado o de intensidad , que llamamos intensivas . Esta distinción se empleó inicialmente en la termodinámica, pero puede extenderse a otros capítulos de la física.
No tenemos problema en reconocer a la temperatura y a la presión , por ejemplo, como cantidades intensivas. Imaginamos intuitivamente que temperatura de alguna manera es intensidad de calor . No está claro por el momento de qué es intensidad la presión , pero evidentemente no es una cantidad. De alguna manera, la velocidad es intensidad de movimiento, aunque es poco frecuente presentarla así.
Por otra parte, es intuitivo que masa, carga eléctrica y energía representan cantidad . También hay una cantidad de movimiento , que ahora preferentemente se denomina con una palabra latina , momentum .
Como ya se dijo , esta distinción entre magnitudes extensivas e intensivas no siempre puede hacerse . Por ejemplo , no está claro que el tiempo pueda clasificarse así , ni la aceleración , para dar sólo dos ejemplos.

CASOS , EJEMPLOS .
Examinaremos algunas propiedades de magnitudes intensivas y extensivas. Veamos algunas situaciones particulares.
Imaginemos dos tazas de agua caliente, idénticas, en reposo, a la misma temperatura. En su conjunto, las dos tazas contendrán cantidad doble de volumen, doble de masa de agua, doble de energía , doble cantidad de calor. Pero la temperatura del conjunto será la misma. Una advertencia : en esta frase la palabra calor viene usada en un sentido intuitivo, no en el sentido que el desarrollo histórico de la física le ha asignado.
Decimos que las magnitudes volumen, masa, cantidad de calor, energía tienen la propiedad aditiva, que es característica de las magnitudes extensivas. La temperatura no tiene esta propiedad.
Consideremos dos conductores eléctricos en forma de esfera, de distintos radios. Si cargamos el conductor mayor con una cierta cantidad de carga eléctrica, con un voltímetro mediremos en este conductor un cierto potencial eléctrico, referido a tierra. Si transferimos la carga eléctrica al conductor menor, mediremos en él un potencial mayor . Podemos interpretar esto así : la intensidad de carga eléctrica ha aumentado.
Ver FIGURA 1

Imaginemos una cierta masa de aire, a una temperatura dada, encerrada en un determinado volumen. Esto determina la presión del aire. La misma masa de aire, encerrada a la misma temperatura en un volumen menor, se encontrará a una presión mayor. La magnitud intensiva presión aparece así relacionada con la magnitud extensiva volumen, es algo así como una intensidad de volumen .
Ver FIGURA 2

Consideremos dos móviles idénticos que se mueven a la misma velocidad, con el mismo vector velocidad . En su conjunto constituyen un nuevo móvil que contiene el doble de masa y el doble de cantidad de movimiento o momentum. Pero su velocidad seguirá siendo la misma. La velocidad es la magnitud intensiva asociada a la magnitud extensiva momentum.
No se asocia comúnmente una magnitud intensiva a la energía.


.2.1. Magnitudes físicas extensivas

Nos vamos a detener en algunas propiedades de estas magnitudes. Ya hemos ilustrado la propiedad aditiva.
Como estamos tratando con cantidades, podemos definir (intensidades de) corriente . Así , caudal es una (intensidad de) corriente de volumen, potencia es una (intensidad de) corriente de energía, fuerza es una (intensidad de) corriente de momentum, flujo puede ser una (intensidad de) corriente de masa, o una (intensidad de) corriente de substancia.....
En algunos casos interesa también definir densidades de corriente, es decir, intensidad de corriente por unidad de área. Así, por ejemplo, la presión, magnitud intensiva, puede interpretarse como una densidad de corriente de momentum, una fuerza en la unidad de área. En ingeniería y en física tiene importancia la densidad de corriente eléctrica, que sin embargo no se ha ganado nombre propio.
Finalmente, es posible y útil definir densidades para las magnitudes extensivas : cantidad por unidad de volumen, o por unidad de superficie, o por unidad de masa...Ya hemos mencionado la densidad o masa por unidad de volumen, agreguemos , por vía de ejemplo, carga eléctrica por unidad de superficie, carga eléctrica por unidad de masa , esta última de interés en el caso del electrón. La energía por unidad de masa es de interés en la comparación de tipos de batería para uso en vehículos.
Llegamos así a una propiedad de fundamental importancia que algunas magnitudes físicas extensivas tienen, y otras no tienen. Se trata de la propiedad de conservación. Hablaremos respectivamente de las magnitudes extensivas del grupo A y de las del grupo B.
Para explicar el concepto de conservación imaginamos una región delimitada del espacio , ® , digamos. Supondremos que ® contiene una cantidad variable (en el tiempo) de la magnitud extensiva X ( t ) . Decimos que X es una magnitud conservada si la variación, en la unidad de tiempo, del contenido de X en ® es exactamente igual a la intensidad neta de corriente de X intercambiada con la región externa, con el resto del mundo , a través de la superficie S que delimita ® .
Ver FIGURA 3


Los ejemplos más conocidos son la energía y la carga eléctrica, pero podemos agregar la masa si no vamos más allá del nivel molecular y atómico de los fenómenos, como también el momentum , definido eso sí en un sistema inercial de referencia , y aún otras magnitudes que no mencionaremos.
Si, en cambio, el contenido de X en ® puede cambiar sin que fluya corriente neta de X entre ® y el resto del mundo, decimos que X es una magnitud física no conservada , y estaríamos en el grupo B .
Ver FIGURA 4


Los ejemplos son aquí tal vez menos conocidos : la cantidad de substancia, ésa que se mide en unidades mol , la entropía, magnitud que aparece en la termodinámica junto con el segundo principio, y la información, magnitud que todavía tiene que serles presentada a ustedes.
Daremos como ejemplo un recipiente cerrado que contiene una solución de sal común , cloruro de sodio , NaCl . Dada la temperatura de la solución existirán en ella determinadas concentraciones de moléculas de sal, de iones de sodio y de iones de cloro . Podemos variar estas concentraciones variando la temperatura, sin sacar o poner substancia alguna : las cantidades de Na Cl , Na + , Cl - , que expresamos individualmente en unidades mol , son magnitudes no conservadas.
Es evidente que la propiedad de conservación / no conservación definida de esta manera sólo tiene sentido para cantidades, es decir, para magnitudes extensivas.

.2.2. Hablemos un poco de la entropía

Esta es una magnitud poco popular en las presentaciones elementales de la termodinámica. No pocas veces se elude mencionarla. Sin embargo, explicar la termodinámica sin la entropía es como explicar la electricidad sin la carga eléctrica, o el movimiento sin el momentum..
El problema tiene que ver con no ser la entropía una magnitud conservada. Pero lo peor es el pecado de origen que se trae la entropía : su definición original, debida al físico Clausius en el siglo XIX, se presenta muy formal, matemática.
Y sin embargo en términos elementales la entropía no es otra cosa que lo que intuitivamente llamaríamos cantidad de calor, como hablamos comúnmente de cantidad de carga eléctrica, de cantidad de movimiento, de cantidad de energía. Los ingenieros químicos no se hacen problema con esto .
Desgraciadamente el desarrollo histórico de la termodinámica dejó reservada la palabra calor para un término de energía, para aquella parte de la energía que se intercambia por efecto de diferencias de temperatura. Este calor debe medirse en unidades Joule . Y con ello quedó armado el lío, para perjuicio de una mejor enseñanza elemental de la física.
Anotemos de paso que en vez de términos de energía tradicionalmente se hablaba de formas de energía .
En los procesos que estudia la termodinámica se intercambia tanto energía como entropía, además se crea, pero nunca se destruye, entropía. El caso en que no se crea entropía es ideal, se habla entonces de proceso reversible. Son los preferidos en las exposiciones elementales de la termodinámica. Es justamente la irreversibilidad observada en los procesos térmicos la que establece la no conservación de la magnitud física entropía. La irreversibilidad caracteriza también los procesos biológicos de deterioro, enfermedad, muerte.
El tango cantó las mañas de la entropía : el mundo fue y será una porquería.
Neruda a su vez explicó así la irreversibilidad :

El obispo levantó la cruz


y en nombre de su dios pequeño

quemó los viejos pergaminos

gastados por el tiempo oscuro.

Y el humo no vuelve del cielo.
Procesos irreversibles son, por ejemplo, la creación de entropía cuando circula corriente eléctrica por conductores, cuando circula una corriente de entropía, cuando difunde azúcar, o sal, en una taza con agua...
La física trabaja también con una definición estadística de la entropía, que es más general que la identificación con cantidad de calor. Se debe especialmente a los trabajos de Boltzmann y de Gibbs hacia fines del siglo XIX . La irreversibilidad se interpreta allí en términos del comportamiento mecánico de enormes conjuntos de moléculas.
Si ponemos gas en un recipiente, este gas termina distribuido uniformemente en el correspondiente volumen. ¿Cómo saben las moléculas de gas que tienen que hacer esto? Pues no lo saben, es un asunto de probabilidades : el estado de distribución uniforme es enormemente más probable que cualquier otro. Por lo demás, ése es el estado más desordenado posible para las moléculas. Asunto de estadística, al fin de cuentas. La mecánica estadística de Boltzmann define la entropía en términos de probabilidades, probabilidades que se refieren , simplificando bastante las cosas , a la forma en que se distribuyen las moléculas.
Ya se verá por qué insistimos en hablar de la entropía.

.3. Una magnitud física extensiva : la información

Estamos llegando ahora a nuestro propósito principal, cual es mostrar la definición de una magnitud que mida cantidad de información. Es la definición desarrollada por profesionales de la comunicación telefónica, quienes necesitaron esta nueva herramienta conceptual. El concepto, la nueva magnitud, se denomina también información de Shannon o información según Shannon en reconocimiento al creador de este nuevo capítulo de la ciencia.
Decimos que hay comunicación cuando fluyen mensajes de una fuente, el emisor, a un receptor o destinatario. El canal de comunicación es el medio material , físico , biofísico , bioquímico , que conduce este flujo. La recepción de un mensaje implica para el receptor una disminución o reducción de incertidumbre, de desconocimiento o de ignorancia respecto de algún determinado asunto. La medida de la cantidad de información que llega al receptor debe expresar cuantitativamente tal reducción. Mientras mayor sea esta reducción tanto mayor será la sorpresa que el mensaje significa para el receptor. Se recibe tanto más información cuanto más inesperado es el mensaje.
Reiteramos aquí que lo que buscamos es una medida de cantidad. Nuestra nueva magnitud nada dirá acerca de una calidad de la información. La apreciación de calidad es asunto subjetivo , pertenece al plano de la semántica . Por ejemplo, el mensaje “esta tarde lloverá con un 80% de probabilidad” tiene un contenido de información susceptible de medición objetiva, pero será apreciado de diferente manera por un escolar, un agricultor, un taxista....
La red de comunicaciones debe transmitir mensajes de manera fidedigna, el uso que de tales mensajes haga el receptor es asunto subjetivo.
La tecnología de las comunicaciones está mucho más diversificada que a mediados del siglo XX , pero no ha sido necesario modificar los planteamientos de Shannon, que son de gran generalidad y rigurosidad.

.3.1. Mensajes
El concepto de mensaje es milenario. Vamos a buscar ejemplos sencillos para llegar a una definición de cantidad de información.
Para empezar , imaginamos el mensaje, cualquier mensaje, como una secuencia de signos independientes. Para la emisión de mensajes se cuenta con un conjunto definido de signos: ejemplos son los sonidos propios de un idioma, o los signos con que ese idioma se escribe, sea mediante un alfabeto, el código Morse, un alfabeto de banderillas... pero para empezar necesitaremos situaciones más simples.
El cara o sello .
Pensemos en una simple moneda. La supondremos buena , sin sesgo : al lanzarla , la mitad de las veces saldrá cara, la otra mitad sello. Decimos que la probabilidad de obtener cara en un lanzamiento es ½ , lo mismo para sello. Los signos cara y sello tienen la misma probabilidad de ocurrencia. Son lo que llamamos probabilidades a priori. Son también independientes: la probabilidad de obtener un signo determinado no depende de los resultados de lanzamientos anteriores.
.3.2. Cuantificando la información : la unidad
Desde el punto de vista de las comunicaciones, al lanzar la moneda estamos enviando mensajes con dos signos. Lanzamos la moneda sin que nuestro compadre, el receptor, mire. El compadre no tiene manera de prever el resultado, su sorpresa será máxima al mirar la moneda. Decimos que en esta situación se transmite al receptor una unidad de información, un bit de información.
La palabra bit es abreviación del inglés binary digit , dígito binario , o también de binary unit , unidad binaria . Binario / a porque empleamos dos signos. Por lo demás, la palabra bit existe en el idioma inglés por derecho propio: significa un poco, una pizca ... y otras cosas más .
Nuestros signos binarios pueden ser muy diversos : cara y sello, y no, blanco y negro, abierto y cerrado, uno (1) y cero (0), dulce y amargo...
La definición de una unidad binaria para (cantidad de) información es particularmente útil porque todo mensaje puede reducirse a una secuencia de preguntas binarias, preguntas de o no. Daremos ejemplos. Ejemplos no son demostraciones...son ejemplos. Desde luego, está claro que el lanzamiento de una moneda es equivalente a una alternativa binaria.
El dado y otras yerbas .
Consideremos lanzamientos de un dado sin sesgo . La probabilidad a priori de obtener cualquiera de las seis caras es la misma , 1/ 6 . También en este caso las probabilidades son independientes . Lanzamos el dado, el compadre no ha mirado y tiene que averiguar el resultado preguntando.
Por ejemplo, y tratando de ser eficiente, podría preguntar i) ¿es par o impar? . En efecto, así tendría él una probabilidad en dos , 1 / 2 , de acertar. Digamos impar, con lo cual el compadre ha obtenido una unidad de información. Ahora pregunta ii) ¿es mayor que 3? Digamos , con lo cual el compadre ha obtenido una segunda unidad de información ... y sabe el resultado. Pero si la respuesta a la pregunta ii) es no, la segunda unidad de información ya no basta para saber el resultado , para tener el mensaje se necesita una tercera pregunta. Examinando otras secuencias posibles de preguntas binarias nos damos cuenta de que el mensaje transmitido por el lanzamiento del dado conlleva o transporta entre dos y tres unidades de información, entre 2 y 3 bit de información. Adelantándonos un poco, son 2,58.. bit .
Una secuencia de preguntas al estilo de ¿es uno? , ¿es dos?, .... sería ineficiente : podríamos llegar a necesitar hasta cinco preguntas para acertar . Estaríamos empezando con una probabilidad de una en seis , 1 / 6 , de acertar...Sólo podríamos acotar el contenido de información entre una y cinco unidades.
Actualmente (2006) en Chile circulan cinco diferentes billetes de banco, de diferente valor y color. Supongamos que tenemos cinco billetes diferentes y le pedimos al compadre que, sin que miremos, saque uno al azar y lo oculte. ¿Cuántas preguntas binarias necesitaremos para averiguar el valor del billete? Pues entre dos y tres. En este caso, el valor, o el color, del billete transportan entre dos y tres unidades de información. Adelantándonos nuevamente, son 2,32.. bits.
Hay un poco de trampa aquí: si consideramos todos los billetes en circulación, las probabilidades de ocurrencia de los valores seguramente no son las mismas: debe haber mucho más billetes de 1000 que de 20000 pesos. Ya discutiremos este asunto: veremos que lo de 2,32.. bit es un valor máximo. La otra : para dificultar falsificaciones, los billetes llevan mucha información adicional al valor y al color.
Supongamos ahora que tenemos una baraja de 52 naipes y le pedimos al compadre que saque un naipe, a nuestras espaldas. Todos los naipes tienen la misma probabilidad de ser sacados: 1 / 52 . ¿Cuántas preguntas binarias necesitaremos para averiguar de cual naipe se trata? Resulta que son cinco como mínimo, pero pueden ser seis. Así que el naipe transporta, por así decirlo, entre 5 y 6 bit de información. Adelantándonos, son aproximadamente 5,70 bit .
En un sorteo del loto hay 3 200 000 combinaciones posibles, el número ganador representa una alternativa entre esas tres millones y tanto de alternativas de supuestamente igual probabilidad . Si tomamos el resultado del sorteo como un mensaje, el número ganador transporta aproximadamente 21,61 bit de información. Más interesantes, claro, son los tal vez miles de millones de pesos del premio...
¿Qué ocurre si las alternativas no son de igual probabilidad? ¿Si las monedas, los dados, los sorteos, están cargados ? ¿Si hay trampa en la selección del naipe? ¿Si elegimos el billete al azar entre todos los billetes en circulación, y no sólo de algún montoncito predeterminado? Lo que ocurre entonces es que ya no nos encontramos a priori en una situación de máxima incertidumbre, de máxima sorpresa. Si sabemos que el dado está cargado , no nos sorprenderá que alguna cara aparezca con mayor frecuencia que otra u otras. El valor o contenido de información de algún resultado o alternativa será entonces menor que para el caso de igual probabilidad, que podríamos llamar el caso de neutralidad. Este último debe ser el caso de máximo contenido de información del mensaje, del resultado. Veremos que la (cantidad de) información inventada por Shannon responde también a esta situación.
Tal vez no sea inoportuna aquí una referencia a los trucos de los magos . Muchos trucos exitosos de magia consisten en que el mago , mientras distrae la atención del público , efectúa manipulaciones subrepticias que alteran las probabilidades de ocurrencia de sucesos o eventos esperados por el público , con la consiguiente sorpresa .

.3.3. El caso de la certeza
Por otra parte, está claro que si tenemos certeza acerca de la respuesta a una pregunta binaria, esa respuesta no nos proporciona información alguna : no aprendemos nada nuevo, no hay sorpresa, nuestra ignorancia no disminuye...La certeza implica, en este caso, que una de las alternativas tiene probabilidad 1, la otra, probabilidad cero. Para el caso del dado, una cara aparecerá con probabilidad 1, para las otras las probabilidades son cero. Y así para los otros ejemplos que hemos examinado.
Hay aún otro requisito que debe cumplir la nueva magnitud (cantidad de) información. Lo estudiaremos usando el lanzamiento de la moneda. Supongamos que lanzamos dos monedas, deberíamos obtener dos unidades de información, dos bit . Ahora bien, la probabilidad de obtener un resultado cualquiera, cara-sello (digamos), es el producto de la probabilidad de obtener cara en la moneda “1” y de la probabilidad de obtener sello en la moneda “2”. De tal manera que un producto de probabilidades da origen a una suma de unidades de información. Nuestra definición de cantidad de información debe tener la propiedad aditiva. Sabemos cuál es la función que nos hace este milagro : es la función logaritmo. Entonces, la definición de (cantidad de) información deberá depender de probabilidades y de logaritmos de probabilidades.
En principio, da igual cómo escojamos la base de nuestros logaritmos. Ya conocemos los logaritmos de base 10 y los logaritmos naturales. Podemos obtenerlos con nuestra calculadora de bolsillo. Pero resulta conveniente usar logaritmos de base 2. Veamos nuestra notación. Sea N = 2 x , entonces escribimos x = logaritmo de N en base 2 por comodidad así:
x = log 2 N
Obviamente log 2 2 = 1
Podemos obtener estos logaritmos con nuestra calculadora , observando que log 2 N es = logaritmo decimal de N dividido por logaritmo decimal de 2 .

.4. LA DEFINICIÓN DE SHANNON : H

Ahora veamos cómo según Shannon se define una cantidad de información. La situación que se plantea es la de un conjunto de N signos o alternativas, cuyas probabilidades de ocurrencia son p 1 , p 2 , ...... , p N , respectivamente . Según Shannon se calcula el contenido de información, por signo o alternativa , como promedio ponderado:
H = – ∑ i p i log 2 p i bit
donde la suma es sobre i = 1 , 2 , ....N , el número de signos disponibles .
En la terminología de Shannon , y de Wiener , H es una medida de entropía , o de incertidumbre. Es de la naturaleza de una estimación estadística , el promedio de la cantidad de información. El signo “−“ hace que H sea positiva, cuando no nula.

El caso de certeza, p j = 1 , resto de las p = 0 , nos da H = 0 , como esperamos. Para ver esto necesitamos comprobar que “cero · log 2 cero” = cero . Escribamos [ p log 2 p ] como log 2 p p y observemos que cuando p tiende a cero , p p tiende a 1 , y el logaritmo de 1 es cero . También podemos ver numéricamente que cuando p tiende a cero, [p log 2 p] tiende a cero , aunque algo más lentamente.
En el caso de iguales probabilidades, o caso neutro, tendremos p = 1 / N y
H = − N ( 1 / N ) log 2 ( 1 / N ) bit

= + log 2 N bit
que resulta ser, aunque no lo demostramos, el valor máximo de la función H.
Históricamente éste fue el primer concepto de una cantidad de información , llamado por el ingeniero Hartley capacidad de información , en un contexto de transmisión de información .
Para el caso de la pregunta binaria, N = 2 , el lanzamiento del dado bueno, tenemos
H = 1 bit
Para obtener esto con logaritmos de otra base habría que introducir una constante numérica adecuada en la definición de H .
.5. LA ADITIVIDAD DE LA INFORMACIÓN
Verifiquemos ahora que la definición de H cumple con la propiedad aditiva. Para ello consideramos dos mensajes simultáneos, a , b transmitidos respectivamente por signos representados por “i” y “j” . Conocemos las expresiones para H a y para H b , calcularemos ahora H a b . Las probabilidades correspondientes son p ( i ) , p ( j ) , p( i , j ) = p ( i ) p ( j ) , la probabilidad para que se den simultáneamente los resultados “i” , “j” .
Recordemos aquí que las sumas Σ i p ( i ) y Σ j p ( j ) son , separadamente , iguales a 1 , por la definición misma de las probabilidades.
Entonces :
H a b = − ∑ i , j p ( i , j ) log 2 p ( i , j ) bit
= −∑ i , j p ( i ) p ( j ) { log 2 p ( i ) + log 2 p ( j ) }

= −∑ j p ( j ) ∑ i { p ( i ) log 2 p ( i ) + p ( i ) log 2 p ( j ) }
= −∑ j p ( j ) { − H a + log 2 p ( j ) ∑ i p ( i ) }
= ∑ j p ( j ) H a − ∑ j p ( j ) log 2 p ( j )
= H a + H b bit
con lo que se ha comprobado la propiedad aditiva para la magnitud H . Esto transparenta la necesidad de definir cantidad de información en términos de logaritmos.
El razonamiento es análogo al que siguió Boltzmann en el siglo XIX para llegar a una definición estadística de la entropía .
Para el caso de los dados sin sesgo lanzados simultáneamente resulta
H a = H b = − 6 · ( 1 / 6 ) · log 2 ( 1 / 6 ) = log 2 6 = 2,58.. bit
de modo que H a b resulta ser = 5,17 bit
Ahora , con dos lanzamientos simultáneos de dados podemos dar 6 · 6 = 36 mensajes y observamos que log 2 36 = 5,17 . Se ve que todo encaja .
Evidentemente podemos definir una intensidad de corriente de información en términos de número de mensajes en cada segundo, o de bit / segundo , bit / s . La magnitud H tiene , pues , características de una magnitud extensiva.
Como en el caso de la energía , no se asocia con la magnitud extensiva H alguna magnitud intensiva en particular .
Hemos supuesto siempre que las probabilidades de ocurrencia de los signos son independientes. No es , por cierto , el caso más general . No sería verdad , p.ej. , para un mensaje escrito en cualquier idioma. Intuitivamente nos damos cuenta de que el valor de H disminuirá si las probabilidades no son independientes , pero éste es un tema que va más allá de las intenciones de este textuelo.

1   2   3   4   5   6   7

similar:

Conceptos de información la información como magnitud física iconGen: Se define como la unidad mínima de información genética. Es...

Conceptos de información la información como magnitud física iconEl Siglo XX será reconocido, sin duda como la era de la información....

Conceptos de información la información como magnitud física iconEste aviso explica la forma en que su información médica se podrá...

Conceptos de información la información como magnitud física iconEsta notificación describe cómo puede usarse y divulgarse su información...

Conceptos de información la información como magnitud física icon¿Cómo saco la información para ver como se expresa?

Conceptos de información la información como magnitud física iconEn el este tema se demostrará, cómo la información genética se almacenaba...

Conceptos de información la información como magnitud física icon3. Como se trasmite la informacion genetica?

Conceptos de información la información como magnitud física iconLa información genética estaba contenida en algún tipo de molécula...

Conceptos de información la información como magnitud física iconComo ser un experto en fuentes de informacióN

Conceptos de información la información como magnitud física iconEl adn como portador de la información genética




Todos los derechos reservados. Copyright © 2019
contactos
b.se-todo.com