Conceptos de información la información como magnitud física




descargar 174.39 Kb.
títuloConceptos de información la información como magnitud física
página6/7
fecha de publicación20.10.2016
tamaño174.39 Kb.
tipoDocumentos
b.se-todo.com > Derecho > Documentos
1   2   3   4   5   6   7

.10. Datos híbridos



Para la presentación de datos híbridos , texto e imágenes , se usa extensamente el formato PDF , Portable Document Format , que es una marca registrada . Se puede presentar en los sistemas operativos Windows , Unix , Linux , Mac .
.11. Reducción de datos en la captación
Es evidente que en la captación de sonido mediante micrófonos , o en la captación de imágenes mediante fotografía y video , se produce siempre una reducción de información . Hay limitaciones inherentes a los sensores empleados . Pero incluso en la audición y en la visión directas operan procesos de reducción de datos , que tienen una base fisiológica . No percibimos frecuencias propias de lo que llamamos ultrasonido , lo llamamos así justamente porque no lo percibimos. Por otra parte , nuestra visión está restringida a un cierto dominio de frecuencias , o de longitudes de onda : infrarrojo y ultravioleta son designaciones que describen nuestras limitaciones para ver.
Y hay aún otras formas en que se manifiesta la reducción de datos que operan nuestros sentidos . Recordemos solamente que el Greco no veía lo mismo que Vermeer....

.12. JUEGOS DE CODIFICACIÓN

Un código o clave es siempre una representación de un signo o secuencia de signos . La codificación puede tener objetivos diversos : hacer más eficiente o más seguro un archivo de información , o la transmisión de información.
Cuando prima el requerimiento de seguridad en el sentido de excluir a terceros de la lectura de los mensajes se habla también de encriptación . Pero la seguridad puede también entenderse en otro sentido : aseguramiento de la recepción de la información.
La historia de los duelos entre encriptadores y decriptadores ha dado origen a muchas aventuras tanto reales como de novela.
Un ejemplo de decodificación : la lectura e interpretación de registros dejados por civilizaciones pretéritas .
Con la disponibilidad de la mensajería por teléfono celular los juegos de codificación han llegado a ser dominio de los ciudadanos en la calle. No sólo se intercambian mensajes entre personas, se envían también mensajes destinados al público por vía de canales de televisión. Aquí la codificación obedece a la necesidad de ahorrar tiempo y , por lo tanto , dinero. Solamente se requiere inteligibilidad.
Lo que se aprecia es que estas codificaciones tienden a eliminar las mayúsculas , muchas vocales , la mayoría de los signos de puntuación, y las letras “h” y “ll” . Evidentemente , en las comunicaciones habituales entre dos personas la codificación puede ser más económica aún .
Volviendo a una perspectiva más general , al emitir un mensaje podemos tener dos requerimientos : la inteligibilidad , que se entienda el mensaje , y la fidelidad , que se reciba la información en forma completa , sin errores , sin distorsiones. Son los requerimientos contrastantes de conversar por teléfono y de escuchar música.
Códigos más respetables , por así decirlo , son el código Morse internacional , el sistema de señalización con banderillas de semáforo , los códigos de pendones que se izan en secuencia vertical, usados en la comunicación marina.
El código Morse internacional tiene 26 señales para letras, diez para los dígitos de 1 a 0 , y nueve para signos de puntuación . No tiene las letras Ñ , LL , CH . Cada una de las señales está formada por puntos , trazas e intervalos , reservando las señales más cortas para las letras más frecuentes . La frecuencia que se tomó es la del idioma inglés : e , t , a , o .... decreciendo. Tenemos 26 + 10 + 9 = 45 señales y el promedio máximo , no ponderado , de información por señal sería H máx = lgd 45 = 5,49... bit
El código de banderillas de semáforo es a dos manos usando dos banderillas y un total de 29 posiciones . Hay una señal para decir “número” , después de la cual A vale “ 1 “ , D vale “ 4 “ ...... El cero se hace con la K , no con la J . Hay una señal par anular y una señal para error.
Esto puede encontrarse en el sitio ...themeter.net / semaphore ...
El código con pendones , para izar en secuencia vertical , tiene sus complicaciones , cada embarcación lleva usualmente sólo un pendón por letra, de modo que hay tres pendones para indicar repetición de letra . También hay pendones numéricos que dan los dígitos de 0 a 9. Además hay que señalizar si estamos poniendo letras o palabras . Esto , debido a que los pendones pueden usarse también para transmitir frases , instrucciones o advertencias , según el código Internacional Marino de Señales. Por ejemplo, “necesitamos piloto” se señaliza con la letra G , “hombre al agua” con la O . El código de letras se recita así : alfa , bravo , charlie , delta ...
Estas cosas se encuentran en los sitios ...anbg.gov.au / flags /... y terrax.org / sailing / pennants...
La transmisión de información por los nervios emplea impulsos eléctricos de igual amplitud y duración : la información está contenida en los intervalos de tiempo entre pulsos , dicho de otra manera : en la frecuencia de los pulsos entendida por unidad de tiempo. Los pulsos representan señales binarias : “ 0 “ cuando no hay potencial de acción en el nervio, “ 1 “ cuando está presente el potencial de acción . El código Morse tiene cierto parentesco con esto .
La amplitud del potencial de acción representa una variación desde - 70 a + 40 milivolt o mV . La célula nerviosa se recupera en unos 10 milisegundos o ms .
.12.1. Un ejemplo de codificación.
Vamos a ilustrar algunos conceptos con un ejemplo de codificación de información. Es un ejemplo que da el libro del ingeniero Woodward , especialista en radar.
Recordamos brevemente el concepto de números binarios, o números base dos. La secuencia binaria de números es
.. 0 >> 0

.. 1 >> 1

.. 2 >> 10 = 2 1

.. 3 >> 11 = 2 1 + 2 0

.. 4 >> 100 = 2 2

.. 5 >> 101 = 2 2 + 0 + 2 0

.. 9 >> 1001

..25 >> 11001
y así sucesivamente .
No está demás recordar que una unidad de ocho bit se define actualmente como una unidad de información byte (“bait”) , también llamado por algunos octeto . Con números binarios de ocho dígitos podemos representar 2 8 = 256 signos , aunque lo que se hace en computación es representar 128 signos con 7 dígitos y usar el dígito adicional para un control interno , la verificación de paridad del número .
Examinemos ahora una muestra de 128 personas y preguntemos a cada una si es diestra , d. Si responde no , entonces es zurda , z . Es una alternativa binaria , como en el lanzamiento de la moneda. Supongamos que encontramos la secuencia
ddddddddzdddddddddddddddzddd....
Aparece z en las posiciones 9 , 25 ......
Designamos esto como el mensaje , que queremos archivar o guardar , en forma binaria . Observamos que 128 = 2 7 , así que usamos números de siete dígitos : 0000000 , 0000001 , 0000010 , .......
Bueno, sabemos que las respuestas z van a ser mucho menos frecuentes que las d . Así que podemos guardar la información contenida en el mensaje simplemente anotando las posiciones de las z : 00010010011001 ..... en el entendido de que vamos a leer el archivo en bloques de siete dígitos .
Lo que estamos viendo aquí es que a veces la información puede archivarse de modo que cada señal ocupa , en promedio , menos de un bit de espacio de información en el archivo. En este caso , no necesitamos archivar 128 bits. Así que en realidad no tenemos 128 bits de información , tenemos menos , y es porque d no constituye sorpresa. Hemos hecho una compresión de datos. La información original es recuperable si entendemos que la codificación en números de siete dígitos significa que había 128 ciudadanos en la muestra.
La compresión de datos puede llevarse más allá : si no nos interesa la secuencia de las respuestas , podemos registrar simplemente el número de ocurrencias de z . Para eso bastaría seguramente un número de cuatro bit . Por ejemplo, si hay nueve respuestas z , guardaríamos 1001 . Sin embargo, si lo guardamos como 0001001 , un número de siete bit , esto podría servir para registrar que había 128 ciudadanos en la encuesta.
Si la codificación no permite recuperar totalmente la información , los datos , ha habido reducción de datos .
El código más eficiente es el que minimiza el espacio promedio de archivo requerido , y ese mínimo corresponde justamente al contenido de información del mensaje , según la idea básica de Shannon .
La capacidad de memoria , o archivo , se da actualmente en byte y sus múltiplos . Estos múltiplos , a pesar de la nomenclatura decimal empleada , son siempre múltiplos de 2 . Así , 1 kbyte = 1024 byte , 1 Mbyte = 1048576 byte ...

Si las hipótesis de la tarea fueran muy distintas tal vez habría que cambiar de código : el código más eficiente depende de las probabilidades a priori de las alternativas de respuesta.
Una contribución fundamental al diseño de códigos óptimos , en el sentido de mínima redundancia , fue hecha por Huffman en 1952 , siendo aún estudiante de posgrado ...Según se desprende de su método, el código Morse está bastante cerca del óptimo : Morse sabía bien lo que estaba haciendo . La codificación huffmaniana , o entrópica , es muy socorrida en la industria del audio y especialmente del video .
.12.2. Mensajes en cristiano .
Consideramos el alfabeto castellano . Tomamos sólo las minúsculas , contamos como letras las ñ , ch , ll , entonces tenemos 29 signos . Además tenemos el espacio en blanco y signos de puntuación , interrogación , exclamación . , ; : ¿? ¡! que nos dan 9 más . Está también el asunto de los acentos , tal vez deberíamos contar las vocales acentuadas , son 5 , como señales independientes. Si nos ponemos a contar signos en el teclado de un computador tendríamos aún otro resultado ...
Si queremos estimar H para el castellano con estas hipótesis tendríamos que conocer las probabilidades a priori con que ocurren nuestros signos . Bueno , no parece haber buenas referencias para esto , tendríamos que tomar textos largos de distintos países de habla castellana y ponernos a contar frecuencias de signos.

Una anécdota : en el siglo XIX , recién inventado el telégrafo , Morse necesitó un dato similar para el idioma inglés , cuando diseñaba su código . Claro , la idea es usar las señales más cortas para las letras más frecuentes ... Entonces Morse , con su socio , hizo una estadística de los tipos que guardaba una gran imprenta...
Hay referencias para la frecuencia de aparición de las letras , y sólo las letras, en el castellano. La gente que hace estudios para la decodificación y decriptación se interesa en esto . Ellos no cuentan como letras o signos independientes las ch y ll . Las referencias aparecen bajo las rúbricas de criptografía y lexicografía .
Resulta entonces , según un estudio lexicográfico de un cierto matutino español de los años ochenta , que las letras más frecuentes son , en orden decreciente, E , A , O , L , S , N , D..... y se conocen también las frecuencias . El castellano hace mucho uso de las vocales . Se estima en esa referencia que las vocales ocupan aproximadamente el 47 % del texto en letras. Las consonantes más frecuentes ocupan el 30 % .
Esto puede encontrarse en .....matematicas.net / paraiso /...
Estimemos con estos datos la (cantidad de) información , H , limitándonos a las 14 letras más frecuentes , que suman más del 92 % de las ocurrencias de letra. Es una subestimación , pero las restantes letras aparecen con frecuencias inferiores al 0,5 %.
Se obtiene H ≈ 3,41 .... bit para las letras del castellano .
Es bueno recordar que aquí estamos suponiendo la independencia de las probabilidades de aparición de las letras.
Se comprende intuitivamente que en el caso de no independencia se obtendría un valor más bajo para H. Pierce menciona un experimento psicológico hecho por Shannon , quien operó en idioma inglés con 27 signos , las 26 letras más el espacio en blanco . Pierce estima , según los resultados del experimento , que H se situaría alrededor de 1 bit / signo , o aún menos.
Para comprender este efecto cualitativamente es fácil encontrar ejemplos . Así, no nos sorprendería mucho encontrar “u” después de “q” , “s” después de “e” , “h” después de “c” , “e” después de “i” ..... En cambio , una “e”” después de una “x” sería una sorpresa , como también una “ i “ después de una “ z “ ...
Esto significa que si nos muestran secuencias de signos que configuran fragmentos de textos castellanos , tenemos alguna posibilidad de adivinar con qué signo se continúa una determinada secuencia . Es justamente lo que aprovechan los usuarios de la mensajería por teléfono celular...
El citado experimento de Shannon mencionado por Pierce consistió en estimar cuantitativamente esta posibilidad de adivinación.
En la referencia citada más arriba se estudió también la frecuencia de palabras . De las once palabras más frecuentes en el castellano, dos son de una letra , cinco de dos letras y cuatro de tres letras , con un total de 31,9...% de las frecuencias de palabras .
1   2   3   4   5   6   7

similar:

Conceptos de información la información como magnitud física iconGen: Se define como la unidad mínima de información genética. Es...

Conceptos de información la información como magnitud física iconEl Siglo XX será reconocido, sin duda como la era de la información....

Conceptos de información la información como magnitud física iconEste aviso explica la forma en que su información médica se podrá...

Conceptos de información la información como magnitud física iconEsta notificación describe cómo puede usarse y divulgarse su información...

Conceptos de información la información como magnitud física icon¿Cómo saco la información para ver como se expresa?

Conceptos de información la información como magnitud física iconEn el este tema se demostrará, cómo la información genética se almacenaba...

Conceptos de información la información como magnitud física icon3. Como se trasmite la informacion genetica?

Conceptos de información la información como magnitud física iconLa información genética estaba contenida en algún tipo de molécula...

Conceptos de información la información como magnitud física iconComo ser un experto en fuentes de informacióN

Conceptos de información la información como magnitud física iconEl adn como portador de la información genética




Todos los derechos reservados. Copyright © 2019
contactos
b.se-todo.com