Conceptos de información la información como magnitud física




descargar 174.39 Kb.
títuloConceptos de información la información como magnitud física
página1/7
fecha de publicación20.10.2016
tamaño174.39 Kb.
tipoDocumentos
b.se-todo.com > Derecho > Documentos
  1   2   3   4   5   6   7

CONCEPTOS DE INFORMACIÓN




LA INFORMACIÓN COMO MAGNITUD FÍSICA





UN APOYO PARA PROFESORES ... Y ESTUDIANTES


Alex Trier

Santiago de Chile

Diciembre del 2006

INDICE DE MATERIAS


Presentación 3

El concepto de información 4

.1. Entrando en materia 4


.2. Magnitudes físicas 5

.2.1. Magnitudes extensivas 9

.2.2. Hablemos un poco de la entropía 11

.3. Una magnitud física extensiva : la información 13

.3.1. Mensajes 14

.3.2. Cuantificando la información : la unidad . 14

.3.3. El caso de la certeza 16

.4. La definición de Shannon : H 17

.5. La aditividad de la información 18

.6. Guardando información o archivando datos 19

.6.1. Algunos aspectos técnicos 20

.7. Reduciendo datos 21

.7.1. Reducción estadística de datos 23

.8. Tratamiento de imágenes 24


.9. Tratamiento del sonido 25

.10. Datos híbridos 25

.11. Reducción de datos en la captación 25

.12. Juegos de codificación 26

.12.1. Un ejemplo de codificación 27

.12.2. Mensajes en cristiano 29

.13. Transmisión digital de datos 31

.13.1. El ruido en las comunicaciones 33

Referencias 35

Ensaladas de letras 37

Índice alfabético 38

FIGURA 5 39
Hay seis figuras

PRESENTACIÓN .
Este breve texto pretende dar apoyo a profesores , especialmente de la Enseñanza Media , que quieran introducir conceptos elementales de la teoría de la información en sus clases de física y de matemáticas . Tales conceptos constituyen el soporte de las tecnologías de la información , y han estado entrando con fuerza en las ciencias naturales y sociales .
A pesar de su flacura , este textuelo es ambicioso : ambiciona ser leído , discutido , criticado , mejorado , vilipendiado ... pero , sobre todo , usado .
Es la ocasión de reconocer mi deuda intelectual con el profesor Friedrich Herrmann , de la Universidad de Karlsruhe , R.F.A. , cuyos diversos y creativos escritos y publicaciones han ampliado mi horizonte de profesor .
Agradezco a los profesores Patricio Pérez J. y Carlos Esparza B. por sus comentarios , sugerencias y críticas.

Alex Trier



Profesor , en tiempos pretéritos , de las universidades : de Chile , Técnica del Estado , de Santiago de Chile , y Gabriela Mistral .
Casilla 31 Correo 29

Santiago de Chile

Alex Trier Gabler


RUT 2 635 077 – 8

Derechos Reservados

Reg. Prop. Intelectual Inscripción No 159824


EL CONCEPTO DE INFORMACIÓN

Formalmente el concepto de información puede tratarse en tres planos.

EL PLANO DE LA SINTAXIS
En este plano se trata de la ocurrencia de unidades individuales de información , y de sus interrelaciones.
En este plano se trabaja con la teoría de la información según Shannon , o teoría de las comunicaciones , que ahora algunos autores llaman también teoría clásica de la información . Esta teoría liga los conceptos de información y de probabilidad , dando origen a un concepto cuantitativo de información , una magnitud física extensiva . La teoría se ocupa de la transmisión y del almacenamiento , o archivo , de información .
La teoría de la información de Shannon se mueve en este plano.
EL PLANO DE LA SEMÁNTICA
En este plano se trata de la interpretación o significación de unidades individuales de información , y de sus interrelaciones . La calidad de la información es un concepto que pertenece a este plano . En su acepción más común , el concepto de datos pertenece a este plano .

EL PLANO PRAGMÁTICO
En este plano se trata del efecto o acción de unidades individuales de información , y de sus interrelaciones , concretamente sobre un receptor de información , que adquiere conocimiento .


.1. ENTRANDO EN MATERIA
Por los años veinte del siglo XX se hizo apremiante para los ingenieros de redes telefónicas el problema de optimizar el diseño de tales redes en términos de eficiencia y de eficacia. En particular , se trata de diseñar una red para el envío de una máxima cantidad de mensajes inteligibles en la unidad de tiempo, en presencia de perturbaciones conocidas como ruido .
Este problema exigió el desarrollo de nuevas herramientas conceptuales. Los estudios iniciados por el físico Nyquist y por el ingeniero Hartley culminaron en 1948 con la publicación por el matemático y también ingeniero Shannon de lo que llamó teoría matemática de la comunicación , y que ahora se denomina comúnmente teoría de la información. Lo central de este trabajo enorme, equivalente a la creación de un nuevo capítulo de la ciencia, es la definición de una medida objetiva de cantidad de información. Esta medida presenta características de una magnitud física extensiva no conservada, en el sentido que esta expresión tiene en la termodinámica .
El trabajo de Shannon echa mano de la teoría de probabilidades e introduce conceptos análogos a los que en el siglo XIX fueron inventados para lo que ahora se llama la mecánica estadística. En su trabajo, Shannon se benefició de importantes avances en la teoría de las probabilidades hechas por aquella época por otros científicos e ingenieros, entre quienes destaca el matemático Wiener.
La nueva ciencia de la información no tardó en trascender los marcos de la ingeniería eléctrica y de las matemáticas aplicadas de tal modo que sus conceptos se emplean en forma creciente en las ciencias naturales y sociales , sin olvidar la ciencia económica. Su relación con la física es inmediata.
Este textuelo pretende mostrar los conceptos más elementales de la teoría de la información y la aplicación de estos conceptos al archivo y procesamiento de datos. Son asuntos de gran interés general y de los jóvenes en particular, quienes son los que con más intensidad usan las nuevas tecnologías. Por esta razón el escrito está pensado en primera instancia para ayudar a docentes interesados en presentar y discutir estos temas en una perspectiva general de ciencias . Aspira también a interesar a estudiantes.
Hay material aquí para complementar clases de física y de matemáticas.
Se reconoce que el concepto de información envuelve diversas connotaciones, en varias de las cuales entran aspectos y juicios subjetivos. La información según Shannon es un concepto objetivo puramente cuantitativo. Admitiendo esta limitación digamos también que su amplia utilidad en las ciencias y en la tecnología no se discute .

Como asunto previo hagamos algunas consideraciones sobre las magnitudes físicas.


  1   2   3   4   5   6   7

similar:

Conceptos de información la información como magnitud física iconGen: Se define como la unidad mínima de información genética. Es...

Conceptos de información la información como magnitud física iconEl Siglo XX será reconocido, sin duda como la era de la información....

Conceptos de información la información como magnitud física iconEste aviso explica la forma en que su información médica se podrá...

Conceptos de información la información como magnitud física iconEsta notificación describe cómo puede usarse y divulgarse su información...

Conceptos de información la información como magnitud física icon¿Cómo saco la información para ver como se expresa?

Conceptos de información la información como magnitud física iconEn el este tema se demostrará, cómo la información genética se almacenaba...

Conceptos de información la información como magnitud física icon3. Como se trasmite la informacion genetica?

Conceptos de información la información como magnitud física iconLa información genética estaba contenida en algún tipo de molécula...

Conceptos de información la información como magnitud física iconComo ser un experto en fuentes de informacióN

Conceptos de información la información como magnitud física iconEl adn como portador de la información genética




Todos los derechos reservados. Copyright © 2015
contactos
b.se-todo.com