TEORÍA DELA INFORMACIÓN
La
teoría de la información surgió a finales de la Segunda Guerra
Mundial, en los años cuarenta. Fue iniciada por Claude E. Shannon a
través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una teoría matemática de la comunicación (texto completo en inglés). En esta época se buscaba utilizar de manera más
eficiente los canales de
comunicación, enviando una cantidad de información por un determinado
canal y midiendo su capacidad; se buscaba la transmisión óptima de los mensajes
La teoría de la información también conocida como teoría matemática de la comunicación (mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a
finales de la década de los años 1940. Esta teoría está relacionada con las
leyes matemáticas que rigen la transmisión y el procesamiento de la información
y se ocupa de la medición de la información y de la representación de la misma,
así como también de la capacidad de los sistemas de comunicación para
transmitir y procesar información.1 La
teoría de la información es una rama de la teoría matemática y
de las ciencias de la
computación que
estudia la información y
todo lo relacionado con ella: canales, compresión de datos y criptografía, entre otros.
FUENTE DE RUIDO
A continuación Weaver la siguiente descripción:
En la figura se presenta simbólicamente un sistema de
comunicación. La fuente de información seleccionada a partir de un conjunto de
posibles mensajes el mensaje deseado. El transmisor transforma el mensaje en
una señal que es enviada por el canal de comunicación al receptor.
El receptor hace las beses de un transmisor invertido que
cambia la señal transmitida en el mensaje y pasa este mensaje a su destinatario
.Cuando yo hablo con usted, mi cerebro es la fuente de información, el suyo el
destinatario, el sistema vocal e el transmisor, y su oído, con su octavo par de
nervios craneados, es el receptor.
Infortunadamente, es características del proceso de
transmitir la señal que se agreguen en esta ciertas cosas que no son
proporcionadas deliberadamente por la fuente de información. Estos aditamentos
indeseados pueden ser distorsiones de sonido (en telefonía, por ejemplo),o
estáticos (en radiotelefonía),distorsiones de la forma o sombreada de una
imagen (televisión), o errores de transmisión (telegrafía o facsímil). Todos
estos cambios en la señal pueden ser llamados ruidos.
Los problemas que han de estudiarse de un sistema de
comunicación tiene que ver con la cantidad de información, la capacidad del
canal de de comunicación, el proceso de codificación que puede utilizarse para
cambiar el mensaje de una señal y efectos del ruido.
A lo largo de este movimiento orientado linealmente se
encuentra un conjunto de componentes que pueden ser distinguido en forma
precisa, por su ubicación y su función.
Fuente: Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente
puede ser una computadora y mensajes sus archivos; una fuente puede ser un
dispositivo de transmisión de datos y mensajes los datos enviados, etc. Una
fuente es en sí misma un conjunto finito de mensajes: todos los posibles
mensajes que puede emitir dicha fuente. En compresión de datos se tomará como
fuente el archivo a comprimir y como mensajes los caracteres que conforman
dicho archivo. Componente
de naturaleza humana o mecánica que determina el tipo de mensaje que
transmitirá y se grado de complejidad.
Transmisor: Recurso
técnico que transmite el mensaje originado por la fuente de infamación en
señales apropiadas.
Canal: medio
generalmente físico que transporta las señales en el espacio .cumple una
función simple de mediación y transporte.
Codigo: Un
código es un conjunto de unos y ceros que se usan para representar un cierto
mensaje de acuerdo a reglas o convenciones preestablecidas. Por ejemplo al
mensaje 0010 lo podemos representar con el código 1101 usando para codificar la
función (NOT). La forma en la cual codificamos es arbitraria. Un mensaje puede,
en algunos casos, representarse con un código de menor longitud que el mensaje
original. Supongamos que a cualquier mensaje S lo codificamos usando un cierto
algoritmo de forma tal que cada S es codificado en L(S) bits; definimos
entonces la información contenida en el mensaje S como la cantidad mínima de
bits necesarios para codificar un mensaje..
Ruido: Expresión
genérica utilizada para referirse a barias distorsiones en forma externa de la
información.
Receptor: Recuso
técnico que trasforma las señales recibidas en el mensaje concebido por la
fuente de infamación.
Destino: componente
terminal del proceso de comunicación, al cual esta dirigido el mensaje. Es el
elemento decisivo para pronunciarse sobre la fila fidelidad de la comunicación.
No hay comentarios:
Publicar un comentario