domingo, 14 de julio de 2013

LA COMUNICACIÓN Y LA T.G.S.




TEORÍA DELA INFORMACIÓN 

     La teoría de la información surgió a finales de la Segunda Guerra Mundial, en los años cuarenta. Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una teoría matemática de la comunicación (texto completo en inglés). En esta época se buscaba utilizar de manera más eficiente los canales de comunicación, enviando una cantidad de información por un determinado canal y midiendo su capacidad; se buscaba la transmisión óptima de los mensajes

    La teoría de la información también conocida como teoría matemática de la comunicación (mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940. Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información.1 La teoría de la información es una rama de la teoría matemática y de las ciencias de la computación que estudia la información y todo lo relacionado con ella: canales, compresión de datos y criptografía, entre otros.

FUENTE DE RUIDO
A continuación Weaver la siguiente descripción:

      En la figura se presenta simbólicamente un sistema de comunicación. La fuente de información seleccionada a partir de un conjunto de posibles mensajes el mensaje deseado. El transmisor transforma el mensaje en una señal que es enviada por el canal de comunicación al receptor.
      El receptor hace las beses de un transmisor invertido que cambia la señal transmitida en el mensaje y pasa este mensaje a su destinatario .Cuando yo hablo con usted, mi cerebro es la fuente de información, el suyo el destinatario, el sistema vocal e el transmisor, y su oído, con su octavo par de nervios craneados, es el receptor.
     Infortunadamente, es características del proceso de transmitir la señal que se agreguen en esta ciertas cosas que no son proporcionadas deliberadamente por la fuente de información. Estos aditamentos indeseados pueden ser distorsiones de sonido (en telefonía, por ejemplo),o estáticos (en radiotelefonía),distorsiones de la forma o sombreada de una imagen (televisión), o errores de transmisión (telegrafía o facsímil). Todos estos cambios en la señal pueden ser llamados ruidos.
      Los problemas que han de estudiarse de un sistema de comunicación tiene que ver con la cantidad de información, la capacidad del canal de de comunicación, el proceso de codificación que puede utilizarse para cambiar el mensaje de una señal y efectos del ruido.
      A lo largo de este movimiento orientado linealmente se encuentra un conjunto de componentes que pueden ser distinguido en forma precisa, por su ubicación y su función.
Fuente: Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser una computadora y mensajes sus archivos; una fuente puede ser un dispositivo de transmisión de datos y mensajes los datos enviados, etc. Una fuente es en sí misma un conjunto finito de mensajes: todos los posibles mensajes que puede emitir dicha fuente. En compresión de datos se tomará como fuente el archivo a comprimir y como mensajes los caracteres que conforman dicho archivo.                                         Componente de naturaleza humana o mecánica que determina el tipo de mensaje que transmitirá y se grado de complejidad.
Transmisor: Recurso técnico que transmite el mensaje originado por la fuente de infamación en señales apropiadas.
Canal: medio generalmente físico que transporta las señales en el espacio .cumple una función simple de mediación y transporte.
Codigo: Un código es un conjunto de unos y ceros que se usan para representar un cierto mensaje de acuerdo a reglas o convenciones preestablecidas. Por ejemplo al mensaje 0010 lo podemos representar con el código 1101 usando para codificar la función (NOT). La forma en la cual codificamos es arbitraria. Un mensaje puede, en algunos casos, representarse con un código de menor longitud que el mensaje original. Supongamos que a cualquier mensaje S lo codificamos usando un cierto algoritmo de forma tal que cada S es codificado en L(S) bits; definimos entonces la información contenida en el mensaje S como la cantidad mínima de bits necesarios para codificar un mensaje..
Ruido: Expresión genérica utilizada para referirse a barias distorsiones en forma externa de la información.
Receptor: Recuso técnico que trasforma las señales recibidas en el mensaje concebido por la fuente de infamación.
Destino: componente terminal del proceso de comunicación, al cual esta dirigido el mensaje. Es el elemento decisivo para pronunciarse sobre la fila fidelidad de la comunicación.



No hay comentarios:

Publicar un comentario