Acciones

Información

De OCHA Colombia Wiki

En sentido general, la información es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje. Desde el punto de vista de la teoría general de sistemas cualquier señal o input capaz de cambiar el estado de un sistema constituye un pedazo de información.

Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.

Desde el punto de vista de la ciencia de la computación, la información es un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismo entorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que modificará las sucesivas interacciones del ente que posee dicha información con su entorno.

Información en la sociedad

En las sociedades humanas y en parte en algunas sociedades animales, la información tiene un impacto en las relaciones entre diferentes individuos. En una sociedad la conducta de cada individuo frente a algunos otros individuos se puede ver alterada en función de qué información disponible posee el primer individuo. Por esa razón el estudio social de la información se refiere a los aspectos relacionados con la variación de la conducta en posesión de diferentes informaciones.

Principales características de la información

En general la información tiene una estructura interna y puede ser calificada según varios aspectos:

  • Significado (semántica): ¿Qué quiere decir? Del significado extraído de una información, cada individuo evalúa las consecuencias posibles y adecúa sus actitudes y acciones de manera acorde a las consecuencias previsibles que se deducen del significado de la información. Esto se refiere a qué reglas debe seguir el individuo o el sistema experto para modificar sus expectativas futuras sobre cada posible alternativa.
  • Importancia (relativa al receptor): ¿Trata sobre alguna cuestión importante? La importancia del la información para un receptor, se referirá a en qué grado cambia la actitud o la conducta de los individuos. En las modernas sociedades, los individuos obtienen de los medios de comunicación masiva gran cantidad de información, un gran parte de la misma es poco importante para ellos, porque altera de manera muy poco significativa la conducta de los individuos. Esto se refiere a en qué grado cuantitativo deben alterarse las expectativas futuras. A veces se sabe que un hecho hace menos probables algunas cosas y más otras, la importancia tiene que ver con cuanto menos probables serán unas alternativas respecto a las otras.
  • Vigencia (en la dimensión espacio-tiempo): ¿Es actual o desfasada? En la práctica la vigencia de una información es dificil de evaluar, ya que en general acceder a una información no permite conocer de inmediato si dicha información tiene o no vigencia. Esto tiene que ver con la sincronización en el tiempo de los indicios que permiten reevaluar las expectavivas con las expectativas en un momento dado.
  • Validez (relativa al emisor): ¿El emisor es fiable o puede proporcionar información no válida (falsa)? Esto tiene que ver si los indicios deben ser considerados en la reevaluación de expectativas o deben ser ignorados por no ser indicios fiables.
  • Valor (activo intangible volatil): ¿Cómo de útil resulta para el destinatario?


Usos de la información

Se considera que la generación y/o obtención de información persigue estos objetivos:

  • Aumentar/mejorar el conocimiento del usuario, o dicho de otra manera reducir la incertidumbre existente sobre un conjunto de alternativas lógicamente posibles.
  • Proporcionar a quien toma decisiones la materia prima fundamental para el desarrollo de soluciones y la elección.
  • Proporcionar una serie de reglas de evaluación y reglas de decisión para fines de control.

En relación con el tercer punto, la información como vía para llegar al conocimiento, debe ser elaborada para hacerla utilizable o disponible (este proceso empírico se llama Documentación y tiene métodos y herramientas propios), pero también es imposible que la información por sí sola dote al individuo de más conocimiento, es él quien valora lo significativo de la información, la organiza y la convierte en conocimiento. El dato, por así llamarlo, es en sí un "prefijo" de la información, es decir, es un elemento previo necesario para poder obtener la información.

Información periodística

Una noticia es el relato o redacción de un texto informativo que se quiere dar a conocer con sus propias reglas de construcción (enunciación) que se refiere a un hecho novedoso o atípico -o la relación entre hechos novedosos y/o atípicos-, ocurrido dentro de una comunidad o determinado ámbito específico, que hace que merezca su divulgación.

La noticia es un hecho periodístico, equivalente a lo que implica para la historia un acontecimiento. Dentro del ámbito de algunos medios de comunicación, es un género periodístico en el que la noticia es un "recorte de la realidad" sobre un hecho de actualidad que merece ser informado por algún tipo de criterio de relevancia social. El contenido de una noticia debe responder a la mayoría de las preguntas que se conocen como las "6W-H", de la escuela de periodismo norteamericana:

  • ¿A quién le sucedió?
  • ¿Qué sucedió?
  • ¿Cuándo sucedió?
  • ¿Dónde sucedió?
  • ¿Por qué sucedió?
  • ¿Cómo sucedió?

La información es un fenómeno que proporciona significado o sentido a las cosas. En sentido general, la información es un conjunto organizado de datos procesados, que constituyen un mensaje sobre un determinado ente o fenómeno. Los datos se perciben, se integran y generan la información necesaria para producir el conocimiento que es el que finalmente permite tomar decisiones para realizar las acciones cotidianas que aseguran la existencia. La sabiduría consiste en determinar correctamente cuándo, cómo, dónde y con qué objetivo emplear el conocimiento adquirido.

La información también indica mediante códigos y conjuntos de datos, los modelos del pensamiento humano. La información por lo tanto, procesa y genera el conocimiento humano. De esta manera, si por ejemplo organizamos datos sobre un país, tales como: número de habitantes, densidad de población, nombre del presidente, etc. y escribimos por ejemplo, el capítulo de un libro, podemos decir que ese capítulo constituye información sobre ese país.

Información y el Estado

El control y la manipulación es uno de los medios más poderosos de los gobiernos para promover el acatamiento de sus políticas. Así, los estados totalitarios y autoritarios buscan el monopolio de la información para promover el acatamiento de las políticas.

La información tiene por objetivo dar a conocer los hechos de manera efectiva e imparcial, mientras que la propaganda busca ganar adeptos para lograr un objetivo, sin importarle la veracidad de los hechos. Así la propaganda compite con el derecho como instrumento de poder. [1]

Teoría de la información

El enfoque de la teoría de la información analiza la estructura matemática y estadística de los mensajes, con independencia de su significado u otros aspectos semánticos. Los aspectos en los que se interesa la teoría de la información son las capacidad de transmisión de los canales, la compresión de datos o la detección y corrección de errores.

Caracterización matemática

Una forma de caracterizar nuestro estado de conocimiento del mundo, es a través de las probabilidades. Si sabemos que en el futuro pueden suceder n cosas diferentes <math>\scriptstyle A_1,\dots, A_n</math>, cada una con probabilidad <math>\scriptstyle p_1,\dots, p_n</math> ese conjunto de probabilidades constituyen nuestro conocimiento del mundo, una información debería reducir nuestra incertidumbre, variando las probabilidades a <math>\scriptstyle \tilde{p}_1,\dots, \tilde{p}_n</math>. Si el segundo estado tiene menos incertidumbre es porque algunas cosas se han hecho más probables frente a otras alternativas que se han hecho más probables.

Una forma de "medir la información" asociada a un mensaje o hecho observado es calcular como algunas probabilidades han crecido y otras han decrecido. Una medida conveniente de calcular la "concentración" de la certeza en algunas alternativas es la entropía estadística: Plantilla:Ecuación

Estructura de la información

La información también indica mediante códigos y conjuntos de datos, los modelos del pensamiento humano. Desde el punto de vista de la teoría de la información un mensaje es una secuencia de un conjunto finito signos. El conjunto de signos se llama alfabeto. Las probabilidades de aparición de ciertas secuencias son objeto de estudio de la teoría de la información.

Aunque muchos seres vivos se comunican transmitiendo información para su supervivencia, la diferencia de los seres humanos radica en su capacidad de generar y perfeccionar tanto códigos como símbolos con significados que conformaron lenguajes comunes útiles para la convivencia en sociedad, a partir del establecimiento de sistemas de señales y lenguajes para la comunicación. Existe una relación indisoluble entre los datos, la información, el conocimiento, el pensamiento y el lenguaje, por lo que una mejor comprensión de los conceptos sobre información redundará en un aumento del conocimiento, ampliando así las posibilidades del pensamiento humano, que también emplea el lenguaje -oral, escrito, gesticular, etc.-, y un sistema de señales y símbolos interrelacionados.

Recuperación de la información

La cantidad de información y el conocimiento desarrollado, aparentemente es enorme y tiene una metodología de recuperación, que eventualmente es infinita o total en un número muy amplio de soportes y sitios y el modelo sistémico de recuperación debe maximizar la búsqueda para asegurar su captura lo más completa posible dentro del entorno de este sistema complejo. En el caso de búsquedas en Internet y usando dos o más descriptores, los resultados numéricos que dan los motores de búsqueda, que contengan los dos o más términos juntos o muy próximos, ya es una medida de la cantidad de información conseguida y que es en expresión matemática el ln o logaritmo natural de la suma de las interacciones validadas. Valores de 2 o 3 serán óptimos.

Información y física

En física existe una íntima conexión entre entropía e información:

  • En física estadística un macroestado o situación macroscópica, puede corresponder desde el punto de vista microscópico a varios microestados, es decir, varios microestados diferentes pueden ser percibidos en términos macroscópicos generales como la misma situación o macroestado general. Algunos macroestados sólo pueden corresponder a un número relativamente pequeño de microestados, otros macroestados por el contrario pueden corresponder a un número más elevado de microestados. La entropía es una magnitud física que mide la cantidad de microestados correspondiente a un macroestado. De alguna manera los macroestados con mayor entropía pueden corresponder a más microestados y por tanto conocido el macroestado existe una mayor incertidumbre sobre el microestado real del sistema. Por tanto la entropía mide la falta de conocimiento del microestado, de ahí que la información necesaria para conocer el microestado de un sistema conocido su macroestado coincida con la entropía. Cuando se produce una disminución de la entropía se puede decir que ha aumentado nuestro conocimiento del microestado del sistema, o existe menos incertidumbre sobre dicho microestado.
  • En la teoría de la relatividad se presupone que ninguna señal que sea informativa puede viajar más rápidamente que la luz, si sucediera lo contrario podría violarse el principio de causalidad.

Véase también

Referencias

Bibliografía

  • Dominic Welsh (1988): Codes and Cryptography, Clarendon Press, Oxford, ISBN 0-19-853287-3.

Enlaces externos

Recuperación de información.: Information Retrieval. Bogotá : ULS, 2010.