La entropía –término que proviene de la física– consiste en la cantidad de desorden que existe en un sistema y que conduce a su modificación. En la teoría de la información, la entropía es una medida de la incertidumbre. Si después de haber recibido los primeros elementos de un mensaje es posible predecir cuáles serán los siguientes, la entropía es baja. Si no es posible predecirlos, la entropía es alta.
Ejemplo
En la serie de letras “a, b, c, d, e, f, g…” podemos predecir que los elementos que siguen son “h, i, j, k…”, esto significa que la entropía es baja. En cambio, en la serie de letras “j, h, w, x, k, k, l…”, no puede predecirse cuáles serán las letras siguientes: la entropía es alta.
Referencias internas (hipertexto a entrada del vocablo indicado)
teoría de la información
Otros términos relacionados
Término en otras entradas:
Acepción en otros temas:
Elementos audiovisuales: