Entropia


La entropía –término que proviene de la física– consiste en la cantidad de desorden que existe en un sistema y que conduce a su modificación. En la teoría de la información, la entropía es una medida de la incertidumbre. Si después de haber recibido los primeros elementos de un mensaje es posible predecir cuáles serán los siguientes, la entropía es baja. Si no es posible predecirlos, la entropía es alta.

 

Ejemplo

En la serie de letras “a, b, c, d, e, f, g…” podemos predecir que los elementos que siguen son “h, i, j, k…”, esto significa que la entropía es baja. En cambio, en la serie de letras “j, h, w, x, k, k, l…”, no puede predecirse cuáles serán las letras siguientes: la entropía es alta.

 

 

Referencias internas (hipertexto a entrada del vocablo indicado)

 

teoría de la información

 

Otros términos relacionados

 

 

Término en otras entradas:

 

Acepción en otros temas:

 

Elementos audiovisuales:



Entropia