PD: lo de que la tasa de entropia sea igual a la esperanza del largo de codigo medio supongo que sucede porque las probabilidades son potencias de 2, lo que hace que los codigos de Huffman sean codigos de Shannon y a su vez los codigos de Shannon alcancen la entropia.