Entropia
Przejdź do nawigacji
Przejdź do wyszukiwania
entropia - w teorii informacji: miara chaotyczności danych; im większa entropia, tym wyższa chaotyczność danych; najwyższa chaotyczność zachodzi wtedy, gdy wszystkie dane (pierwotne)są jednakowo prawdopodobne.