Entropia: Różnice pomiędzy wersjami

Z DisWiki
Przejdź do nawigacji Przejdź do wyszukiwania
(v)
 
(x)
 
Linia 1: Linia 1:
'''entropia''' - w teorii informacji: miara chaotyczności danych; in większa entropia, tym wyższa chaotyczność danych; najwyższa chaotyczność zachodzi wtedy, gdy wszystkie dane są jednakowo prawdopodobne.  
+
'''entropia''' - w teorii informacji: miara chaotyczności danych; im większa entropia, tym wyższa chaotyczność danych; najwyższa chaotyczność zachodzi wtedy, gdy wszystkie dane (pierwotne)są jednakowo prawdopodobne.  
  
 
[[Kategoria:terminologia IT]]
 
[[Kategoria:terminologia IT]]
 
[[kategoria:techniczna]]
 
[[kategoria:techniczna]]

Aktualna wersja na dzień 23:08, 11 kwi 2016

entropia - w teorii informacji: miara chaotyczności danych; im większa entropia, tym wyższa chaotyczność danych; najwyższa chaotyczność zachodzi wtedy, gdy wszystkie dane (pierwotne)są jednakowo prawdopodobne.