Termín informace je nyní velmi populární. Tímto slovem označujeme cokoliv, co se dovíme, nebo se můžeme dovědět, na první pohled to má něco společného s vědomostmi, znalostmi. Informace si sdělujeme, hledáme, rozhodujeme se podle nich, sledujeme, hodnotíme je, pracujeme s nimi, přenášíme je, ukládáme je, ztrácíme je, můžeme je i záměrně ničit.
Protože se s tím dá dělat tolik věcí, stojí za to zjistit co to vlastně je, jaké to má vlastnosti a vůbec to blíž prozkoumat.
Informace.
Co je to informace? Je to energie? Je to hmota? Dá se to zničit? Jaké to má vlastnosti? Když chceme něco zkoumat tak musíme vědět, co přesně zkoumáme. Takže co to ta informace vlastně je?
Na tyto otázky je mnoho vysilujících odpovědí a ani jedna není výstižná. Pro každého je informací něco jiného.
S informací je problém. Ani idealistické, ani materialistické učení nedokáží informaci zařadit. Pro materialismus je informace velmi podezřelá, protože to není ani hmota ani energie. To zanáší do materialismu potíže, protože to zavání duchovnem. Idealismus zase informaci ztotožňuje s božstvím, ale zase má potíže s tím, že informace je vázána na hmotu a energii. Ke všemu s informacemi si člověk zachází, jako by se nechumelilo a na nějaké božství kašle. Nejlepší bude, když se tu celou věc pokusíme nějak definovat.
Bude dobré, když to bude velmi obecné a pokud možno stručné. Takže nejdřív vyhodíme všechny definice zahrnující antropocentrický přístup. Takoví mravenci si informace také předávají a je všeobecně známo, že to nejsou lidi. Také vyhodíme všechny definice označující vlastnosti. Tím vypadnou definice zabývající se komunikací, kvalitou, atd. Filosofům vyhodíme definice obsahující objektivní realitu. To kvůli tomu, že takové popisy halucinogenních stavů můžeme pokládat za informace, ale s objektivní realitou nemusí až tak úplně souviset. Nepochybuji, že jsem tím udělal radost všem vyznavačům duchovna. Taky bych vyhodil definice popisující způsoby využívání informace. Moc toho už nezbylo, ale něco přece.
Definice informace.
Informace je jev, který má buď vysokou, nebo nízkou pravděpodobnost výskytu.
S touto definicí by mohli souhlasit i mravenci a umělá inteligence. Dokonce, i když někomu řeknu „Právě jsem mluvil s Ježíšem," tak tento jev může mít nízkou pravděpodobnost výskytu, ale pořád to bude informace. Komu tato definice nevyhovuje, ať si vybere nějakou jinou.
Kvalita informace.
Kvalita informace (hodnota informace) má něco společného s očekávaností. Když řeknu: „Zítra vyjde slunce." Je to sice informace, ale její hodnota není nic moc. Ovšem když řeknu: „Zítra slunce nevyjde." Třeba z důvodu zatmění, pak tato informace pro mě může mít sakra velkou hodnotu, zvláště jestli jsem domorodý šaman a chci instalovat na náčelnický trůn osobu sobě blízkou, nebo pokud toho využiji k tomu abych nešel do práce a pěkně si užil den, protože to znamená, že zítra nastane konec světa.
Množství informace.
Pokud jsme až do této chvíle měli nějaké pochyby a nejasnosti, tak v případě množství informace nemáme pochyby žádné. Množství informace umíme měřit a známe i přesně nejmenší možné množství informace. Ano, je to jeden bit, BInary digiT, dvojkové číslo, pravda/nepravda, hodnoty 0/1, ano/ne. Za tyto znalosti vděčíme rozvoji číslicové techniky, radiové komunikace, šifrování, kybernetice a počítačům. Umíme spočítat šířku informačního kanálu pro přenos, umíme zabezpečit přenos tak, aby neprošly chyby, umíme informaci opatřit samoopravnými kódy, umíme ji kódovat, dekódovat. Posílat z místa na místo. Rozprostřít vysílání na více frekvencí s tak malým výkonem, že se ztratí v šumu a na straně příjemce ji zase z toho šumu vydolovat.
Vlastnosti informace
Informace lze sdělovat. To je asi nejznámější vlastnost, protože ji používáme denně.
Informaci lze replikovat. Když něco řeknu více lidem, odnáší si každý z nich tuto informaci.
Informaci lze uchovávat pomocí hmoty, nebo pomocí energie. Když něco vytesám do skály, uchovávám informaci pomocí hmoty. Stejně když si to napíšu na papír. Bude se to lišit jenom odolností proti zkáze. Když přenáším hovor pomocí telefonu, tak se šíří pomocí elektromagnetické energie. Když něco někomu říkám, tak si to ukládá do neuronové sítě svého mozku.
Informaci lze zničit. Když spálím Alexandrijskou knihovnu, tak informace tam obsažené zaniknou. Přestanou existovat. Zůstanou zachovány pouze ty informace, které byly replikovány. Například o Atlantidě se ví pouze to, že Platón říkal, že když byl v Alexandrijské knihovně, četl o tom, že Atlantida leží za Heraklovými sloupy. A to je veškerá informace, kterou o Atlantidě máme. Vše ostatní bylo zničeno.
Co se takhle trochu víc podívat na definici?
"Informace je jev, který má buď vysokou, nebo nízkou pravděpodobnost výskytu." Mluví se tu o pravděpodobnosti. Co to znamená? Už víme, že nejmenší množství informace je jeden bit. Pokud bude nepravda/ne/0 vyjádřená nulovou pravděpodobností výskytu P=0, tak máme jeden stav. Pokud bude pravda/ano/1 vyjádřená pravděpodobností výskytu P=100, tak máme druhý stav. Ale definice je obecnější. Můžeme počítat s pravděpodobností 80%, nebo 20%. Tyto pravděpodobnosti také vyjadřují určité množství informace.
Co pravděpodobnost 50%? Tak tady je zakopaný pes. Pokud má jev pravděpodobnost 50%, pak o jeho výskytu nevíme vůbec nic. Buď nastane, nebo nenastane. Obě šance jsou stejně velké. Pak se ovšem nemůže jednat o informaci.
Teď to začíná být zajímavé.
Vzpomínáte si ne entropii? Entropie je definována jako míra neuspořádanosti systému. Pokud vyjádříme entropii pomocí pravděpodobnosti, dostaneme maximální entropii při hodnotě 50%. (rovnoměrné rozptýlení hmoty nebo energie).
Entropie je však minimální, pokud je hmota maximálně neuspořádaná. Kdyby se nám povedlo vyhnat vzduch v místnosti na jednu polovinu a na druhé půlce nenechat nic, tak pravděpodobnost toho, že vzduch je na jedné půlce místnosti bude 100% a pravděpodobnost toho, že vzduch je v druhé půlce místnosti bude 0%.
Jak to bude s informací? Pro toho, kdo se bude nacházet na té blbé straně místnosti, to bude sakra hodnotná informace, kde je vzduch. Když se pak vzduch rovnoměrně rozptýlí, jak to vzduchy dělají, tak pravděpodobnost toho, že vzduch je jen na jedné půlce bude 50%. Vzduch nebude obsahovat žádnou informaci, že by ho bylo na nějaké straně víc. Hodnosta entropie bude maximální.
Najednou se nám rýsuje propojení informace s entropií. Informaci tedy můžeme definovat jako míru uspořádanosti systému. Čím je systém uspořádanější (vzduch na jedné straně), tím nese větší informaci. Vztah mezi entropií a informací je inverzní. Když množství informace roste, množství entropie klesá. Když množství entropie roste, množství informace klesá.
Další souvislosti.
Jestli si vzpomenete, tak entropie může v uzavřeném systému pouze růst. Když chceme entropii snížit, musíme dodat do systému energii z vnějšku. Co z toho vyplývá pro informaci? V uzavřeném systému, tak jak entropie roste, se informace snižuje. Chceme-li množství informace zvýšit, musíme dodat energii.
No vida to vypadá, že pokud entropie roste, a roste a roste, tak informace mizí a mizí a mizí, až při maximální entropii úplně zanikne. Když napíšu do vlhkého písku na břehu nápis „Miluju Kačenku" tak určitým způsobem uspořádám zrnka písku. Když pak tento nápis několikrát přelijí vlny, tak tato informace bude postupně mizet, ztrácet se až zůstane zase rovnoměrně rozptýlený písek. Informace byla postupně ničena až zcela zničena.
Entropie kupříkladu zničila informaci o výšce Krkonoš v druhohorách (teda za předpokladu, že tou dobou existovaly). Nyní ji sice můžeme odhadnout, ale jen s určitou pravděpodobností. Už nikdy ji nezjistíme naprosto přesně.
Zákon zničení informace.
Můžeme definovat zákon o ničení informace. Informace se působením entropie v čase rozpadá a její množství se samovolně snižuje. Informaci můžeme uchovávat v celku jen za stálého přísunu energie, který eliminuje působení entropie.
Pro zaznamenání informace musíme vykonat nějakou práci. Musíme dodat energii. Třeba psaním, nebo elektromagnetickými vlnami, nebo tesáním do skály. Když informaci nebudeme pravidelně obnovovat, nebo replikovat, tak časem umře.
A co na to vesmír?
Vesmír se propadá do čím dál, tím větší demence. Jestli jste dávali pozor tak víte, že celková entropie vesmíru může pouze růst. Nemůže se zmenšovat. Entropie vesmíru se bude zvyšovat až do té doby, než dojde k tepelné smrti vesmíru. Z toho ale vyplývá, že ve vesmíru bylo dřív mnohem víc informace. A nejvíc jí bylo v okamžiku vzniku vesmíru, kdy byla entropie minimální.
Takže přátelé, není to povzbuzující zjištění, ale vesmír nám postupně blbne.
Související články:
Entropie a pořádek
Memy a informace 1
Memy a informace 2
Rubrika: Teorie všeho | 22.01.2009, 7:58:00
super! Blbneme jak my tak vesmir ruku v ruce.
OdpovědětVymazatČetl jsem kdysi fascinující knihu Toma Stoniera: Informace a vnitřní struktura vesmíru, udělal jsem stručný výtah na http://vodnisvet.wuwej.net...Id=600. Ale nevím, jestli po těch letech bude ještě k něčemu; až budu knihu číst podruhé, budu tenhle výtah revidovat.
OdpovědětVymazatDůležitý v současné době je pojem \"asymetrická informace\". Jsou na tom založeny všechny reklamní kampaně. Někdo tu informaci má a předá ji ostatním přihnutou a očesanou tak, aby se chovali žádoucím způsobem. I v politice má metoda asymetrické informace nezastupitelné místo.
OdpovědětVymazatTomu bodu 5 o entropii ve vytahu od Wu nerozumim. Entropie vetsi nez nula a blizici se k nekonecnu? Rozumi tomu nekdo?
OdpovědětVymazatVtipně podáno. ☺
OdpovědětVymazatWu, se zájmem jsem si to přečetl. Jen na první nástřel mě zaujalo: \"Předpokládejme, že se jedná o přímou a lineární relaci (více hmoty = více obsažené informace).\" Tento předpoklad by si zasloužil bližší prozkoumání, jestli je to pravda. Nezdá se mi to až tak samozřejmé, ale pro matematické odvozování a zjišťování co z toho vyleze je logické. Další úvahy by se mohly točit kolem takzvané informační entropie (to je to, co definoval Shannon) - kterou bych zařadil do oblasti kvality informace. Ještě se mi nezdá, že vesmír může skončit ve stavu maximální informace a ztotožnění informace s čistou energií. Ale jinak se mi to zamlouvá, i když bych si potřeboval víc promyslet vztah informace a práce, kteréžto se mi nějak nelíbí, ale nevím proč.
OdpovědětVymazatratko, Dík. To na co se ptáš, je ten inverzní vztah mezi entropií a informací. Když je informace = 0, pak je entropie = nekonečno a obráceně. Já nejsem tak kategorický, takže používám slova minimální a maximální pro stejné vyjádření.
@Teo, dík za doplnění. Zařadil bych to někam do kvality informace. Jen dodám, že to přišlo z ekonomie a za teorii asymetrické informace byla udělena Nobelova cena v roce 2001. Normální řečí to znamená, že všichni nevědí všechno stejně. Takže ti, kteří toho vědí víc mohou ovlivňovat ty, kteří toho vědí míň. Hlavně to znamená, že by bez asymetrické informace nemohly fungovat spekulace na vzestup a pokles cen a nefungoval by trh.
Milane, dík.
diky Vlado :o) Uz chapu.
OdpovědětVymazatTen předpoklad je nejjednodušší možná funkce, možná proto - třeba nechtěl do populárně vědecké práce dávat složitější odvození. Ale máš pravdu, čekal bych růst větší, než jen lineární, je víc možností, kombinací prvků.
OdpovědětVymazatVesmír ve stavu maximální informace a ztotožnění informace s čistou energií mi nevadí, je to takové pěkné dotažení do konce.
Kdybys měl nějaké konkrétní otázky, mám knihu v polici na dosah ruky :).
Wu, taky mě napadla exponenciální funkce vzhledem ke složitosti, ale ještě jsem uvažoval nad nějakou nespojitou skokovou funkcí, závislou na složitosti. Ekonomie má například poznatek, že firmy do 10 zaměstnanců jsou efektivnější, když všichni umí všechno. Nad touto hranicí je efektivnější specializace (sekretářka, odbyt, obchod, technologie, výroba). Také v biologii je plno jednobuněčných organismů, ale odhaduji, že bude asi málo málobuněčných organismů, vzhledem k hodněbuněčným.
OdpovědětVymazatV biologii je to asi pozorovatelne. Soliterni bakterie, posleze jiz spolupracujici jednobunecne ci mnoho bunecne prvoky (rasy) Slozitejsi prvoky se jiz spojuji do retezcu a kolonii. Vytvari kolonie kde odumira vnejsi cast a chrani zivou vnitrni. Porad delaji vsichni vsechno. Kdy dojde k prvni delbe prace? Predani pravomoci jinym bunkam a podrizeni se zajmum celku.
OdpovědětVymazat[10] něco na tom bude, vždyť i Stonier sám připomíná i kvarterní struktury složitých bílkovin - od určitého počtu se objevuje další úroveň informačního obsahu.
OdpovědětVymazatMožná trochu odbočím, a okomentuji ti ještě minulý článek. Ale jelikož máš stať o informacích, tak jako by to sem také patřilo. Chci tě jenom informovat, jakým způsobem se dá též vysvětlit, jak se k nám vloudila ta zápaďácká krize.
OdpovědětVymazathttp://www.bomba.cz...otecni-krize/
Četla jsem. Pěkný. Teď ještě prozkoumám ten WuWejův výtah..... pak si to nějak budu rovnat v hlavě.
OdpovědětVymazatAle zarazila jsem se na samotné definici informace. Ta tvoje je dobrá, ale nějak se mi nezdá ještě není celá. Nelíbí se mi ani jedna z navržených v odkazu. Přemýšlím, ale nevím, jestli nemám někde chybu. Koukni, Vláďo:
Informace je projev (základní atribut?) hmoty (nehmotný?) - jakákoli hmota - dejme tomu atom, kde elektrony se nějak pohybují a ještě mají spin a ještě u toho cosi vyzařují - se takto projevuje, projevuje vlastně to uspořádní, a na tom uspořádání záleží, co to vlastně je a zase ta hmota generuje? obsahuje? podléhá? informaci vyššího řádu - třeba na úrovni molekul - a dál a dál - moc úrovní.... až k myšlence. Základ je ale stejný a zachytitelný ve dvojkové soustavě.
Jestli ona ta informace by se nedala s tím uspořádáním nakonec ztotožnit - když je teda inverzní k entropii.
Myslím, že na té definici hodně záleží. Já ji potřebuji k pochopení všeho (Všeho). :-)
Lenka: nejenom hmoty; i vlnění (energie) nějakou informaci může nést. Také proto se tu s ní zachází odděleně.
OdpovědětVymazatElizo, dík za připomenutí. Tuto scénku znám z doby, kdy ještě nebyla známá celková velikost škody a ještě nevznikl popisovaný dominový efekt. To jen potvrzuje, že se vědělo o příčinách, ale ještě se nevědělo, že to bude takový průser. Je velmi ilustrativní, pravdivá a navíc je to velká legrace.
OdpovědětVymazatLenko, intuitivní chápání informace je takové, že by měla dávat smysl a měla by být pokud možno překvapivá. To je smysluplnost, a očekávatelnost. Myslím, že tohle ti v té definici chybí. Tento pohled je však úzce antropocentrický. Já to mám zařazené do kolonky kvalita informace. Smysluplnost informace je teoreticky zpracována Shannonem. Shannon zavádí pojem informační entropie. Asi nejlépe by se to dalo vyjádřit tím, že ze všech kombinací znaků tvoří požadovanou informaci ta, která nám dává smysl. Ostatní je informační entropie (informační šum). Očekávatelnost informace je pak něco jiného. Pokud je informace neočekávaná, tak tato znalost může způsobit změnu chování. To je předmětem ekonomického výzkumu a myslím, že se tím zabývá i biologie.
OdpovědětVymazatObecně se však má za to, že pojem informace je mnohem širší, takže na základě matematického vztahu, byla ztotožněna entropie a informace. Toto ztotožnění pak vede k informační fyzice (výtah knihy od Wu) a dále to pak vede, jak jsi správně usoudila k závěru, že informace se rovná složitost. Myslím, že v tomto případě by se měla informace definovat jako \"popis složitosti a stavu systému\". To \"a stavu\" je podle mě důležité. Nicméně popis pomocí entropie považuji za nejobecnější.
Wu, snažil jsem se přijít na to, proč se mi některé pasáže z výtahu knihy nelíbí. (Když pominu sebestředný vladocentrismus, kterému se nelíbí nic, co nevymyslel sám.) Moje podvědomí mě varovalo, že to není až tak konzistentní, jak se zdá. O jedné věci jsme již diskutovali. Druhá věc je spíš metodická a záležitost konzistence teorie. Není mi jasné, s čím konkrétně autor informaci ztotožňuje. Jednou to je vztah k entropii, podruhé je to energie, konkrétně potenciální energie. Například domyšlení příkladu s míčem pak vede k závěru, že za změnu entropie v informaci může gravitace. To je sice možné, ale pak by chtělo prozkoumat, jestli je gravitace v nějakém vztahu k informaci i v jiných případech. Také uvažovaný konec vesmíru v maximální informaci je (asi) založen na lineární extrapolaci. Mohlo by to však také skončit v nějakém stavu dynamické rovnováhy. Také mi není jasné, jak by to zlikvidovalo celkovou entropii vesmíru, když ta může jen růst. To, co popisuje, by mohlo nastat pouze lokálně. Také bychom mohli dojít k závěru, že když energie a hmota jedno jsou (prostřednictvím vztahu e=mc2) tak sjednocení informace a energie znamená, že hmota, energie a informace jedno jsou, což však asi nebude pravda.
OdpovědětVymazatDruhá připomínka je spíš systémová. Zatím to vypadá, že entropie a informace jsou jedno a to samé. Ve chvíli, když definujeme oba stavy zvlášť a každý zvlášť zkoumáme, pak můžeme dojít k absurdním závěrům typu \"tma je rychlejší než světlo\" http://vlada.bloguje.cz...vetlo.php
Lidé s oblibou vytvářejí nová slova pro popis určitého stavu systému, které z fyzikálního hlediska nemají smysl. Třeba světlo/tma hluk/ticho teplo/zima. Přitom tma je nepřítomnost světla a fyzikálně nemá smysl. Stejně ticho je nepřítomnost zvuku a zima je nepřítomnost tepla. Stejně mohu definovat, že informace je nepřítomnost entropie. (Teď jen zjistit jestli je to pravda.)
Tím neříkám, že je to špatně. Jen mi to připadá nekonzistentní, hodně hypotéz jen tak nahozených, některé v rozporu. Už tak je drzost, že kritizuji něco, co jsem nečetl a vím o tom pouze prostřednictvím výtahu.
Oprava 17: \"míra složitosti a stavu systému\"
OdpovědětVymazatad 15: ano, samozřejmě (myslela jsem hmotu i energii)
OdpovědětVymazatad 17: Přemýšlela jsem o tom celém bohužel tolik, až mě z toho hodně rozbolela hlava, takže jsem nemohla číst ten výtah z knížky..... je to pro mě všechno hodně náročná abstrakce.
Zatím tedy jenom poznámku:
Tebou navržená definice \"popis (míra) složitosti a stavu systému\" - proč složitosti? nelíbí se ti termín uspořádání?
Třeba tuha a diamant - obsah stejný, jiné uspořádání, výsledek hodně odlišný.
Proč by to nemohl být třeba \"popis uspořádání a stavu systému\" - přičemž uspořádání je míra pravděpodobnosti výskytu?
Je to blbý?
Vlado, mam z toho vykladu taky podobny pocit. I pri nejlepsi snaze se mi tam porad nektere veci smesovaly dokola. Informace s entropii. Nejdriv ze jsou inverzni pak najednou nikoliv. Je tam toho vic. Muze informace zmizet?
OdpovědětVymazatNapisu na papir informaci. Aby informace probehla (zasahla do organizace siystemu) musi byt v soucinnosti tyto prvky. Vysilac (co to vysle) medium (co to nese) prijimac (co to precte) Pokud je tento retezec zachovan tak informace bezi. Dokud dojde, k preruseni tak informace mizi. neni.
Vemu treba DNK. Musi byt nositel DNK, aby tato informace mohla zasahnout do systemu vne organismu musi dojit k prenosu (vajicko a spermie) a k prijmu (zarodek anarozeni) Kdykoliv dojde k preruseni procesu tj. clovek nema deti dojde i k zastaveni prenosu TETO informace. A je nenavratne (navzdy) ztracena. Jine informace se samozrejme mezitim prenaseji vesele dal :o))
Podle me to nijak nesouvisi sentropii, ani se zakonem zachovani homoty (kulecnikova koule) Informace se proste ztrati, kdyz neni umoznen jeji prenosa zaroven znicen vysilac (nosic) teto informace.
Prenost a metoda zachovani informace je rozhodujici pro dalsi vyvoje organismu (sytemu a spolecnosti) Je nositelem rozvoje.
OdpovědětVymazatMiliardu let se pry vyvijely bakterie, ktere nemely chranene jadro DNK, informace se v nich sirila ruzne chaoticky a vtvarela tuzne struktury, Ktere se taky ruzne (chaoticky) replikovaly. Kdyz doslo k zapouzdreni informace (jeji ochrane) doslo taky k vyvoji vyssich druhu, protoze se informace neztracela. Zustavala zacovana pro dalsi a dalsi repliky.
Podobne je to i s prenosem a zachovanim informace ve spolecnosti. Informace pres media ma samozrejem mene urcujici vliv jako DNK :o)) ale vliv ma a replikuje urcite chovani systemu. Podobne i tradice a vlivy v ramci rodiny. Rec, literatura. To vsechno jsou informace ktere se replikuji do dalsich a dalsich generaci. Kdyz dojde k preruseni, vsechno co bylo zmizi. Takhle zmizely cele civivilizace, jejichz informace se jiz nedokazaly zreplikovat. Zmizely na vecnost. Vyhorela knihovna. Informace se nezreplikovaly zmizely na vecnost. Domorody kmen zmeni svuj zivotni styl, zmizi na vecnost.
Informace nenavratne mizi pokud neni zreplikovana,pokud si nevytvori svuj cyklus opakovani a vkladani do dalsich a dalsich iteraci.
Velice se omlouvam, pokud jsem nektere uvahy zopakovala. Sama si to v hlave tridim.
Lenko, \"míru\" tam chci mít kvůli tomu, aby to šlo vyjádřit v informačních jednotkách (bitech) \"složitost\" vytváří podvědomý dojem, že čím je to složitější, tím víc informace. Konkrétně tuha - uspořádání mřížky šesterečné, diamant - uspořádání krychlové. Šesterečný krystal = 12 atomů, krychlový krystal = 8 atomů, závěr šesterečné uspořádání je složitější tudíž nese víc informace. (už jen kvůli tomu, že má o třetinu víc atomů k dispozici). Když dodáme \"stav\" vybroušení krychlové soustavy diamantu do osmistěnu, tak ten má 6 atomů.
OdpovědětVymazatDá se dá předpokládat, že čím složitější systém, tím víc popisu třeba k popsání = víc informace. Slovo uspořádání se mi prostě nelíbí, protože uspořádání může být jak jednoduché, tak složité.
ratko, s tvým popisem jsem naprosto v souladu. Jednou z opomíjených vlastností informace která dlouho unikala pozornosti a přišla až s rozvojem biologie, je replikace. Pokaždé, když je informace sdělena, je replikována - vznikne její nová identická kopie. Informace na straně odesílatele zůstává a příjemce dostává identickou kopii. To pak vede k Dawkinsovi \"Sobecký gen\" a dále k memům a memetice/memologii (Blackmorová, Dawkins).
Jinak s entropií to souvisí tím, že když dojde k destrukci nosiče informace a informace se ztratí, dojde ke zvýšení entropie tím, že se bývalý nosič informace stane méně uspořádaným (vzduch v celé místnosti).
Wu, Pokud vezmu závěrečné shrnutí, tak proti tomu nic nemám. S tvrzením, že informace = složitost souhlas. S funkcí termodynamické nepravděpodobnosti taky, protože to znamená inverzi entropie. A že je třeba ke generování informace práci je OK, protože když něco zaznamenáme, tím uvedeme soustavu do vyšší uspořádanosti (entropie klesne).
OdpovědětVymazatAle pořád mi z toho vychází vztah typu světlo/tma a dosazením informace za entropii do rovnic dostanu pouze inverznost (logickou negaci). To neznamená, že by se tím nedalo zjistit něco nového, jen si musím pamatovat, že vlastně zkoumám entropii, která se teď akorát jmenuje jinak.
Další úvahy pak jsou jen hypotetické, protože nevíme (já určitě ne), jaký tvar má informační funkce a to likviduje další odvozování hned na počátku.
Jinak Shannon zavedl pojem entropie, který ovšem musel být změněn na \"informační entropie\" protože to není TA entropie. Shannonův přístup se dá považovat za antropocentrický (informace nám musí dávat smysl). Bohužel to nevyhovuje už jen v případě, že odesílatel a příjemce hovoří různými jazyky, natož pokud se jedná o mravence. Ale kybernetika a číslicová technika zkoumání informace začaly. Další rozvinutí přišlo z biologie a ekonomie (to bych nazval živocentrismu) a inverzní vztah informace a entropie je nejobecnější. Bohužel v celé té oblasti je velký zmatek, protože když se řekne informace, tak každý tím myslí něco jiného.
Ještě mám dojem, (z data publikování) že k dalším publikacím nedošlo proto, že někdy tou dobou zveřejnil Dawkins svůj příspěvek k teorii informace (memy).
Nesedi mi to. Ani ty memy mi moc nesedi. Informace jako termodinamicka nepravdepodobnost? A kde je interpretace?
OdpovědětVymazatInformace je nesmyslnou zmeti zvuku, nebo pocmaranym nesmyslnym papirem, nebo kusem kovu (CD) dokud chybi interpretace (replikace) Tama mi to s tou inverzni entropii nejake nesedi. jednou je to kus zmatecnych cmaranic a jednou treba zachrana celeho sveta (kdyz je tam kod kterym se vypne odpalovaci system rakety)
ratko, ta interpretace, neboli \"smysl\" informace omezuje její význam na konkrétní zdroj - cíl, což v případě lidí může být návod na vypnutí sekvence výbuchu, ale v případě mravenců je to maximálně předmět, který je třeba přelézt. Takže uvažovat informaci jen a pouze v určitém kulturním/biologickém/ekonomickém kontextu vede vždy k určitému omezení. Jediné obecné vyjádření je přes entropii. Informace nám nemusí dávat smysl, třeba z důvodu, že nerozumíme chemické řeči mravenců a nevíme co to znamená.
OdpovědětVymazatPokud chceme zkoumat smysl, tak informatika a kybernetika. Pokud chceme zkoumat změny chování v důsledku překvapivosti informace, tak ekonomie a biologie. Ještě lze informaci považovat za regulační řídící člen ve zpětnovazebních obvodech, ať už technických (kybernetika), biologických, nebo ekonomických.
brala bych ten regulacni ridici prvek (at jiz ve smyslu pozitivnich nebo negativnich zpetnych vazeb) Pozitivni zpetna vazba znamena prakticky replikaci. negativni jeji vyladeni. Stridanim dochazi k vyvoji. Negativni vazba ladi na optimum. Pozitivni replikuje dokud to jde (dokud se nezarazi o zed)
OdpovědětVymazatratko, dobrý výběr. Jen bych upřesnil, že záporná zpětná vazba vede k oscilaci okolo nějaké rovnovážné hodnoty, a kladná vede k exponenciálnímu růstu (kladnému či zápornému). Ovšem replikace informace pak musí probíhat tím, že se informace na výstupu zreplikuje znovu na vstup, takže se jedná o systém, kde informace běhají kolem dokola a tak regulují chování systému. Zpětnovazební systémy ještě musí mít paměť, kde se uchovává minulý stav. Bude ti to tak vyhovovat?
OdpovědětVymazatMilý Vladimíre, Vaše texty mne svou hustotou neustále tlačí do kolen a začínám mít dojem, že budu navždy zatlačen do asfaltového chodníku :) Nevím, jak přesně vyjádřit svou spřízněnost a souznění, ale nezbývá než zešílet s vámi. Možná dnes amožná zítra. Koncepty lidské mysli jsou tak zábavné, že není před nimy úniku. Člově by nejraději spočinul v poklidu, ale mysl si nedá pohov a neustále bude vymýšlet skrze hlavu Vladimírovu krásné kokotinky. Doufám, že vás neunepokojí poznámka, že mysl je jen zdrojem všech výmyslů a že to podstatné stojí za ní. Možná, asi? Kde se berou Vaše myšlenky? Odkud přichází inspirace? Co když jsem jen elektrickými spotřebiči, skrze které působí elektřina? Co když já pindám coby spotřebič X a vy budete reagovat jao spotřebič Y? Energie skrze nás procházející je - tao, atman, buh ...
OdpovědětVymazat... a ještě jsem si vzpomněl na Vladimíra Boudníka, co to hnal přes \"sílu presu\" a který měl to štěstí, že o tom všem podal zprávu Bohumil Hrabal. Já jsem připraven podat zprávu o Vás, ... bude-li to třeba :)
OdpovědětVymazatUzasny :-)
OdpovědětVymazatZoltane, děkuji za uznání. Doufám, že se vám povedlo se vykopat z chodníku. Nerad bych aby, síla těchto textů někomu bránila v pohybu. K vaší spotřebičové teorii jen tolik, že pokud jsou naše jednotlivé projevy řízeny nějakou entitou, tak nezbývá než konstatovat, ze znalosti lidské komunikace, buď že je tato entita dost výrazně porouchaná, nebo se jedná o ženu. Pouze ženy jsou totiž schopné paralelního zpracování více úloh a většinou to také nedává smysl.
OdpovědětVymazatRoji, zdravím.
Hmmm, pěkné. Až na to, že je to přesně naopak: Informace roste s roztoucí entropií. Ten příklad s psaním do písku a vlnama je taky blbě, protože samostatnej system je jenom ten písek a vlny jsou z vnějšku vstupující zásah. Pokud by ho vlny neomývali, postupně by se zrnka zvětráváním rozpadla, tj písku by se snižovala entropie a logicky - žádný zrnka = žádnej nápis = žádná informace... ;-)
OdpovědětVymazatradile, je to přesně naopak, než tvrdíte. Maximální entropie je ve stavu maximální uspořádanosti. To je například, když se vyrovnají teploty, nebo když se plyn rovnoměrně rozptýlí, nebo když písek udělá jednolitou vrstvu, kdy je jedno zrnko jako druhé. To, co popistujete je stav maximální neuspořádanosti, neboli tyč je různě teplá na obou koncích, plyn je nahromaděn na jedné straně, v písku jsou vyryté rýhy, lze chápat jako písmo. Maximální Uspořádanost nenese informaci žádnou. Vnější zásahy s tím nemají nic společného.
OdpovědětVymazatMaximální Uspořádanost nese informaci o maximální uspořádanosti.Řekl bych, že vše jest informace, dokonce i bla, bla, bla jest informace, mnohem více zajímavá diskuse by byla o tom, co informace není.
OdpovědětVymazat