Goldsmith, Edward: The Way. An Ecological World-view (Boston, MA : Shambhala, 1993) 2. függelék Szilágyi Zoltán fordítása [ Rich Text formátumban, tömörítve letölthető. ] MI AZ INFORMÁCIÓ? Az a kifejezés, hogy "információ" - tudományos kontextusban - a Claude Shannon és Warren Weaver nevéhez fűződő Információelméletre vonatkozik, amelyet 1948-ban fejlesztettek ki. Azóta számos más, az információra utaló elmélettel álltak elő, de olybá tűnik, hogy ezek nem sokkal többek az eredeti elmélet apróbb módosításainál. A tudósok köreiben egyébként sem nyertek el általános elfogadtatást. Ezeket, kiegészítve legnyilvánvalóbb hiányosságaikkal, Everett Rogers és Lawrence Kincaid vette számba. Shannon és Weaver mindketten a Bell Telephone cégnek dolgoztak, amikor kidolgozták az elméletüket. Alapvető vizsgálódásuk arra vonatkozott, hogy miként lehet az "információ" mennyiségét, nem csak a jelek számát, maximalizálni és olyan kommunikációs csatornán továbbítani, amely korlátolt kapacitású. Megfelelőnek találták úgy meghatározni az információt, hogy az mérhető legyen Ludwig Boltzmann entrópia mérési matematikai képletével. Ennek megfelelően az információt egyenlővé tették az entrópiával, azzal a különbséggel, hogy míg az entrópia nem más, mint adott energiaszinten lévő molekulák legvalószínűbb elhelyezkedése, addig az információ azt hivatott kifejezni, hogy adott üzeneten belül miként helyezkednek el a jelek; eközben mindkét esetben - a Termodinamika Második Törvénye, avagy az entrópia törvény szerint -, a valószínűséget egyenlősítették a véletlenszerűséggel. Nehéz megérteni ezt az elvet annak felismerése nélkül, hogy a kommunikációs mérnök számára a véletlenszerűség (tehát a jelek megjelenési sorrendjéből hiányzó bármiféle szervezettség és kötöttség) egyenlő azzal a szabadsággal, amellyel kiválasztja az elküldendő üzenetet magát, és ebből következően azt a sorrendet, amelyben a jeleknek meg kell jelenniük, hogy szakmai igényei kielégítést nyerjenek. A véletlenszerűség, avagy entrópia, eszerint számára az "ideál", és pontosan emiatt, az ő céljainak megfelelően, az információ legmagasabb szintjeivel kell, hogy azonosuljon.
Azok a kötöttségek, amelyek Shannon és Weaver nézete szerint csökkentik ezen választási szabadságot (és ennek megfelelően az üzenet információtartalmát is) nyelvi természetűek. Minden nyelvnek megvan a sajátos struktúrája, vagy szervezeti felépítése, amelynek alapján megjósolhatjuk, hogy bizonyos szavak több-kevesebb valószínűséggel mely más szavakat fognak követni. Ebből következik, hogy "azután a három szó után, hogy "abban az esetben", igen nagy valószínűséggel a "ha" szó fog következni, és meglehetősen csekély esély van arra, hogy az "elefánt" szó legyen az utána álló". Az ilyen jellegű nyelvi korlátok úgy csökkentik az üzenetek információtartalmát, hogy az üzenet küldőjét olyan jelek használatára kényszerítik, amelyeket nem jószántából, hanem az üzenet megfogalmazásához használt nyelv struktúrájában rejlő szabályosságok miatt kénytelen igénybe venni. Ezeket a jeleket fölöslegesnek mondjuk, és elmondható, hogy minden nyelvnek mérhető a beépített redundanciája, az angol nyelvé például mintegy 50 %-ra tehető. Mindebből következőleg az is igaz, hogy minél magasabb fokú a szervezettség, azaz alacsonyabb az entrópia, annál nagyobb kell, hogy legyen a kötöttség is, tehát minél magasabb a redundancia mértéke, annál alacsonyabb lesz a létrehozható információtartalom. Egy üzenet által tartalmazott információmennyiséget úgy tudunk meghatározni, ha kiszámítjuk a választások számának (kettes alapú) logaritmusát. Azt, hogy az eredményt "bitek" formájában alakítsuk ki, először John W. Tukey javasolta, mint a "binary digit" (kettes számrendszerbeli számjegy) rövidítését. Amidőn a számokat a kettes számrendszerben kívánjuk kifejezni, mindössze két számjeggyel dolgozhatunk, ezek az egyes és a nulla. Szimbolikus értelemben ezek kifejezhetnek bármely két egymástól eltérő választást is. Azokban a helyzetekben, amikor csupán két lehetőség közül választhatunk, az információ egy bitjéről beszélünk. Minél nagyobb számban szerepelnek szabad, korlátoktól mentes lehetőségek, annál nagyobb az információ mennyisége is. Amikor például 16 lehetőség közül ugyanolyan szabadsággal választhatunk egyet, akkor 4 bitnyi információról beszélünk. Minél nagyobb szabadságot élvez az üzenet küldője a küldésre szánt üzenet összetevő jeleinek kiválasztásában, szükségszerű, hogy annál nagyobb lesz annak a valószínűtlensége, hogy egy bizonyos jelet el fog küldeni. Ennek illusztrálására feltételezem, hogy a Shannon és Weaver féle "információ" figyelembe veszi a "jelentést" is. Így az az üzenet, amely közölte velünk, hogy a Zöld Krokodil nevű paripa fogja megnyerni azt a lóversenyt, amelyben 16 olyan másik ló áll rajthoz, amelyeknek nem ismerhetjük vérvonalát, mi több, teljesen ismeretlen a várható formájuk is (elméletben természetesen azonos nyerési esélyekkel rajtolnak), négy "bites" információt tartalmazna. Abban az esetben, ha valamit tudnánk vérvonalukról és formájukról, és ha ezek alapján minősíteni tudnánk őket arra nézve, hogy milyen nyerési esélyekkel vágtáznak majd, az iménti információt tartalmazó üzenet alacsonyabb értékű lenne. Ha az egyik lóra azonos pénzekkel fogadnának arra gondolva, hogy egy-a-kettőhöz a nyerési esélye, akkor az az üzenet, amely azt közli velünk, hogy nyerni fog, még kevesebb információt tartalmazna, tulajdonképpen nem többet, mint egy "bitnyit" - azaz ugyanolyan mennyiségű információt, mint ha Zöld Krokodilnak mindössze egyetlen másik lóval kellene megküzdenie a jelenlegi tizenöt helyett. Ez nyilvánvalóan igen ésszerű módja az üzenet információtartalmának meghatározására, legalábbis a kommunikáció oldaláról nézve. Minél több "bit" van egy üzenethez társítva, annál értékesebb kell, hogy legyen az adott információ. Ez mindenképpen igaz az említett példa esetében, különösen arra nézve, hogy a fogadó és a bukméker egyaránt jól jár vele. A valóságban ez nem egészen így megy, minthogy Shannont és Weavert sem érdekli, hogy egy állítás igazságának, vagy nem igazságának mekkora a valószínűsége, vagy valószínűtlensége. Ez ugyanis az episztemológus gondja, nem pedig a kommunikációs mérnöké. Az utóbbit még az állítás, vagy akár egy-egy szó valószínűsége, vagy valószínűtlensége sem foglalkoztatja, pusztán a kibocsátott konkrét jeleké, attól függetlenül, hogy ezek a jelek érthető szavakat alkotnak-e, illetve hogy ezekből a szavakból értelmezhető mondatok jönnek-e létre, avagy sem. Más szóval a kommunikációs mérnökök szempontjából az üzenet információtartalma nem veszi figyelembe annak jelentését. "Az információt nem szabad összetéveszteni a jelentéssel", ahogy írják, azzal folytatva, hogy "a kommunikáció szemantikai aspektusai érdektelenek a mérnöki szempontból". Ez azt jelenti, és ezt nem haboznak elismerni sem, hogy szakmájukon belül az "információ" szó jelentése alapvetően eltér az adott nyelvben szokványos módon használtétól. A Shannon és Weaver féle elméletnek alapvető fontosságú az a része, amely szerint az üzenet elküldésekor annak információtartalma csökken. Ennek az az oka, hogy miközben az üzenet valamilyen csatornán keresztül eljut céljához, aközben könnyebbé válik a konkrét jelek előfordulási valószínűségének, vagy valószínűtlenségének kiszámítása. A nyelvi szervezettséget épülőfélben lévőnek tekintjük, ahogyan a redundanciát is, és ez azt jelenti, hogy az "entrópia" és az "információ" ennek megfelelően csökken. Egy másik ok arra, hogy miért csökken szükségszerűen az üzenet információtartalma elküldése folyamán az, hogy az információs csatornák "zajnak", avagy "véletlenszerűségnek" vannak kitéve. Természetes, hogy a zaj növeli a bizonytalanságot, vagy valószínűtlenséget. Azt gondolhatnánk, hogy ezáltal megnövelt (semmint, hogy csökkentett) információhoz vezet; azonban Shannon és Weaver különbséget tesznek a zaj által okozott bizonytalanság, amelyet nem kívánatosnak tartanak, illetőleg a kívánatos bizonytalanság között, ez utóbbit a "választás szabadságával" és ebből következően az információval tesznek azonossá. Éppen ezért egy üzenet információtartalma nem egyenlő a bizonytalansággal, hanem a "kívánatos" és "nem kívánatos" bizonytalanság, azaz zaj közötti különbséggel. Az a tény, hogy az entrópia és az információ méréséhez használatos egyenletek azonosak, igen nagy jelentőséggel bír Shannon és Weaver elméletében. Rámutatnak, hogy Sir Arthur Stanley Eddington számára "az a törvényszerűség, miszerint az entrópia mindig növekszik, tehát a termodinamika második törvénye, szerintem a természet törvényei között a legmagasabb helyet foglalja el." Eszerint, ahogy Shannon és Weaver megjegyzik, amikor a mérnökember "szembe találja magát az entrópia koncepciójával az információelméleten belül, jogos fokozott izgatottsága, jogos azon az alapon, hogy lehetséges, hogy olyasvalamire gyanakszik, amely alapvetően fontos." Az Információelmélet egy másik, a tudós szemet oly nagyon gyönyörködtető szempontja, hogy mennyiségben gondolkodik. Azonban ahhoz, hogy a mérhetőség megvalósulhasson, amint Michael Apter is rámutat, tudnunk kell a bármely időpontban továbbítható lehetséges üzenetek pontos számát. Ez persze könnyedén ismerhető a kommunikáció terén, de sokkal nehezebb tudni akkor, amikor viselkedésről beszélünk. Pontosan ez okból kifolyólag hívja fel a figyelmet Louis Brillouin arra, hogy
Akárhogyan is legyen, egy olyan passzív információforrás (akár rendet, akár rendetlenséget mutat) gondolata, amelyből az üzeneteket egy külső tényező választja ki, az élővilágban fellelhető dolgok egyikéhez sem fogható. Azok a természetes rendszerek, amelyek a bioszféra egészét alkotják dinamikusak, nem pedig statikusak, aktívak, nem passzívak, s mi több, önmagukat szabályozzák, és nem kívülről (heterarchikusan), valamiféle külső tényező, mint például egy kommunikációs mérnök által. Az élővilágban az információ forrása és az üzenet elküldője tulajdonképpen ugyanazon önszabályozó rendszer szerves alkotó elemei. Azonban amennyiben megpróbáljuk integrálni a Shannon és Weaver féle üzenetküldőt és az üzenetek forrását egyazon rendszeren belül, akkor annak fel kell hagyni minden entrópikus jelleggel, hiszen az entrópia egyik alaptulajdonsága, hogy véletlenszerűséget, tehát céltalanságot mutat, miközben az üzenet elküldője céltudatosan cselekszik, hiszen, amint láthattuk, csak azokat az üzeneteket válogatja össze, amelyek minimális redundanciát és ennek megfelelően maximális információt tartalmaznak. Ráadásul ha a rendszer arra törekszik, hogy a lehető leghatékonyabban érje el a célját, akkor a benne fellelhető információnak úgy kell rendeződnie, hogy a cél elérése szempontjából a legkedvezőbb legyen. Ezt magabiztosan meg is tudjuk jósolni az élővilágban tapasztalható információ minták, vagy cybernizmusok (agyvelő, gének, genomok, génállományok, stb.) elrendezéséről felhalmozódott empirikus tudásunk alapján. Újabb megfontolás, hogy a valószínűtlenség azon fajtája, amelyről Shannon és Weaver írnak, nem igazán hasznos elképzelés a bioszféra működésének megértése szempontjából. Shannon és Weaver szerint ugyanis a valószínűtlenség vagy a valószínűtlenség szembe állítása az entrópia törvény működésével, amely, mint láttuk, nem érvényes az élő szervezetek világában, vagy pedig valószínűtlenség a valószínűség elmélet alapján, amelyeket tévesen azonosnak vesznek. Az élővilágban a valószínűtlenség, amennyiben ragaszkodunk ehhez a koncepcióhoz, a valószínűtlenség és a rendszer modelljét, vagy a környezetével kapcsolatos elképzelését állítja szembe. Ez tükrözi az ő, illetve kulturális csoportjának (ha emberállatról van szó) valamely konkrét célra vonatkozó tapasztalatait, továbbá fajának tapasztalatait is, és ez nem lehet más, mint a rendszer stabilitásának biztosítása a környezetéhez képest, és ezáltal a túlélést. Ezért amint evolúciós fejlődésen esnek át az élő szervezetek, kifejlesztik annak lehetőségét, hogy meg tudják különböztetni egymástól a különféle környezeti szituációk egyre nagyobb körét, hogy ezeket helyesen tudják értelmezni, továbbá hogy ennek megfelelően legyenek képesek adaptálódni. Egy egészen egyszerű felépítésű szervezet, a Vénusz légycsapója, amely igencsak elbűvölte még a nagy Darwint is, két dolgot tehet, amikor valami beleesik virágcsapdájába: vagy összezárja szirmait, vagy nem. Ezt persze a különbségtevés teljesen minimális képességével teszi, hiszen nem tudja megkülönböztetni a csapdába pottyanó rovart egy hasonló helyzetbe kerülő kavicstól. A skála túlsó végén az ember áll, aki a különféle jelek hatalmas tömegét tudja kezelni, mi több, helyesen értelmezni. Épp ezért rendelkezésére igen nagy számú adaptív reakció áll. Ha mindezt lefordítjuk Shannon és Weaver nyelvezetére elmondhatjuk, hogy az ember képes magas valószínűtlenségi fokkal kezelni a hozzá érkező üzeneteket, azaz magas információtartalmat tud ezek mellé rendelni, akár több ezer információ bitet, szemben a Vénusz légycsapója által kezelt egy bittel. Az a könnyedség, amellyel egy élő szervezet üzeneteket tud kezelni úgy tűnik, hogy annak függvénye, hogy azok mennyire lényegesek, vagy milyen mértékben vonatkoztathatók viselkedési formáira, valamint annak is, az egyed, illetve az általa képviselt faj tapasztalatai szempontjából, hogy az üzenet valóban befogadást nyer-e. Más szóval az agyban és az idegrendszerben tárolt információk nem véletlenszerű elrendezésben helyezkednek el, így aztán nem mutatnak entrópiát; sőt, ennek éppen az ellenkezőjeként magas fokú szervezettséget mutatnak, hasonlóan mindazon információkhoz, amelyeket a bioszférán belüli természetes rendszerek használnak (ilyenek például a genetikai információk halmazai). Amennyiben az információ, legalább részben, attól függően van elrendezve, hogy milyen mértékben válhat szükségessé, akkor azok a rendszerek, amelyek olyan védett környezetben élnek, ahol csak valószínű dolgok fordulhatnak elő, szükségszerűen adaptív reakciókkal kell, hogy reagáljanak a kellőképpen szűkített körű különbözőséget mutató környezeti szituációk előfordulására. Azok viszont, amelyek már kevésbé védett környezetben élnek, ahol tehát lényegesen kevésbé valószínű dolgok adódnak, szélesebb skálájú és még valószínűtlenebb környezeti helyzetekre kell, hogy reagáljanak adaptív módon. Ennek megfelelően olyan információkat kell, hogy felhasználjanak, amelyek nagyobb diverzitást, avagy szervezett redundanciát mutatnak. Shannon és Weaver, helyesen, a redundancia egy bizonyos mértékét hasznosnak tartják a zaj kiszűrése szempontjából. Ugyanakkor azonban más szempontból haszontalannak tartják, amennyiben az üzenet információtartalmát szűkíti az üzenet elküldőjének választási szabadsága korlátozása, és így az elküldhető üzenetek változatainak csökkentése által. Ám az élővilágban, amint fentebb már említettük, a szervezett redundanciának, más néven a diverzitásnak, pozitív értéke van. Minthogy a viselkedés alapvető szempontjainak, azaz a valószínűtlen eseményekre történő alkalmazkodás lehetőségeinek megfontolását teszi lehetővé, növeli, semmint hogy csökkentené az üzenet információtartalmát. A Shannon és Weaver féle élővilágban használt információ értelmezés kibővítésének még ennél is súlyosabb kritikája az, hogy az élőlények világában az információ, ahogyan erre már utaltam is, sokkal több a puszta valószínűtlenségnél. Ezen nézetet osztja Donald Mackay is:
Amint arra C. H. Waddington rámutat, a valós világban az információ javarészt utasításokból (programok-, vagy "algoritmusokból") áll. Ennek megfelelően a gének azért kapcsolódnak, hogy utasításokat adjanak fehérjeszintézishez. Egy génállomány arra ad utasításokat, hogy a populáció életképes része megújuljon. Az agy és a központi idegrendszer arra utasít, hogy az egyén metabolizmusa megfelelően működjék, illetve hogy a mindennapos adaptív viszonyok miként alakuljanak környezete tekintetében. Egy társadalom adaptív magatartásformáinak megfontolására annak kultúrája ad utasításokat. Ezeknek az utasításoknak csak azok a rendszerek fognak engedelmeskedni, amelyeket evolúciójuk és felnevelésük arra programozott, hogy befogadják, megértsék és elhiggyék őket. Ez igaz kell, hogy legyen az utasítások továbbítására és ebből kifolyólag az összes élő folyamat információira is, és ezen túlmenően az üzenet befogadójának arra is képesnek kell lennie, hogy az üzenet információjára reagálva alkalmazkodni tudjon. (lásd a 43. Fejezetet) A kínban lévő csecsemő sírása fontos üzenetet közvetít anyja felé, aki nem csak arra van felszerelkezve, hogy az üvöltést meghallja és megértse jelentőségét, hanem arra is, hogy hatékonyan tudjon rá reagálni. Egyébként az észlelés képességének nem lenne semmi gyakorlati előnye. Az üzenet azon minősége, amely meghatározza azt, hogy észlelhető és értelmezhető lesz-e egy élő rendszer számára nem más, mint az, hogy mennyire tud vonatkoztatni a rendszer viselkedési formáira. Mivel egy természetes rendszerben az információk hierarchikusan szerveződnek, mégpedig az általános felől a konkrét felé haladva, egy üzenet fontosságát azáltal lehet meghatározni, hogy milyen mértékben vonatkozik egy információmintában, azaz cybernizmusban fellelhető legáltalánosabb és legfontosabb információra. Ez pedig tükrözni fogja vonatkozásának mértékét a rendszer viselkedési stratégiájának legfontosabb, vagy általános fázisaira. A természetes rendszerek evolúciójuk folyamán kifejlesztik a kevésbé fontos üzenetek kezelésének képességét is. Ez lehetővé teszi számukra, hogy sokkal árnyaltabb viselkedési formákat alakítsanak ki, és ezáltal nagyobb pontossággal tudjanak adaptálódni az őket körülvevő környezethez. Ettől függetlenül a fontosabb üzenetek számukra megtartják elsődleges szerepüket. Az utolsó ok arra, hogy miért nem alkalmazható az élőlények világára Shannon és Weaver elmélete nem más, mint az, hogy ők a kibocsátás közben álló üzenet információtartalmát csökkenőnek veszik (a nyelvi kötöttségek és zaj felhalmozódása miatt). Az élővilágban azonban ennek épp az ellenkezője az igaz: ott az üzenet információtartalma kizárólag növekedést mutathat. Meglehetősen evidens, amint Waddington is kifejti, hogy egy kifejlett nyúl, amely egy mezőn körbe-körbe szaladgál, sokkal több információ "mennyiséget, vagy változatosságot" tartalmaz, mint egy frissen megtermékenyített nyúlpetesejt. Hogyan lehet akkor az, teszi fel Waddington a kérdést, hogy egy ilyetén szituációt meg lehet magyarázni "egy olyan információelmélet alapján, amelynek alapvető tétele, hogy az információ nem szerezhető meg?" Az a tény, hogy egy természetes rendszer információtartalma párhuzamosan növekszik a rendszer komplexitásának növekedésével, úgy tűnik, hogy több szakíró számára is nyilvánvaló, annak dacára, hogy még ezek a szerzők is oly módon igyekeztek megmérni egyes rendszerek információtartalmát, hogy megvizsgálták, azok mennyire bonyolultak, - pontosan a Shannon és Weaver féle információelméletre hagyatkozva. Így S. M. Dancoff és H. Quastler is kijelentik, hogy mennél nagyobb számú komponens van jelen egy rendszerben, tehát minél bonyolultabbnak mondható, annál nagyobbnak kell lennie a benne tárolt információk mennyiségének is, hiszen annál valószínűtlenebbé válik annak az esélye, hogy a rendszert komponenseinek véletlenszerű összehordása után rekonstruálni lehessen. Sajnos az, amit Dancoff és Quastler valójában mérnek, nagyjából semmilyen hasonlóságot sem mutat ahhoz a komplexitáshoz, amit a bioszférában fel lehet lelni. Ezt ugyanis nem lehet úgy lemérni, hogy egyenként összeadjuk komponens részeit, mivelhogy alapvető jellemzőit mindenekfelett, pont abból nyeri, ahogyan ezen részek összeszerveződnek. (lásd az 51. Fejezetet) Azonban Shannon és Weaver számára a szerveződés és a hozzá kapcsolódó kötöttségek sokkal inkább csökkentik, semminthogy növelnék az információtartalmat. Így, hacsak nem társítjuk a növekvő bonyolultságot a csökkenő információval, és eszerint úgy vesszük, hogy az egysejtű baktérium több információt tartalmaz, mint az emberi szervezet, Dancoff és Quastler urak kénytelenek figyelmen kívül hagyni a bonyolultság mindennél fontosabb komponensét, a szervezettséget. Nem kis jelentőséggel bír az a tény, hogy Dancoff és Quastler maguk is elismerik, hogy munkájuk mindössze "kezdetleges hozzávetőlegességeket és homályos hipotéziseket" vet fel, továbbá hogy becsléseik "módfelett alapszintűek". Ennek dacára ragaszkodnak azon álláspontjukhoz, hogy ez "még mindig jobb, mint ha egyáltalán nem lennének becsléseink". Szerintem ez nem igaz. A téves alapokra helyezett matematikai számítások, illetve a nem megfelelő feltételezések alkalmazása csak azt érheti el, - és csakis az általuk keltett nagyfokú tudományos pontosság benyomása által -, hogy az embereket tévútra terelje, valamint hogy a valós kérdések fontosságát elhomályosítsa. Igyekeztem azt bemutatni, hogy az információ kommunikációban használt elméletének az élővilágban előforduló viselkedési formákra történő alkalmazása teljességgel igazolhatatlan, akár elméleti, akár empirikus szempontból. Persze ez összességében nem is annyira meglepő, hiszen az elméletet nem ilyen célokból fejlesztették ki, mint ahogyan az entrópia társított fogalma sem erre a kérdéskörre lett kialakítva. Ez Waddington nézete is. Hangsúlyozza, hogy az információelméletet "egy konkrét folyamattípushoz kapcsolódóan fejlesztették ki, és olyan fokú korlátai vannak, amelyek módfelett nehézzé, vagy teljesen lehetetlenné teszik alkalmazását számos olyan biológiai kontextusban, amelyekben sokan megpróbálták felhasználni." Apter nagyjából ugyanezt erősíti meg. "A statisztikai megfontolásokra alapozott információelmélet", írja, "azzal foglalkozik, hogy az adatok milyen úton továbbítódnak, azonban figyelmen kívül hagyja az eközben felmerülő összes emberi tényezőt." Brillouin, amint láthattuk, szintén kritikus szemmel tekint ezen elméletnek az élővilágra történő kiterjesztésére. Ám mindezen kritikák ellenére ezek a szakírók, Apter kivételével, mégis elfogadják használatát erre a célra. Waddington például úgy érvel, hogy ez lehetővé teszi az elképzelés "átlátható megfogalmazását", bár szerintem inkább azt próbálta mondani, hogy "megmérését". Mégis felmerülhet bennünk a kérdés, miszerint milyen hasznunk származhat egy olyan elmélet mérhetőségéből, amely semmilyen formában sem vonatkozhat arra az élővilágra, amelyre alkalmazni szeretnénk? Egyetlen célja az lehet, hogy kétes pontossággal ruházzon fel egy olyan dolgot, amit a legnagyobb jóindulattal sem nevezhetünk többnek puszta fikciónál. Brillouin érvelése Shannon és Weaver elméletének kiterjesztése mellett azt állítja, hogy abban az esetben, ha az "ki tud törni eredeti, sávszélességek és modulációk által meghatározott lételeméből", akkor egy megfelelő kezdőpontról lehetne indulni, "amely általában véve is egy szerény kezdetet jelent". De miért ne hagyhatnánk az információ koncepciót "eredeti, sávszélességek és modulációk által meghatározott lételemében"? Milyen bizonyítékot ad Brillouin, vagy akárki más, amely azt sugallná, hogy az elméletet hatékonyan alkalmazhatnánk más, olyan szakterületekre, amelyekre amúgy sem volt kitalálva? A válasz, sajnálatosan az, hogy gyakorlatilag semmilyet. Éppen ellenkezőleg, az elmélet-kiterjesztés egyetlen funkciója csakis azt a célt szolgálhatja, hogy megszilárdítsa azt a tévhitet, amely szerint a viselkedés egy mechanisztikus, passzív, atomizált és véletlenszerű dolog, hiszen az elmélet pontosan ilyen jellemzőkkel ruházza fel az információ fogalmát, amelynek alapján a viselkedést is vizsgáljuk. Ez legjobb esetben is csak oda vezethet, hogy az élőlények viselkedésének legfontosabb sajátosságait, amely a fentiekkel szemben a dinamikusság, kreativitás, szervezettség és céltudatosság, ködfátyol rejtse el. Ez az elmélet, ha az élővilágra próbáljuk alkalmazni, nem más, mint a tudományos ködösítés és misztifikáció eszköze. |