koffl next back Autor : Jan B. Hurych
Název : DIMENZE
Článek: NAŠE MYŠLENÍ: NA ROZCESTÍ ČI VE SLEPÉ ULIČCE?


Všimli jste si, jak často se lidé mýlí, ať už v úsudku či jen v odhadu? A to i při té záplavě informací, která se na nás hrne z knih, televize i Internetu, kdy by se zdálo, že udělat chybu je prostě nemožné! Pokud se jedná o rozhodnutí, které nespadá do naší expertízy, no prosím, to lze pochopit, ale když jde o i odborníky, ať už se jedná o vědecký výzkum nebo technický problém? Je v tom nějaká zákonitost či se jedná jen o vadu našeho myšlení, které asi nikdy nebude imunní proti omylům?

Začněme ale od počátku: přírodopisci začali nazývat naše předky podle místa nálezu jejich pozůstatků: tak vznikl člověk neandertálský, cromagnonský a najednou, z ničeho nic, je tady člověk náš, Homo sapiens, neboli člověk moudrý. Nepodezíram pány biology z nadutosti či nadsázky - šlo jim zřejmě o to ukázat, že „nám to jaksi víc myslí" než naším předkům, i když těm to asi také muselo dost myslet, což dokazují nejen jejich zbraně, ale i nářadí, keramika, kresby a podobně. Nuže dobře, přiznejme si, že jsme asi nějaký pokrok od jejich doby v myšlení učinili - ale jak to tedy přijde, že někdy myslíme docela dobře a jindy zase vůbec ne?

Tradičně pokládáme počátky opravdového myšlení asi tam, kde jsme začali používat abstrakci a jednoduchou analýzu, syntézu, dedukci a také indukci. Ale pak šel člověk ještě dál, to když si uvědomil, že stejnou či podobnou dedukci by mohl použít v různých případech a že tady tedy musí být něco, nějaká pravidla, která se nevztahují jenom na individuální případy, ale na celé skupiny případů, něco jako „zákony správného myšlení".

Tuto pansofii hledali už staří Řekové a její úlohu měla asi hrát filozofie. Od Aristotela, přejatého středověkými dogmatiky, se dostáváme k první revoluci v myšlení, kterou bezpochyby vedl René Descartes, jenž nás poučil, že autorita ještě není totéž, co důkaz a že každé prohlášení je třeba dokázat, odvodit či otestovat, podobně jako se to děje v matematice. Kromě jednoho: jen známé „Cogito, ergo sum" (Myslím, tedy jsem) je třeba brát jako evidentní, tedy něco jako axiom.

Skeptik David Hume ovšem zase kritizoval Descarta, neboť naše znalost „příčiny a následku" je prý daná jen způsobem, jakým lidé myslí a že vlastně kausalitu jako takovou nemůžeme pořádně dokázat, neboť je všechna jen výsledkem našeho pozorování. Ovšem i Hume věřil, že existuje metoda, která zavede pořádek do myšlení, to jest, abychom poznali, co je jisté a co není. Humovu skepsi zase napadl Immanuel Kant, který tvrdil, že ne všechna naše znalost je přece dána jen naším pozorováním. Také další filozofové se snažili tak či onak popřít Humeho, i když se to žádnému dodnes úplně nepodařilo. A tak bychom mohli pokračovat a čím více se blížíme dnešní době, tím více se filozofie zamotává ve svých paradoxech a víc a víc se zabývá tím, co si vlastně máme myslet, místo toho jak máme myslet.

A tak v hledání zákonů myšlení postupně zabrala místo, které si usurpovala filozofie, zase matematika, později fyzika a pak formální logika. Naděje se upírala i na počet pravděpodobnosti, symbolickou logiku a konečně přišly počítače a tam se to všecko teprve opravdu rozběhlo. Ale ruku na srdce: jak dalece nám to pomůže při řešení toho kterého konkretního problému, testování té které hypotézy nebo odhadování jistoty toho kterého tvrzení? Nebude lepší se vrátit k onomu známému „Vím, že nic nevím" ?

Chceme-li totiž udělat nějaké rozhodnuti, prověřit hypotézu či vyřešit problém, marně hledáme v příručkách nějakou obecnou metodu jak na to - tedy myslím tu, která by vás vedla krok za krokem k výsledku. A zdůrazňuji obecnou, protože řešení pro mnoho individuálních problémů tady jistě jsou, ale ne třeba pro vysvětlení úplně nového jevu či řešení nějakého neobvyklého problému. Je až s podivem, jak často se vědci nemohou na určitých věcech shodnout a jedno vysvětlení asi je, že spoléhají víc na svoje zkušenosti než na nějakou obecnou metodu myšlení. Dobrá, řeknete, ale když máme fakta, pak přece se nemůžeme mýlit! Omyl: jedna věc jsou fakta a druhá je jejich vysvětlení či příčiny. Fakta jsou jen následkem určitých zákonitostí či předcházejících činností. V systému všech možných i nemožných hypotéz je pak ovšem těžké se vůbec nějak orientovat...

Ale neberte to doslova: určitá pravidla tu pochopitelně existují, ale jsou buď příliš široká nebo zase příliš specifická. Navíc jsou dobrá jen tam, kde známe všechna potřebná fakta. Bohužel ne vždycky víme vše, co potřebujeme, nemluvě už o případech, kdy si fakta odporují, ať už proto, že jsme si je dost neověřili, nebo že prostě všechnu informaci bereme jakožto stoprocentně pravdivou. Rozhodně nemáme příliš mnoho pravidel pro odhady, spekulace a už vůbec ne tam, kde je také třeba i určité předvídavosti. A právě v těchto případech vede špatná úvaha či rozhodnutí kolikrát k značným materiálním i lidským škodám. Nepomůže ani to staré české „více hlav více ví", zvláště v situacích, kdy opravdu není s kým se poradit. Sem patří i případy, které nelze v praxi otestovat, například když se testováním změní podmínky anebo samotná situace, kterou pak nelze reverzibilně vrátit zpět.

U počítačů existuje něco, čemu se říká dry run, to když si programátor v duchu - či na papíře – nechá proběhnout svůj program, krok za krokem a sleduje výsledky jednotlivých instrukcí. Je to něco jiného než známá metoda pro debugging, kdy program běží step by step (krok za krokem) a programátor se doví jen kde to nepracuje, ale ne proč to nepracuje anebo jak to opravit. Při dry runu ten zbytek musí dodat člověk sám – pravda, jsou různé pomůcky, dokonce existují programy, které píšou jiné programy, ale o to tu nejde. Chtěl jsem jen naznačit, že pro naše obecné usuzování často právě takový dry run nemůžeme udělat, protože jednak nemáme tak jasná pravidla, jaká se používají u programovacích jazyků, jednak často neznáme - a tady se opakuju - všechny „známé", abychom mohli jednoznačně určit ty naše „neznámé".

Když se začala na univerzitách učit binární logika, byli jsme zaujati představou, že teď bude možno konečně vyjádřit naše myšlení univerzálně a vydedukovat výsledky podobně jako se v matematice používá vzorců. Ne tak docela: náš svět je trochu víc rozmanitý než jen černo-bílý (není všecko jenom lež nebo pravda) a brzy se objevila potřeba vyjádřit i další stav (jako třeba MOŽNÁ). Trochu jsem si tehdy pohrával s tříhodnotovou logikou, ale přiznám se, že mnou vyjádřené ternární De Morganovy zákony mě daleko nedostaly, díky dualitě negace, kde opak "možného" se dá nadefinovat buď jako „jisté" nebo zase třeba jako „nemožné". Také praktická aplikace tříhodnotové logiky byla a je vcelku omezená. Kdybych ovšem byl nápaditý jako Lofti Zadeh, tak už jsem tehdy mohl vymyslet fuzzy logic a být slavný (tedy až na ten název, asi bych to nazval míň fuzzy).

Až v sedmdesatých letech , kdy jsem dělal pro americkou počítačovou firmu Sperry Univac (dnešní Unisys, která postavila první počítač vůbec, zvaný Eniac), jsem prošel kurzem „Problem Solving and Decision Making" od pánů Kepnera a Tregoe. Ti na svou metodu přišli už v době, kdy pracovali pro NASA. A jak už to bývá, autoři si natolik věřili, že se osamostatnili a založili spolu konsultační firmu, která existuje dodnes a navíc je jedním z hlavních konzultantů v oblasti managementu a vědeckého troubleshootingu. Nebudu zde popisovat detaily, místo toho uvedu několik poznatků, které jsem z kurzu získal.

Především se jedná o metodu univerzální - náš training officer tvrdil, že ač ji používá hlavně v počítačovém oboru, dokázal s ní například i zjistit, proč jeho bratrovi, jinak farmáři v Texasu, umírají telata. To všecko aniž věděl cokoliv o chovu zvířat či veterinářství. Tato metoda totiž dovoluje vytvářet logická spojení různých fakt, pokládaní pertinentních otázek a tak vidět i to, co je jinak „neviditelné". Navíc se zdá, že použití hlavně praktických zkušeností vede spíše k ukvapeným závěrům (jumping to conclusion), o čemž jsem se sám na sobě přesvědčil. To možná vysvětluje, proč lidé s různou zkušeností docházejí k rozdílným závěrům. Rád bych zde popsal příklad, který značně zvýšil mou důvěru v uvedenou metodu.

Dostali jsme totiž v kurzu jednou takový „domácí úkol": zjistit, proč se u naší firmy začaly na destičkách s tištěnými spoji najednou při výrobě deformovat součástky. Byla nám dána celá story a pochopitelně, příčinou mohla být buď velká teplota při automatickém pájení nebo chemický účinek čístící lázně, která následovala po pájení. Metoda Kepner -Tregoe spočívá v tom, že se vytvoří matrice, kde na jednotlivých řádcích jsou uvedena fakta (kdo, co, kde, jak, odkdy, jak dlouho, atd.). V odpovídajících sloupcích se pak zkráceně definuje, co „má býti", „je", „rozdíl", „změna rozdílu" a konečně několik hypotéz, které se pak konfrontují s fakty, tedy zase jakýsi dry run. Specifické otázky konfrontace jsou např. „Vysvětluje hypotéza A (tj. velká teplota) bez výjimky, že se defekty začaly objevovat až od 15 května?" Pozitivní odpověď se pak označí do patřičného čtverečku jako plus, opak jako minus. Nakonec se sečtou plusy pro tu kterou hypotézu (tedy jakési obodování) a ta, co jich má nejvíc, je s největší pravděpodobností pravá příčina problému. Zdůrazňuji, že to vysvětlení musí být pravdu bez výjimky a že výsledek není jistota, ale jen největší pravděpodobnost.

Snad, že jsem byl příliš poctivý (u každé metody se totiž dá šidit, ať už vědomě či ne), ale možná, že to byla jen náhoda, dostal jsem pro obě uvedené hypotezy (tj. teplo či lázeň) přesně stejný počet bodů. Napadlo mi, že snad existuje nějaký kompromis. Ale jaký - obě hypotézy se přece navzájem vylučovaly! A tady se ukázala pravá síla té metody: přinutila mě totiž přemýšlet. Položil jsem si otázku, zda obě hypotézy přece jen nemají něco společného. Brzo jsem na to přišel: každá součástka má totiž povrch pokrytý ochrannou vrstvou, která, když se naruší, dovoluje deformaci citlivého materiálu, jenž je pod ní. To je sice známo každému odborníkovi, ale bere se to jaksi za samozřejmost. Zkusil jsem tuto třetí hypotézu a dostal jsem daleko víc bodů, než pro ty předtím.

Nemusím zdůrazňovat, že třída byla rozdělena téměř na polovic mezi oběma „starými" hypotézami, a potom já, co jsem měl tu „novou" hypotézu, která se ukázala být jedině správnou. V tom je také jádro věci: nebudete-li mít správnou hypotézu, nemužete ji jen tím formálním způsobem najít a jsou-li výsledky „obodování" příliš blízko, můžete se vsadit, že máte zrovna ten případ. To nám ovšem přednášející „zapomněl" říci předem.

Tím se dostáváme k tak zvané root cause, neboli hlavní příčině. Zda se součástky tavily či chemicky rozpouštěly, bylo v tomto případě úplně vedlejší. Teplota i lázeň byly zřejmě správně nastavené a jejich změna by k ničemu nevedla - chybné byly součástky. Později jsme se dozvěděli, že firma změnila jednoho ze tří dodavatelů součástek, takže pravá příčina byl vlastně ten nový dodavatel, ale metoda nám přesto pomohla určit „kořen zla" - a to je důležité. Je to zároveń příklad i toho, jak se celá třída specialistů nemůže dohodnout na příčině, protože si ji plete s následky.

Na vyšetřování root causes se spotřebují na světě ročně biliony dolarů a tak není divu, že se firmy i celé státy snaží hledat nové způsoby řešení problémů. Do této kategorie patří i další metody, jako je bariérová analýza, změnová analýza, dále t. zv. metoda „událost a příčina", účelová analýza, symptomová klasifikace a jiné. Jsou pochopitelně i ty sofistikovanější, které používají kombinaci grafiky a symbolické logiky, případně i počtu pravděpodobnosti, to vše pochopitelně ještě navíc za pomoci počítačů.

Další častí vědeckého troubleshootingu je ovšem rozhodnutí o korektivní akci - neboli decision making. Při posuzení nejlepšího řešení (těch je vždy několik, jinak by to bylo hrozně lehké) je třeba udělat odhad ceny, risku, praktické realizace, kompletnosti a také trvalosti daného řešení. Navíc musíme uvážit i potencionální neboli možné problémy, které řešení může přinést, neboť jak říká Murphyho kolega: „Každé řešení jednoho problému s sebou přináší nejméně dva nové problémy". Při řešení nám zase pomáhají různé metody – z nich nejznámější je ta, která každému faktoru řešení přiřadí určitou „váhu", jež se pak pro to které navrhované řešení vynásobí pravděpodobností či odhadem efektivnosti řešení pro ten který faktor. A opět, udělá se jakási suma a nejlepší řešení je na světě. Zase ovšem jen to pravděpodobně nejlepší, neboť záleží na tom, jak správně oceníte ty které váhy či pravděpodobnosti.

Prodělal jsem ještě jiné kurzy hledání root causes, a to vše bych shrnul asi takto:

• Naše zkušenosti nám někdy v dedukci pomáhají, jindy nás spíše zaslepují, specielně ty jednostranné
• Nejlepší obecná metoda je taková, kde i neodborník může najít cestu k řešení - ovšem ne zcela nutně řešení samotné
• Většinou máme data navíc, která nejsou nijak užitečná. To věci nepomáhá, neboť se začínají uplatňovat různé variance a chyby, které komplikují situaci, nemluvě už o datech vyloženě nesprávných.
• Při hypotézách se uplatní používat pravidlo Occamovy břitvy, tj. nejprve je třeba vyzkoušet ty jednodušší.
• Vždycky je potřeba předem prostudovat věrohodnost fakt, naměřených hodnot a získané informace, jinak se dostaneme do začarovaného kruhu a výsledek je pochopitelně také nesprávný
• Metoda nám sice řekne, která hypotéza je nejpravděpodobnější, ale ne, která je správná - to se dokáže jen zkouškou, což je idůležtá čast každé analýzy
• Tak či tak, hypotézy si musíme vymyslet sami a nebude-li mezi nimi ta pravá, správné řešení nenajdeme. Podle určitých náznaků (viz dříve uvedené výsledky obodování) však můžeme už před otestováním vidět, zda tomu tak je a hbitě přimyslet další hypotézu. Jak hbitě, to už zase záleží na naší praxi v tom kterém oboru, případně zkušenosti s řešením podobných problémů.
• Nemusíme uvažovat „všechny" hypotezy: také zde praxe naznačí, co je nepravděpodobné či zbytečné. Ovšem pozor: překvapení jsou možná!
• Otestování v praxi je nejlepší a často jediné spolehlivé měřítko správnosti naší hypotézy.

Od zjištění, která hypoteza je správná, přejděme teď k tomu, co předchází: jak vlastně tyto hypotézy dáme dohromady. Tady většinou samotná fakta nepomohou vůbec, zkušenost jenom trochu a jistě pomůže i určitá dávka intuice či inspirace, jinak řečeno creative thinking. Také tato část myšlení dělá současným vědcům, inženýrům a manažerům potíže a to možná ještě větší než samotná dedukce: jinak řečeno „komu není shůry dáno, v apatyce nekoupíš". Ovšem i tady zase existují kurzy, knihy a tréninkové metody. Zvláštní kategoríí jsou pak ty pomůcky, které slouží specielně pro výcvik pravé poloviny mozku, ano, té, která má být sídlem inspirace a která údajně u umělců pracuje lépe, než u lidí, uvažujících příliš „logicky".

Nebudu posuzovat něco, co jsem důkladně nevyzkoušel, ale znám detailně například metodu Edwarda De Bono, skvělého konzultanta a autora mnoha knih, včetně termínu „laterární myšlení ®". Po stránce organizace dat, zaměřené na jejich plošné a grafické znázornění (namísto lineárního) mi nejlépe sedí „mind maps ®" od Tony Buzana, který také tento termín vynalezl. Taková mapa se pak liší od lineárních outlines, jako jsou třeba poznámky z přednášky, hlavně tím, že nejen vyjadřuje hierachii jednotlivých bodů, ale i jejich spojitost a navíc přímo vyvolává další asociace či evoluce.

Účinnou metodou je například tvoření nových pardigmat (včetně reverzace těch starších), či jiné methody kreativního myšlení, z nichž každá má jistě něco do sebe. Ale to by byl dlouhý seznam a pokud jsem tu některé vynechal, není to proto, že bych je podceňoval, ale proto, že jsem neměl příležitost je příliš používat. Pro vlastní potřebu si vypracovávám také své vlastní asociačně-inspirační diagramy, ke kterým jsem se propracoval vlastní metodou a jejichž „skeletonové" formuláře a grafy jsem si navrhl.

S příchodem počítačů se objevily, anebo našly širší použití, i jiné metody. Dříve již zmíněná fuzzy logic (FL) dnes dokonce proniká i do regulačních a kontrolních systémů, kde nahrazuje archaické řešení regulačních obvodů methodou „ladění" (tj. hledání optimálních konstant pro proporcionální, derivační a integrační členy). Na rozdíl od klasické metody, kde se konstanty během přechodového jevu nemění, fuzzy logic je měnit může, takže při změně vstupní funkce nebo parametrů zátěže se systém nemusí pracně „přelaďovat", stačí jen aby proběhl trénovacím cyklem. To ovšem znamená, že se dotyčný obvod musí přitom také něco naučit. V této „vyšší" kategorii jsou totiž stroje, které se opravdu umí učit (learning systems), což je někdy těžké i pro člověka.

Mezi tyto systémy pak zahrnujeme například neural networks (NN), které využívají principů, na kterých pracují mozkové neurony člověka. Jak dalece vlastně napodobují práci neuronů, to je těžko říci, neboť typů NN je několik a stále přirůstají. Na rozdíl od dnešních, dalo by se říci již klasických počítačů, neurony provádějí různé operace ve společném elementu, tj. neuron má v sobě logiku i paměť. Jejich hlavní použití je tam, kde mají optimizovat systémy, které se nedají reprezentovat formulou, rovnicí či grafem, čili kde existují proměnné, jejichž zákonitosti dobře neznáme. Údajně už dělají NN dobrou práci při odhadu tendencí na burze a pomáhají i při jiných předpovědích. Do této kategorie patří i systémy s genetickým algoritmem (GA), okoukaným od pana Darwina, jak i sám název naznačuje. A pochopitelně existují i kombinace těchto FL, GA či NN, račte si vybrat. Také paralelní počítače nám stále ještě jaksi mají ukázat, co dovedou.

Tím to pochopitelně zdaleka nekončí a jistě nás čeká i mnoho překvapení. Nejnovější práce se snaží navázat na teorii, že mozek vlastně pracuje holograficky, t.j. že nelze dost dobře najít lokaci určitých dat v lidské paměti, že jsou jaksi rozprostřena. Vyrobíme-li totiž holografický obraz, třeba na fotografické desce, a tuto rozbijeme na malé střípky, každý ten střípek obsahuje celou, kompletní informaci. Také studie, které porovnávají způsoby myšlení obou polovin mozku, jsou přinejmenším zajímavé…

Ale to už jsme se dostali do oblasti umělé inteligence (artificial intelligence). Pravda, termín inteligence je poněkud nejasný, už proto, že ho nikdo nechce ani definovat. Ne že by šlo o jistý druh skromnosti (ten kdo ví, co vlastně inteligence je, musí být sám jistě svrchovaně inteligentní, ne?), ale hlavně si nechceme zavírat vrátka, když víc a víc poznáváme, co všecko se vlastně může považovat za projev inteligence. Můj osobní názor je, že kromě lidské inteligence existuje ještě jiná, ne tak zřejmá, mezi jinými i genetická, jako jsou třeba instinkty. Nevadí, že zvířatům samotným jaksi inteligenci nepřiznáme; jejich instinkty jsou přesto jakousi zděděnou Velkou Pravdou, která jim pomáhá přežít a dokázat něco, na co my bychom sami potřebovali třeba právě ty počítače. Kdyby například šestiletý školák dokázal uplést pavučinu tak rafinovaně a optimálně jako pavouk, jistě bychom jeho činnost považovali za inteligentní. Pravda, u člověka by to ovšem nebyl instink, ale výsledek složitých myšlenkových procesů či postupů.

Umělá inteligence kdysi začínala t.zv. expertními systémy (ES), kde počítač za pomoci fakt a pravidel, kterými jsme ho (vlastně ti experti) zásobili předem, dokázal uvažovat jako odborník, tj, prováděl lékařské diagnozy, hledal naftu a podobně. Jeho činnost spočívala v tom, že se uživatele programu ptal na fakta, podle odpovědí mu pak dával další, specifické otázky a nakonec provedl rozhodnutí. Program měl jednak svou databázi, jednak pravidlovou bázi (rulebase) a odvozovací logiku (inference engine). Ta pravidla byla někdy daná jenom logikou, jindy vzorcem, někdy jen pravděpodobností anebo zkušeností (rule of thumb). ES systémy se množily, ale svoji užitečnost vyčerpaly prakticky velice brzo. To je totiž tak: programy mohly být koneckonců jen tak dobré, jak dobří byli experti, kteří je vytvořili a někdy bylo lepší a levnější najmout si přímo experta. Také proces IF-THEN, používaný u ES, vytvářel dost složité logické stromy a navic byly programy příliš specifické, takže např. ta veterinářská diagnostika se nehodila k ničemu jinému než právě k veterinářské diagnostice.

Kdysi se dokonce prohlašovalo, že PROLOG (v Evropě a Japonsku) či LISP (v Americe ) jsou „inteligentní" jazyky. Pravda, Prolog je object language a jeho inference engine je přímo zabudována v něm, což je jistě výhoda, ale jeho použití je opět vázáno na to, jak kompletní máte databázi fakt - chybí-li vám nějaká fakta, nemůžete nic spolehlivě odvodit. V takovém případě mají lepší výsledky NN či počítačová simulace (samozřejmě jen pro rozumně veliký soubor proměnných), případně metody Monte Carlo, teorie chaosu a jiné vymoženosti moderní matematiky a fyziky. A nezapomenňme ani na umělý život (artificial life), to jest ty softvérové kompozice, které mají charakteristiky živých tvorů, včetně rozmnožování (např. počítačové virusy) a doufá se, že časem přijdou i na svůj způsob myšlení, který bude rozdílný od toho našeho, v neposlední řadě i tím, že bude prý i „lepší".

A jsme opět na začátku, ale i zároveň i na konci tohoto velikého kruhu. Zdá se, že složitost našich zájmů a tomu odpovídající komplexnost našeho myšlení se nedá nahradit nějakým jednoduchým návodem, jinak řečeno, kamenem mudrců. A i když si prý Einstein vzal svůj unifikovaný vědecký systém s sebou do hrobu, pro praktické potřeby řešení každodenních problémů by stejně nebyl příliš užitečný. O to tady ostatně ani nejde. Jedno je jisté: naše myšlení se rozhodně nenachází ve slepé uličce a o užitečné metody myšlení není nouze. Jde spíše o to, jak a kdy tu kterou metodu s úspěchem použít.



<4>