Úvod / Nyitóoldal
   
 
Oto Psenak  22-09-02   98  
0
Kniha autorskej dvojice vyšla pôvodne v r. 2018 pod názvom Meltdown a je prelomová v tom, ako pojednáva o zložitosti. Autori na mnohých príkladoch ukazujú, ako zložitosť a tzv. pevné spoje medzi systémami spôsobujú zlyhania v podnikaní i živote – a ako tomu predchádzať. Príklady sú vskutku pôsobivé - náhodné predávkovanie v nemocnici, softvér britskej pošty okrádajúci poštmajstrov, zámena obálok na odovzdávaní cien Oscar za rok 2017. Ale aj prepečená morka na Deň vďakyvzdania - to vśetko má niečo spoločné. Komplexitu, ktorá narástla v dôsledku prepájania systémov. Autori majú niekoľko dobrých rád, ako katastrofám spôsobených zložitosťou v našich systémoch predchádzať.  

Kniha odzrkadľuje poznanie, ktoré priniesli posledné desaťročia o tom, ako malé chyby a drobné poruchy v spojených systémoch spôsobujú synergiu, ktorá môže priviesť ku katastrofe.Nižšie citujeme z najzaujímavejśích pasáží.

Neočakávané kombinácie malých zlyhaní

Rôzne časti zložitého systému začnú neočakávane vzájomne pôsobiť, efekty malých nehôd sa kombinujú nepredvídateľným spôsobom a a ľudia nemôžu porozumieť čo sa deje. Zložitosť spôsobuje neprehľadnosť a nemožnosť predvídať ani spoliehať sa na intuíciu. K tomu prispieva i určitý spôsob organizačného chovania. Ak v situácii protrečivých informácií operátori prijmú rozhodnutie, až retrospektívne možno určiť, či postupovali správne alebo chybne.

Meranie procesov prostredníctvom nepriamych ukazovateľov

Ďalšia dôležitá otázka je meranie procesov. Autori ukazujú, že v komplexných systémoch sú k dispozíocii iba nepriame ukazovatele, ktoré je ťažké interpretovať. Hlavne ak sú niektoré nesprávne kvôli poruche meracích prístrojov.

Charles Perrow  a jeho "Normal Accidents" z roku 1984

Autori citujú Charlesa Perrowa, ktorý fenomén zložitosti skúmal na príklade mnohých katastrof v najrozličnejśích obastiach. V r. 1984 publikoval knihu "Normal Accidents" a zistil, že zložité systémy nemajú lineárnu logiku, kde jednotlivé akcie nasledujú rad za radom ako na montážnej linke. Subsystémy v zložitých systémoch sú prepojené s mnohými inými subsystémami, takže ako celok je systém neprehľadný. Kvôli prepojeniam sa chyba v akejkoľvek časti prejaví okamžite na mnohých miestach a je ťažké určiť pôovodnú príčinu. K dispozícii sú iba nepriame indikácie.

Perrow tvrdil: Nerozumieme zložitým systémom natoľko, aby sme dokázali predpovedať dôsledky malého zlyhania.

Pevný spoj

Pojem ktorý s tým súvisí je tzv. pevný spoj. Ak sú systémy dostatočne voľne spojené, systém dokáže správne fungovať i pri výpadku druhého a porucha sa nešíri katastrofálne. Ak sú naopak systémy spojené s malou vôľou a dokonca ich ani nemožno odstaviť nezávisle od seba (ako napr. jadrový reaktor) potom kombinácia akýchkoľvek drobných zlyhaní môže viesť k fatálnemu kolapsu. V matici Zložitosť vs. Tesné spojenia sa ako príklad najmenej zložitého a súčasne namenej pevne zviazaného systému uvádza pošta. Druhým extrémom je jadrová elektráreň, ktorá kombinuje zložitosť a pevné spoje. Autori tento kvadrant nazývajú "Nebezpečnou zónou" kde malé chyby spôsobujú katastrofy.

V posledných desaťročiach sme svedkami zvyśujúcej sa zložitosti a čoraz tesnejšieho prepojovania systémov. To nás smeruje do Nebezpečnej zóny. Preč sa z nej môžeme dostať znížením zložitosti a pridaním vôle spojenmým komponentom.

Táto zložitosť sa prenáśa aj do sociálnej oblasti do spojenioa ľudí prostredníctvom smartfónov a internetu. Poplašné správy a príbehy nabité emóciami a vášňami sa šíria okamžite. To voľakedy nebolo možné.

IT ako najexponovanejśou oblasť z hľadiska zložirtosti a neprehľadnosti

Autori uvádzajú príklad brokerskej firmy Knight Capital, ktorá spôsobila 1. augusta 2012 paniku na Wall Streete. Upravený software zabudli nasadiť na jeden zo serverov, ktorý naďalej fungoval podľa starého algoritmu a v interakcii s ostatnými servermi na ktorých už bežala novśia verzia softvéru, začal chrliť intervencie na burzy.
Autori ukazujú , ako sa z Wall Streetu stal komplexný systém riadený počítačmi a algoritmami s pevnými prepojmi, ktoré nahradili rozdrobené obchodovanie a osobné vzťahy.

Britský poštový systém Horizon nasadila Bristká pošta v roku 2000. Išlo o jeden z najväčších IT systémov, ktorý obsluhoval 11.600 pobočiek. Bol výnimočne zložitý a bol napevno pripojený na mnohé iné systémy. Spôsobil, že mnohí poštmajstri boli obvinení zo sprenevery, ktorú v skutočnosti nespáchali. Systém však bol natoľko zložitý a mneprehľadný, že skutočnú príčinu straty peňazí nebolo možné dohľadať. Účtovnícka firma Second Sight, ktorá neskôr chyby skúmala, došla k záveru, že tie mohli byť spôsobené neočakávaným vzájomným pôsobením okolností a tiež cielenými útokmi hackerov na bankomaty Bank of Ireland, ktorej terminály boli do systému pripojené a neoprávnené výbery z nich systém zosobnil poštmajstrom, ktorí terminály prevádzkovali.

Prípad Enron - zložitosť ako príležitosť k podvodom

Najzaujímavejśou časťou knihy je kapitola venovaná kolapsu energetického obra Enron pod vedením Andyho Fastowa. Ten využil vo svoj prospech zložitosť celku a použil eskamotérske triky a komplexné finančné štruktúry na zakrytie dlhov Enronu a nafúknutie jeho zisku a inkasovanie tučných odmien. Spolu s ním boli obžalovaní z federálnych zločinov aj riaditelia Enronu Ken Lay a Jeff Skilling i zopár ďalších.

Finančné správy Enronu boli také zložité, že nemuseli klamať. Len zmiasť všetkých neuveriteľnou zložitosťou celku. Poznali pravidlá regulovaného trhu, na ktorom Enron pôsobil, tie boli komplikované a obchodníci vedeli, ako ich zúžitkovať. Keď Kalifornia nahradila svoj regulovaný sektor energetiky voľným trhom riadeným ohromujúco zložitými pravidlami. Tieto obchodníci Enronu využívali s pomocou vymyslených obchodných stratégií s názvami ako „Tučný chlapec“ a „Hviezda smrti“.
 
Jedna stratégia využívala cenové obmedzenia v Kalifornii. Nakúpili energiu lacno v Kalifornii a predať draho v inom štáte. Manipulovali tiež s predpoveďami dopytu a svojimi zmluvnými záväzkami a zarábali bez toho, aby vyprodukovali nejakú elektrinu. Obchodníci volali do elektrární, ktoré Enron prevádzkoval, a žiadali ich zatvorenie, len aby cena vyletela hore. Tieto stratégie spôsobili výpadky a energetický stav núdze v Kalifornii a 40 miliárd dolárov navýšenia výdavkov na energie.

Enron ani týmito extra príjmami nedokázal sanovať straty v zahraničí. Tieto straty neovplyvňovali bonusy manažérov. Enron používal špeciálny druh účtovníctva, oceňovanie tržnou cenou, čo dovolilo nahradiť chúlostivú realitu plánmi optimistických finančných modelov. Budúce výnosy sa započítavali do finančného účtovníctva hneď, oveľa skôr než sa na účtoch objavili reálne peniaze.

Túto avantúru odštartoval Jeff Skilling, ktorý prišiel do Enronu z poradenskej firmy Mc-Kinsey a mal nápad zmenil Enron zo spoločnosti na dopravu zemného plynu plynovodmi na prevádzkovateľa virtuálneho trhu pre zemný plyn. Enron mal byť prostredníkom, ktorý kupuje a predáva zmluvy na dodávky zemného plynu a podobný obcho s energiami bol dôvodom požiadať o výnimku a možnosť účtovať pomocou tržnej ceny. V roku 1992 regulačný úrad súhlasil a Enron začal používať účtovanie tržnou cenou pri takmer všetkých svojich obchodoch. A keď iślo o tovary, pre ktoré ešte neexistoval trh, Enron zostavil modely na určenie „regulárnej hodnoty“ svojho kapitálu. Po spustení nového projektu si zostavila model, kolko by na ňom zarobila počas najbližších rokov či desaťročí. Enron použil zopár jednoduchých matematických vzorcov a presunul projekt do inej spoločnosti patriacej Enronu a účtoval ho v tržnej cene - ihneď zaúčtoval zisk, bez toho, aby dostal akúkoľvek platbu.

Toto zvýšilo cenu akcií a umožnilo zarobiť vedúcim, ako bola Rebecca Mark a Jeíf Skilling.
Účtovanie v tržných cenách však nezvýšilo iba zložitosť celku, ale premenilo Enron na pevne spojený systém. Tento spôsob účtovania nútil Enron k uzatváraniu nových a stále väčších obchodov. Aj malé prerušenie mohlo otriasť dôverou investorov. Nebolo možné spomaliť.

Enron však stále potreboval ozajstnú hotovosť - na výplaty, na nákup spoločností a na svoje ambiciózne projekty. Tak si požičiaval, ale musel to urobiť tak, aby pred investormi dlhy skryli. Použili zložité transakcie, napr. si najprv požičali 500 miliónov od Citibank, potom vytvorili sériu transakcií medzi spoločnosťami patriacimi Enronu a využili účtovné pravidlá, aby to vyzeralo, že pôžička bola vlastne zisk. O mesiac Enron stornoval všetky transakcie a vrátil peniaze Citibank spolu s poplatkom. Okolo roku 2000 mal Enron tisíctristo špecializovaných spoločností, ktoré používali v týchto komplikovaných obchodoch. Andy Fastow neskôr vysvetľoval „Účtovné pravidlá, bezpečnostné zákony a regulácie sú nejasné... Sú zložité... boli sme náchylní pozerať sa na zložitosť celku, jeho nezrozumiteľnosť... nie ako na problém, ale ako na príležitosť.“

No v marci roku 2001 sa kauza prevalila. Finančný predajca Jim Chanos dal tip reportérke časopisu Fortune Bethany McLean, ktorá vydala článok „Je Enron predražený?“ s podtitulkom „Je to v množstve zložitých obchodov. Ich finančné správy sú takmer nepreniknuteľné.“

V októbri 2001 Enron revidoval svoje finančné výkazy, priznal stratu miliardu dolárov, a vymazal 600 miliónov dolárov falošného zisku. Priznali že naozajstné dlhy neboli 13 miliárd ako predtým tvrdili, ale 38 miliárd, lebo zbytok prefíkane ukryli vo viac ako 1 300 spoločnostiach, ktoré Enron vytvoril na tento účel. O mesiac neskôr Enron ohlásil bankrot. Arthur Andersen, účtovnícka firma, ktorá podpisovala účtovníctvo Enronu, bola obvinená z federálnych zločinov a bola zavretá. Vyvitlo že investičné banky Citibank a JP Morgan Chase pomáhali Enronu zneužiť zložitosť celku a podviesť vlastníkov akcií. Za svoj podiel na podvode zaplatili každá cez 2 miliardy dolárov regulačným úradom a majiteľom akcii, spoločne s peniazmi, ktoré stratili samotné pri bankrote Enronu. Dvadsaťtisíc zamestnancov Enronu stratilo prácu a mnohí aj dôchodkové úspory.
Tak skončila snaha Andyho Fastowa využiť zložitú zbierku pravidiel vo svoj prospech.
Ale používanie zložitosti celku na podvádzanie otriasli aj inými firmami - Toshiba, Olympus, holandskou sieťou Ahold, austrálskou poisťovňou HIH, indickým IT gigantom Satyam.

Zložitosť spôsobená bezpečnostnými prvkami - prípad Deepwater Horizon
 
Bezpečnostné prvky majú veľké kúzlo. Zabraňujú niektorým predvídateľným chybám, a je veľmi lákavé použiť ich čo najviac. Ale samotné bezpečnostné prvky sa stávajú časťou systému, a to pridáva celku zložitosť. Ako zložitosť rastie, spolu s ňou rastie aj pravdepodobnosť, že narazíme na zlyhanie z neočakávaných zdrojov.
Známy prípad je sú poplachy pri lôžkach v nemocniciach, je ic hveľa a väčśina z nich sú falošné. Stále poplachy znemožňujú oddeliť dôležité udalosti od bezvýznamných. Je to aj proti intuícii: bezpečnostné funkcie znižujú bezpečnosť. Hromadiť ďalšie a ďalšie bezpečnostné funkcie nefunguje.

Často je to samotný zložitý bezpečnostný systém, ktorý znemožňuje efektívny zásah. Príkladom bola high-tech ropná plošina Deepwater Horizon, ktorá explodovala 20. apríla 2010 a spôsobila únik ropy do vôd Mexického zálivu. Obsluha mala strážiť 30 tlačítok bezpečnostného systému na základe podrobného bezpečnostného návodu. Ten vśak bol taký zložitý, že posádka v kritickej chvíli nevedela, ktorým návodom sa má riadiť.

Redukcia zložitosti prostredníctvom prehľadnosti - Boeing vs. Airbus
Autori na príklade Boeingu vs. Airbusu ukazujú, aké dôležité sú prehľadné ovládacie prvky. Malé joistiky na Airbusoch síce pilotom umožnia komfortne sa najesť, ale nedávajú možnosť kontrolovať čo robí kopilot, ani nie sú dostatočne intuitívne. Pri Boeingu sú pred pilotmi veľké nemotorné vidlicové riadiace páky, ktoré sú spriahnuté a pohybujú sa u oboch rovnako. Nevedia sa síce počas letu komfortne najesť a káva pravidelne končí na viazanke, ale sú jednoduché na ovládanie i sledovanie diania. Práve s tým súviseli havárie Airbusov v roku 2009 Airbus A330 a 2014 Airbus A320 - v oboch prípadoch mladší piloti spanikovali a joistiky potiahli zlým smerom. Tie nie sú spojené a kapitán nemohol zistiť čo robí kolega.

Nedostatok spätnej väzby často zmiatne i vodičov áut s automatickými prevodovkami, keď na  prvý pohľad nezistia, či je prevodovka v pozícii parkovania, v neutráli,  alebo spiatočke.
Jednoduchý pohľad na stav systému má obrovskú hodnotu. Prehľadný dizajn sťažuje spraviť nesprávnu vec a pomáha ľahšie spoznať, že sa stala chyba. Prehľadnosť znižuje zložitosť celku a poskytuje cestu preč z nebezpečnej zóny.

Sú teda spôsoby, ako zjednodušiť systémy - spraviť ich prehľadnejšími a pridať im trochu vôle. Ale má to svoje hranice, hlavne ak zložitosť a pevné spojenia sú podstatou riešení. Z nebezpečnej zóny sa nedá len tak ľahko utiecť.

V takom prípade je dôležité zmapovať riziká a všímať si varovné signály blížiacioch sa problémov.

Mapovanie rizík

Riziká sa dajú mapovať dvomi spôsobmi:
Priamou otázkou, keď respondenti v rámci brainstormingu identifikujú možné budúce riziká.
Druhý spôsob - tzv. metóda premortem - sa nepýta na riziká ktoré by mohli nastať, ale rovno predpokladá že katastrofa už nastala a spätne treba identifikovať príčiny. Ide o možný spätný pohľad - ohliadnutie, ktoré vychádza z predstavy, že sa udalosť už stala. Význačná štúdia z roku 1989 ukázala, že možný spätný pohľad podporuje našu schopnosť identifikovať dôvody, prečo nastane určitý výsledok. Keď skúmané subjekty použili možný spätný pohľad, prišli na oveľa viac príčin, a tie príčiny mali sklon byť viac konkrétne a presné, ako keď si výsledok nepredstavovali. Je to trik, kde spätný pohľad pracuje pre nás, nie proti nám.

Keď je výsledok už istý, tak ho vieme oveľa presnejšie vysvetliť - a to je tendencia, ktorú využíva premortem. Pretvára spôsob, akým rozmýšľame o príčinách, aj keď si musíme predstaviť výsledok. A premortem ovplyvňuje aj našu motiváciu. „Celá dynamika sa mení z pokusu vyhnúť sa všetkému, čo by narušilo harmóniu, na pokus nechať vyplávať na povrch možné problémy.“ hovorí Gary Klein.

Registrácia varovných signálov
Autori uvádzajú prípad kontaminovanej vody v americkom meste Flint, kde sa samospráva rozhodla v rámci šetrenia neodoberať vodu z diaľkového vodovodu, ale používať očistenú vodu z riečky. Tá však mala iné zloženei spôsobovala koróziu vodovodných potrubí a uvoľňovanie olova. Rodičia otrávených detí vysielali varovné signály, ale k dispozícii boli iba nepriamo merané ukazovateľe, vyhodnocovanie laboratórnych vzoriek trvalo týždne. Miestne úrady nemali mapu vodovodných rozvodov, určili chybný postup pri odoberaní vzoriek (nechať tiecť studenú vodu 5 min. pred odobratím vzorky), reštrikcie znemožňujúce odoberať vzorky z domácností kde ochoreli deti na otravu olovom (mali namontované vodné filtre a tie podľa pravidiel bránili any sa z danej domácnosti odoberali vzorky).

Odmietanie varovných signálov Charles Perrow vysvetľuje: „Budujeme si očakávaný svet, pretože nevieme zvládnuť zložitosť toho súčasného, a potom spracovávame informácie, ktoré pasujú do toho očakávaného. Nájdeme dôvody vylúčiť informácie, ktoré by mu mohli protirečiť. Keď budujeme náš výtvor, tak neočakávanú alebo nepravdepodobnú vzájomnú súčinnosť ignorujeme.“
Iným podobným prípadom bola havária súpravy washingtonského metra kvôli zlým snímačom na zistenie obsadenej koľaje. Inžinieri metra hneď po prvých varovných signáloch našli chybu a konkrétny problém vyriešili. Spracovali aj overovací pracovný postup a spôsob, ako identifikovať chyby tohoto typu. Ich inštrukcia sa však niekam založila a organizácia na problém zabudla. Druhý varovný signál zistili údržbári pri výmene snímačov v rámci modernizácie koľaje. Operačnému dispečingu problém nahlásili, ten zadal do systému požiadavku na opravu, ale požiadavka 5 dní len ležala v systéme. 5 dní trvlo, kým sa vyskytla kombinácia, ktorá spôsobila katastrofu - do "neviditeľného vlaku" čakajúceho na trati narazil iný vlak v plnej rýchlosti.

Deväť ľudí zomrelo, pretože systém metra bol taký zložitý, že ani nedokázal sledovať problémy, na ktoré jeho inžinieri už vymysleli riešenia, neužívalo testovací program alebo postupy práce, ktoré inžinieri vyvinuli.
V jednoduchom systéme je ľahké sledovať dôležité veci, ale v zložitom a pevne spojenom sytéme to také ľahké už nie je. V nebezpečnej zóne ani nemusí byť jasné, ktoré veci sú dôležité...

Databáza incidentov
Od Charlieho Perrowa pochádza aj idea vytvárať databázu, ktorá ponúka nepredvídateľné poznatky o chybách v systéme. Pre organizáciu to posilňuje predstavu, že niekomu záleží na včasnom poučení sa s problémov.

Základnou črtou zložitých systémov je, že nemžno nájsť všetky problémy analyticky, len tak, že o nich premýšľame. Zložitosť celku vie spôsobiť zvláštne a neobyčajné vzájomné pôsobenia, že je takmer nemožné predvídať väčšinu chýb, ktoré sa objavia. Zložité systémy, kým sa rozpadnú, vysielajú varovné signály, ktoré odhaľujú dané vzájomné pôsobenie. Systém sám dáva návody, ako klbko rozmotať.

Týmto návodom sa však často nevenuje pozornosť. Pokiaľ veci dopadnú dobre, všetci si myslia, že systém funguje dobre - a to aj vtedy, ak za úspechom stojí iba hlúpe šťastie. Toto sa nazýva skresľovanie výsledkov, keď nevidno rozdiel medzi šťastím a dobrou prácou.

Aby sme zvládali zložité systémy, potrebujeme sa poučiť z informácií, ktoré systém dáva formou malých chýb, situácií, kde katastrofe unikneme o vlások, a formou iných varovných signálov.

Niektoré organizácie sa snažia poučiť z malých omylov a tesných úspechov. Prvý krok je zber informácií - zber hlásení, kde sa uniklo o vlások, a meraní vecí, ktoré sa kazia. Druhý krok je, že zozbierané chyby treba opraviť - správy o tesných únikoch by nemali zapadať prachom v nejakej krabici prianí  a sťažností.
Tretí krok je kopať hlbšie, porozumieť a pomenovať príčinu problému.
Keď porozumieme problému, potrebujeme pochopiť, že tesné úniky o vlások nie sú náhody. Mali by sme sa o ne podeliť - buď pomocou organizácie alebo formou spravodajcu - naprieč celým daným priemyslom. Podeliť sa o chyby znamená, že chyby sú v systéme normálnou vecou a pomáhajú nám predvídať tie, ktorým možno budeme jedného dňa čeliť.
Posledným krokom je uistiť sa, že riešenia, ktoré sme vytvorili ako odpoveď na varovné signály, naozaj fungujú.
V    strede všetkého sa nachádza kultúra organizácie. „Ak zastrelíte posla, nikto vám nepovie o chybách a nehodách, ktoré sa dejú vo vašom systéme.“ Otvoreným zdieľaním príbehov nehôd alebo tesných únikov pred nimi - bez hanby alebo odplaty - je možné vytvoriť kultúru, v ktorej sa ľudia budú pozerať na nehody skôr ako na príležitosti, z ktorých sa dá poučiť, než ako na impulz k honu na čarodejnice.
Podobné zdieľanie informácií a zjednanie nápravy v organizáciách je otázkou aj firemnej organizačnej štruktúry. Ak je treba presvedčiť mnoho śéfov, prípadne ak má šéf presviedčať šéf svojho šéfa a ten svojho, je malá pravdepodobnosť úspechu.

Pr zosilnenie schopnosti firmy vśímať si a poučiť sa z varovných signálov je často potrebné uskutočnil hlboké zmeny v organizácii, vytvorenie ad-hoc tímov  apod.

Je ťažké byť odporcom. Skupinové myslenie a prirodzená snaha sa prispôsobiť

Je názov kapitoly, v ktorej si autori všimajú, že ani správne identifikovaná chyba a zjednanie nápravy nemusia priniesť rešpekt a uznanie pre aktérov, ak to protirečí skupinovému mysleniu.
Ako príklad uvádzajú životné osudy Ignáca Semmelwiesa, ktorý ako mladý lekár dávno pred objavením baktérií odhalil príčinu vysokej úmrtnosti sestonedeliek vo viedenskej pôrodnici - lekári z pitevní si nedezinfikovali ruky a nakazili matky pri pôrode. Zaviedol dezinfekciu rúk chlórom pri vstupe a dosiahol dramatický pokles úmrtí. Napriek tomu ho jeho nadriadení a kolegovia ustrkovali a obmedzovali. Vymenil viac kliník a stal sa z neho zatrpknutý a agresívny čudák, ktorý skončil v blázninci.

Je ťažké byť odporcom. Túžba po prispôsobení sa nie je v nás zakódovaná. Kto ide proti prúdu, apriori dostáva z mozgu varovanie:  nečakaj odmenu, toto neskončí dobre! Autori citujú Vasilya Kluchareva "Odklon od skupinového názoru je mozgom považovaný za trest“. Správa o chybe kombinovaná s utlmeným signálom pre odmeňovanie vytvára v mozgu impulz naznačujúci, že by sme mali upraviť náš názor tak, aby bol zhodný s väčšinou. A to aj vtedy, ak od skupiny nehrozí žiadny trest. Klucharev tvrdí: „Toto je pravdepodobne automatický proces, v ktorom si ľudia tvoria názor, počujú názor skupiny a potom rýchlo zmenia svoj názor tak, aby bol viac zhodný so skupinovým.“ Snaha o súlad s väčšinou doslova mení to, čo vidíme. A keď idú ľudia proti skupine, platia citovú cena za to, že si stoja za svojím presvedčením, „bolesť nezávislosti“. Keď ľudia podriadia názory väčśine, tak nutne neklamú, len sa podraďujú reflexu vyhnúť sa bolesti zostať osamotený.

V moderných organizáciách je odporovanie vzácnym úkazom. V zložitých a pevne spojených celkoch je ľahké nevšimnúť si dôležité hrozby a dokonca aj zdanlivo malé chyby môžu mať nedozerné následky. Takže postaviť sa, keď zbadáme problém, môže priniesť veľkú zmenu. Nie sme nastavení na odporovanie. „Naše mozgy sú skvelo naladené na to, čo si o nás druhí ľudia myslia. Zrovnávajú naše rozhodnutia tak, aby sa prispôsobili skupine,“ hovorí profesor Berns. „Z hľadiska evolúcie človeka jedným z dôvodom pre prispôsobenie sa je aj to, že pre prežitie samotné je ísť proti skupine neužitočné.“

Príklad Semmelweisa ukazuje že vyjadriť vlastné názory a odporovať  je problém, ak nikto nepočúva. Lebbo  počúvať hlas odporu môže byť rovnako ťažké ako vyjadriť svoje názory. Efekt protestu - keď sú názory odmietnuté alebo spochybňované - nie je len psychologický efekt. Na telo je vyvíjaný skutočný fyzický tlak. Srdce bije rýchlejšie a krvný tlak sa zvýši. Cievy sa zúžia, aby znížili následok krvácania z poranenia, ktoré by mohlo vzniknúť z hroziacej bitky. Pokožka zbelie a úroveň stresu raketovo vyskočí.  Je to rovnaká reakcia, ako sa prechádzať v džungli a zbadať tigra. Vzniká dilema „bojuj alebo uteč“

V nebezpečnej zóne je odpor nevyhnutný

Pri mnohých veľkých leteckých nehodách kopilot zlyhal v tom, aby sa postavil a odporoval kapitánovmu zlému rozhodnutiu. V opačnom prípade, keď kopilot pilotoval lietadlo, tento systém fungoval výborne. Keď bol kapitán znepokojený a poukázal na chyby, tak pomohol kopilotovi porozumieť zložitosti situácie. Táto dynamika fungovala však len jednosmerne.

V kleteckom priemysle existuje celý protokol ako môže kopilot alebo prvý dôstojník vzniesť námietky v piatich krokoch. Je to podobné ako keď učíme dieťa, ako nás má požiadať o pomoc.

1.    Na začiatku upútame kapitánovu pozornosť. („Hej, Mike.“)
2.    Vyjadríme obavy. („Robí mi starosti, že sa tá búrka preniesla nad letisko.“)
3.    Vyjadrite problém, ako ho vidíte. („Mohli by sme sa dostať do nebezpečného bočného vetra.“)
4.    Navrhnite riešenie. („Ešte chvíľu vydržme hore, kým sa to nad letiskom vyčistí.“)
5.    Vyžadujte jasné potvrdenie. („Je to pre teba prijateľné, Mike?“)

Posolstvom tohto programu je, že každý môže významne prispieť k bezpečnosti a každého názor je dôležitý. A ako vysvetľuje Daniel Pink vo svojej knihe Drive, tento prístup - dať ľuďom zmysel spoločného cieľa a autonómiu - je úplne najúčinnejší spôsob ako ich motivovať.

Podporovať ľudí, aby vystúpili a prehovorili v jednoduchom systéme, nemusí byť také dôležité. Zlyhania a chyby sú zjavnejšie a všimnúť si ich je pre každého ľahšie. A malé chyby tam väčšinou nevedú k obrovským katastrofám. V zložitých celkoch je schopnosť jednotlivca vedieť čo sa deje obmedzená. Ak je ten systém ešte aj pevne spojený, pochybujúce hlasy sú rozhodujúce, lebo v nebezpečnej zóne je možnosť mýliť sa jednoducho príliš veľká. V nebezpečnej zóne je odpor nevyhnutný.

Vyhnutie sa katastrofám prostredníctvom rôznorodosti

Výskumy ukazujú, že ľuďom sa pracuje komfotnejśie v homogénnych skupinách, ale takéto skupiny majú oveľa horśiu odolnosť voči chybám. Ak niekto spravil chybu, ostatní ju veľmi často skopírujú. V rôznorodých skupinách sa chyby šírili oveľa menej.
V čom boli rôznorodé skupiny iné?
V nerešpektovaní názorov iných - účastníci s iným backgroundom majú snahu spochybňovať názory ostatných a neveria im na slovo. Účastníci sú nedôverčiví.
Máme sklon veriť úsudkom ľudí, ktorí vyzerajú ako my, takže rovnorodé skupiny znižujú napätie a vytvárajú prostredie pre hladké a ľahké vzájomné ovplyvňovanie. Väčšinou to nie je zlá vec. Vedie až k prílišnému prispôsobovaniu sa bez dostatočného pochybovania. Vtedy ľahšie naletieť na zlý nápad.

V protiklade k tomu je rôznorodosť menej prirodzená a zdá sa byť nepríjemnejšia. Hrozí byť pôvodom napätia. A to nás robí viac pochybovačnými, viac kritickými a viac ostražitými, vďaka čomu sa ľahšie vyhneme chybám. Máme sklon si myslieť, že ak niekto vyzerá inak, tak aj inak uvažuje - má iné pohľady na vec, iné predpoklady. To vedie k zdravému rozhodovaniu. Môže to byť nepríjemné, ale robí nás to viac objektívnymi.
Vedci napríklad prišli na to, že spoločnosti, ktoré nemajú dostatok obidvoch pohlaví v riaditeľskej rade, sú náchylnejšie na častejšie podávanie opravných účtovných uzávierok - revízie účtovných uzávierok z dôvodu chyby alebo sprenevery...

Byť s podobnými ľuďmi je prijemné a všetko ide hladko. Je to pohodlné. Nie je tam žiadne napätie a všetko je dôverne známe. Naproti tomu rôznorodosť - diverzita sa zdá byť čudná a neobvyklá. Je nepohodlná. Ale núti nás pracovať tvrdšie a dávať tvrdšie otázky.

Outsideri

Autor uvádzajú príklad spoločnosti Theranos, ktorú založila Elisabeth Holmesová a ktorá pobláznila investorov revolučnou myšlienkou krvných testov na základe mikroodberu z prsta prostredníctvom prstového tŕňu Theranos. Z podniku sa vykľul podvod, ktorý dlho odolával kritike a bol všeobecne považovaný za veľmi perspektívny a zakladateľku považovali za vizonárku mierky Steva Jobbsa.
Investigatívny reportér z Wall Street Journal John Carreyrou na tento nadšený rozruch nenaletel. Čítal rozhovor s Holmesovou a bol prekvapený, ako nejasne rozpráva o technológii tejto spoločnosti. „Bolo tam pár kritických častí, ktoré vo mne vyvolali otázky, ale nebolo toho nejako veľa.“ Potom dostal tip, že „ohľadom tejto spoločnosti nebude všetko tak, ako sa zdá.“
Carreyrou začal zisťovať, čo sa v Theranose deje, a 15. októbra 2015 Wall Street Journal uverejnil jeho článok.
Novinári  sa Holmesovej začali pýtať, aby vysvetlila, ako jej prístroj funguje a dostávalu komicky nezrozumiteľné odpovede. Frma skolabovala a v roku 2016 nazval Fortune Holmesovú jednou „z najväčších svetových sklamaní“. Forbes prehodnotil jej predpokladanú čistú hodnotu: nula.
Iným príkladom, keď outsider  odhalil chybu je prípad programátorskej chyby v americkom väzenskom riadiacom systéme. Na chybu prišiel v r. 2012 otec jednej obete pobodania Matthew Mirante. Mirante, vodič nákladiakov pre Boeing, mal podozrenie, že zbor väzenskej a justičnej stráže sa pomýlil vo výpočte dátumu prepustenia útočníka, ktorý napadol jeho syna. Použil ceruzku a kus papiera. Trvalo mu asi päť minút, aby vypočítal dĺžku trestu a aby sa aj potvrdili jeho obavy: útočník sa dostal z väzenia o 45 dní skôr, ako mal. Najprv si zamestnanci nápravného zariadenia mysleli, že to Mirante zle spočítal. Potom dali jeho výpočty prepočítať právnikovi na generálnej prokuratúre. Výpočet bol správny.
Mnohí mohli tento jednoduchý prepočet v systéme zboru spraviť sami. Ale urobil to cudzí človek, nespútaný pravidlami organizácie alebo jej politikou.
K predčasnému prepusteniu tisícov trestancov viedla chyba algoritmu v systéme naprogramovanom na mieru. Celý systém bol „mišmašom“ niečoho, čo jeden manažér nazval „súborom k.vzájomných závislostí“. Táto zložitosť zapríčinila aj chybu vo výpočte dĺžky trestov a skryla ju pred úradníkmi zboru väzenskej a justičnej stráže, kým Mirante spravil svoj prepočet. Dôvera v systém vytvorila pevné spojenie. Nikto neprekontroloval výpočty, každý jednoducho spravil to, čo mu povedal počítač.

Cudzinci

Georg Simmel, brilantný intelektuál z Berlína konca devätnásteho storočia, ktorý kvôli židovskému pôvodu nezískal profesúru, napísal esej „Cudzinec“ v ktorej popísal zaujímavý fenomén pozorovateľa ktorý je súčasne v skupine i mimo nej a má celkom špeciálny nadhľad. Simmel tvrdil, že sila cudzincov leží v ich objektivite, vo svojich činoch nie je bmedzený zvykmi, náboženstvom alebo právom. To sú dôvody, prečo cudzinec môže pomôcť odhaliť pravdu.

Klasickým prípadom bol stredoveký zvyk, keď talianske mestá získavali sudcov zvonku, pretože každý z domácich sa mohol zapliesť do rodinných záujmov. Tento zvyk sa volal podestá, keď bol z iného mesta povolaný súdny úradník, aby slúžil ako nestranný sudca. Títo úradníci boli zvyčajne poverení len na krátke obdobie, aby si nestačili vytvoriť príliš silné miestne väzby. No keď úradoval, mal značné právomoci.

"Cudzinci" i dnes pomáhajú nám porozumieť zložitým systémom, pretože si všímajú veci, ktoré ľudia vo vnútri systému buď nemôžu, alebo nechcú vidieť. A sú ochotní pýtať sa nepríjemné otázky, ktoré udržiavajú náš systém bezpečný a čestný. A ktorý nie sú ochotní prekvalifikovať odchýlky od očakávaného výkonu za prijateľné riziko.

I v súvislosti s tragédiou raketoplánu Challenger 28. januára 1986 existovali sve správy od "cudzincov" ktoré predpovedali katastrofu, vedenie NASA ich však ignorovalo. Po katastrofe NASA nariadila svojim výskumným centrám, aby zistili, ako sa vyhnúť normalizácii odchýlky. V následnej odpovedi manažéri navrhli zapojiť cudzincov. Podobne ako stredoveké talianske mestá, ktoré si zavolali sudcov.
Rovnako sa do tímov NASA mali zaraďovať nezasvätení pracovníci, ktorí pomáhali posúdzovať riziká. 

Nezainteresovaný človek - Diablov advokát
Prístup NASA v skutočnosti nie je nový. Vytvorenie nezainteresovaného človeka v rámci skupiny je v dejinách dlho známe. Po stáročia, keď rímskokatolícka cirkev uvažovala o svätorečení nejakej osoby, bola to práca promótora spravodlivosti, viac známejšieho pod názvom diablov advokát, aby vytvoril proti návrhu kauzu a zabránil unáhleným rozhodnutiam. Promótor spravodlivosti sa nezúčastňoval rozhodovacieho procesu, pokiaľ nepredložil námietky, takže bol nezasväteným mimo tých, ktorí kandidáta prví navrhli.

Úrad diablovho advokáta i dnes funguje v mnohých organizáciách a jeho úlohou je vyhnúť sa chybám s pôsobených skupinovýmn myslením. Princíp je vynechať niektorých ľudí z procesu rozhodovania tak, aby poskytli nezasvätený pohľad naň a našli problémy, ktoré ľudom vo vnútri toho procesu mohli uniknúť.

Súčasnosť je zlatý vek kolapsov

Čoraz viac našich systémov je v nebezpečnej zóne, ale naša schopnosť ich ovládať ešte zaostáva.  Sú proti našim prirodzeným inštinktom, intuícii a sebadôvere. Chceme počuť dobré správy a cítiť sa príjemne s ľuďmi, ktorí vyzerajú a myslia ako my. No riadenie zložitých a prepojených systémov si žiada presný opak - opatrné a pokorné rozhodovanie, verejné zdieľanie zlých správ a dôraz na pochybnosti, odpor a rôznorodosť. Niekedy to znamená aj zníženie rizík za cenu obmedzenia inovácií a efektívnosti. Pridanie voľnosti do systému alebo jeho prerobenie, aby sa odstránila jeho zložitosť, môže znamenať vyššie náklady a menej kapacity.
Jasná debata o kompromisoch a použitie zložitosti celku a jeho spojenia ako základného parametra s prihliadnutím na náklady, výhody a riziká má veľký význam Ale sú aj nástroje pomáhajúce riadiť zložité systémy, ktoré nemajú negatívne dopady - štruktúrované rozhodovacie nástroje, rôznorodé tímy a normy, ktoré podporujú zdravý skepticizmus a odpor. Tieto majú sklon skôr podporiť inovatívnosť a produktivitu ako ich zadusiť...
 
 
 

The index.php: SIZE[b]: 27,706 MODIFIED: 2021.01.22 22:13:44.MD5: f5341ba7412a090aa762cfdb4916ed98 STATUS: OK  This window is : x