Život na Zemi zanikne. Naděje je v cestě do vesmíru, říká Stephen Hawking

3. říjen 2016

Stephen Hawking se bojí. Stephen Hawking varuje. Stephen Hawking hrozí. Takovými slovy začínají titulky většiny článků o geniálním britském fyzikovi, které v posledních letech s železnou pravidelností zaplavují světová média. Hawking už o hrozbách, kterým lidstvo čelí, mluví řadu let. Naposledy se k zániku planety vyjadřuje v knize Jak vyrobit vesmírnou loď amerického novináře Juliana Guthrieho.

Zatímco dřív Hawking varoval třeba před tím, abychom nezkoušeli zkontaktovat mimozemšťany, nebo před prováděním některých fyzikálních pokusů, teď už ve zmíněné knize říká, že zánik života na Zemi je stoprocentně jistý. I když nevíme, jestli lidstvo vyhladí jaderná válka, zmutované viry nebo právě cizí mimozemská civilizace, tak je podle něho stoprocentně jisté, že něco z toho se prostě stane.

Záchrana v cestě do vesmíru

Na druhou stranu, podle Hawkinga pořád existuje naděje a lidstvo by jí mělo věnovat veškerou svou energii. Naděje je ve stavbě vesmírné lodi a cestě do vesmíru. Lidstvo musí ideálně kolonizovat nějakou z planet Sluneční soustavy, nebo planetu v blízkém hvězdném systému.

Dlužno dodat, že Hawking není sám, kdo tuto představu sdílí. Známým popularizátorem cest do vesmíru je třeba miliardář Elon Musk. Ten minulý týden představil svůj plán vesmírné lodi, která doveze stovku lidí k Marsu. Na rozdíl od Muska ale Hawking nečeká, že bychom s kolonizací cizích planet začali v následujících desetiletích. Mluví spíš o potřebě inspirovat nadcházející generace, které podle něj musí chápat, proč je důležité létat do vesmíru.

Elon Musk

Pozor na umělou inteligenci

Je ale otázka, jestli se lidstvo něčeho takového vůbec stihne dožít, protože Hawking varuje před celou řadou i poměrně bezprostředních a zanedlouho možná i aktuálních hrozeb. V nedávném rozhovoru s americkým moderátorem Larry Kingem třeba zmínil, že lidstvo by se mělo mít na pozoru před umělou inteligencí. Konkrétně před takzvanou technologickou singularitou.

„Jakmile stroje dosáhnou bodu, kdy se samy dokáží zlepšovat, nedokážeme odhadnout, zda jejich cíle budou stejné, jako naše. Umělá inteligence má potenciál vyvíjet se rychleji než lidstvo. A my potřebujeme jistotu, že umělá inteligence bude navržená eticky a s nějakou záchrannou brzdou,“ říká Hawking.

Tři minuty do apokalypsy

Do hrozeb pro lidstvo ale Hawking zahrnuje i environmentální problémy. Ve zmíněném rozhovoru s Larry Kingem řekl, že největší nebezpečí je podle něj v současnosti znečištění ovzduší a poškozování životního prostředí. Ostatně, k lidstvu je Hawking obecně hodně kritický. Před lety třeba řekl, že lidé se zničí sami svou chamtivostí a hloupostí. Opakovaně taky varuje před nebezpečím nenadálé jaderné války nebo epidemií geneticky modifikovaného viru.

Hawking v takových vizích není osamocený. Můžeme zmínit třeba projekt Hodiny soudného dne, které podle vědců ukazují čas za tři minuty dvanáct, tedy tři minuty do apokalypsy. Přitom ještě na začátku devadesátých let mělo lidstvo podle vědců víc než čtvrt hodiny. Odborná veřejnost se bojí hlavně globálního oteplování a modernizace jaderných arzenálů.

autor: ono
Spustit audio