5 PERICOLE URIAŞE CARE AR PUTEA DISTRUGE DEFINITIV OMENIREA

De cele mai multe ori, cînd ne gîndim la viitor ne gîndim la copiii şi nepoţii noştri, sau, în cel mai fericit caz, la generaţiile care vor trăi peste cîteva sute de ani. Nu îndrăznim să ne aventurăm cu gîndul mai departe în viitor, să ne imaginăm omenirea peste 1.000 sau 10.000 de ani şi poate că această reţinere nu este chiar nejustificată. Specia noastră ar putea să dispară la un moment dat, în urma unei catastrofe şi există mai multe scenarii posibile în acest sens.

Futurologii sînt cei care se gîndesc la viitorul civilizaţiei noastre şi caută soluţii pentru posibilele scenarii apocaliptice care ar putea trece specia umană în rînd cu dinozaurii – printre speciile pierdute, dispărute definitiv, în urma unui cataclism.

Nu vorbim de scenarii de film, ci de pericole reale, pe care experţii de la Future of Humanity Institute, din cadrul Universităţii Oxford, le studiază cu maximă seriozitate.

Acestea se încadrează în categoria de „risc existenţial”, adică un pericol care ameninţa viitorul întregii omeniri. Aici, futurologii preferă să folosească termenul „omenire/umanitate”, fără referire directă la specia noastră, Homo Sapiens, care ar putea în timp să evolueze şi astfel să devină o altă specie.

Aceste pericole nu sînt foarte numeroase, iar cele mai multe ţin chiar de invenţiile noastre – futurologii menţionînd mai ales nanotehnologia, războiul nuclear sau inteligenţa artificială scăpată de sub control.

Interesant este însă că tot această tehnologie avansată, care ne-ar putea distruge, ne poate şi salva în cazul unor pericole venite din exterior. De exemplu, pe viitor vom putea probabil preveni impactul cu un asteroid sau vom pune capăt unei pandemii care ne-ar ameninţa specia.

Anders Sandberg, de la Future of Humanity Institute din cadrul Universtăţii Oxford, a prezentat cîteva din cele mai mari ameninţări pentru omenire.

1. Războiul nuclear. Dacă ne amintim de Războiul Rece şi de Criza Rachetelor Cubaneze, un război nuclear nu pare chiar improbabil. Istoria relaţiilor dintre Statele Unite şi Rusia este plină de tensiuni şi erori, iar şansele declanşării unui asemenea război sînt de aproximativ 1 la 1.000 în fiecare an, spune Sandberg.

Desigur, în cazul unui război nuclear vor fi sute de milioane de morţi, dar nu va dispărea întreaga specie umană. Ceea ce ar putea duce la dispariţia întregii omeniri este iarna nucleară, care ar urma după un asemenea conflict. Simulările făcute pe calculator au demonstrat că în cazul unei schimbări a climei produsă în acest fel, agricultura va fi distrusă şi miliarde de oameni vor muri de foame. Supravieţuitorii vor suferi de boli cumplite, iar finalul acestui scenariu este greu de prevăzut chiar şi de către futurologi.

2. Pandemia. Virusurile care se găsesc în natură nu pot provoca o pandemie care să distrugă întreaga omenire. Unele persoane sînt imune la aceşti agenţi patogeni, iar urmaşii supravieţuitorilor vor deveni rezistenţi la boală. În plus, evoluţia nu permite de obicei paraziţilor să-şi ucidă toate potenţialele gazde, iar un exemplu este sifilisul, care la început era mortal, dar s-a transformat apoi într-o boală cronică. Dar oamenii ştiu acum să modifice aceste microorganisme şi le pot face mai periculoase, le pot transforma în arme biologice. Experimentele au demonstrat că gripa aviară poate deveni mai contagioasă prin modificarea unor gene ale virusului care o provoacă. Biotehnologia devine tot mai accesibilă, astfel încît unele grupări vor putea să creeze singure agenţi patogeni care să provoace o pandemie. Un caz concret este cel al sectei AUM, care a vrut să folosească arme biologice pentru a declanşa Apocalipsa.

3. Inteligenţa artificială. Pentru că inteligenţa este cea care ne-a ajutat să evoluăm, este firesc ca oamenii de ştiinţă să caute soluţii pentru a folosi în continuare acest atuu. Este vorba de medicamente care ne-ar putea spori capacitatea cognitivă, sau chiar de forme de inteligenţă artificială care ne-ar putea fi de folos. Există însă o problemă serioasă: entităţile inteligente ştiu foarte bine cum să-ţi atingă propriile scopuri, iar dacă aceste scopuri sînt greşite, atunci va urma un adevărat dezastru, precizează Sandberg. Este foarte posibil ca o formă superioară de inteligenţă să nu vrea să respecte regulile noastre morale sau pur şi simplu să nu le poată înţelege. Inteligenţa artificială poate evolua extrem de repede, dar foarte diferit de cea biologică. Prin urmare, este foarte greu să estimăm acum modul în care va evolua această formă de inteligenţă şi ce probleme sau riscuri pot să apară.

4. Nanotehnologia. Nanotehnologia este domeniul în care s-au înregistrat cele mai mari progrese în ultimii ani şi este foarte util în multe alte sfere ale ştiinţei. Dar, la fel ca în cazul biotehnologiei, cu cît ştiinţa este mai avansată cu atît este mai mare riscul de a se comite abuzuri. Desigur, nu vorbim de riscul apariţiei unor nanomaşini care se vor copia la nesfîrşit şi vor devora totul în calea lor, aşa cum vedem în filme. Pericolul real este altul – nanotehnologia poate ajuta la fabricarea foarte rapidă a armelor, care vor ajunge să fie pur şi simplu „printate”. De asemenea, pot fi inventate arme suficient de mici şi precise care pot „căuta” anumite victime sau care pot controla o întreagă populaţie.

5. Necunoscutul. Cu siguranţă, cel mai neplăcut gînd este că undeva, acolo, există ceva necunoscut, care ne va fi fatal şi habar nu avem ce este sau cum ar putea fi oprit. Astfel, futurologii aduc în discuţie problema Marelui Filtru, a unei necunoscute care provoacă dispariţia marilor civilizaţii. Această necunoscută ar explica de ce nu am descoperit pînă acum civilizaţii extraterestre. O posibilă variantă e că acestea au dispărut, pentru că asta este poate soarta tuturor civilizaţiilor avansate. Anders Sandberg a omis intenţionat din lista acestor pericole cu risc existenţial impactul cu asteroizii sau încălzirea globală. Oricît de mari ar fi pagubele pe care aceste fenomene naturale le-ar produce, este puţin probabil ca specia noastră să dispară complet. Mamiferele au găsit mereu o soluţie pentru a se adapta la aceste schimbări, iar oamenii nu vor face excepţie.

Prin urmare, factorii naturali de risc sînt mai puţini periculoşi, spune el. Totuşi, în cazul umor emisii de raze gamma care provin din explozia unei supernove nu ne vom putea apăra, dar aceste eveniment este foarte puţin probabil. În prezent, cea mai mare ameninţare pentru umanitate vine din partea unui potenţial război nuclear, adaugă Sandberg.

Surse: Aeon Magazine, Popular Science, Existential Risk