Secondo Stephen Hawking ci auto distruggeremo. Per me ha ragione

In un'intervista alla Bbc, Stephen Hawking ha lanciato un nuovo avvertimento all'umanità: «Se entro mille anni l'essere umano non imparerà a domare la propria aggressività potrebbe auto-distruggersi con una guerra nucleare o batterica».

Il fisico, matematico, cosmologo e astrofisico britannico, fra i più importanti e conosciuti del mondo, noto soprattutto per i suoi studi sui buchi neri e l'origine dell'universo, ha elencato una serie di cause per le quali si potrebbe giungere alla distruzione alla razza umana e, tra esse, ha indicato quello che considera il difetto peggiore dell'uomo.

«Gli uomini continuano ad essere stupidamente aggressivi, è la debolezza umana che vorrei fosse corretta. Potrebbe avere avuto un qualche vantaggio e aver garantito la sopravvivenza ai tempi delle caverne, quando l'uomo doveva procurarsi il cibo, difendere il proprio territorio, riprodursi. Ma ora rischia di distruggerci». In particolare - sostiene Hawking - l'aggressività combinata con le capacità nucleari potrebbe significare la fine della civiltà, e forse la fine della razza umana.

Ecco: io condivido parola per parola. Sono assolutamente in sintonia con il suo pensiero e cerco con tutte le mie forze - e per quanto mi è possibile - di vivere provando ad arginare ogni forma di aggressività psicologica e fisica.

 

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

10 messaggi in questa discussione

Condivido, l'aggressività non porta da nessuna parte, gli uomini passano il tempo a ferirsi a vicenda senza pensare che ognuno di noi di vita ne ha una e ci sono delle alternative migliori alla guerra, alla distruzione e alla lotta

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Un Allieno passando di li potrbbe dire: abbiamo scoperto una nuova razza in via di estinzione, inutile invadere, passiamo piu tardi

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

E' nella natura umana quella di combattere sempre e in ogni caso....

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Mille anni? ma molti meno... 50 anni e qui non c'è più nessuno

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

concordo sul fatto dell'essere stupidamente aggressivi fra di noi... io per primo

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
43 minuti fa, alenemir ha scritto:

Mille anni? ma molti meno... 50 anni e qui non c'è più nessuno

concordo, molto prima

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
1 minuto fa, allegrafatt1 ha scritto:

concordo, molto prima

prima dei 5o anni... cavolicchia fammi vivere

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

l'essere umano nn sarebbe aggressivo se nn fosse costretto a difendersi tutti i giorni.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Inviata (modificato)

Adesso non esageriamo. Quella del prof. Hawking è un'opinione, autorevolissima, ma pur sempre un'opinione. Quello che accadrà al genere umano nei prossimi secoli non lo sappiamo. La fine del mondo, o meglio la fine dell'umanità, non possiamo affatto escluderla, anzi sarebbe presuntuoso o ingenuo illudersi che una specie vivente composta da individui mortali possa esistere in eterno. La specie umana prima o poi si estinguerà, questo è pacifico, ma non sappiamo quando né come. Ignoriamo se finiremo per autodistruggerci e se lo faremo in modo brusco o lentamente;  oppure se sarà la stessa Natura che ci ha generati a eliminarci, magari per sostituirci con una specie più intelligente o più saggia; oppure se, come paventa lo stesso Hawking, sarà una civiltà aliena, tecnologicamente molto più avanzata di noi, a farci fuori. Quest'ultima ipotesi la vedo francamente assai poco plausibile: le distanze interstellari e la Teoria della Relatività che fissa un limite insuperabile alla velocità di qualsiasi oggetto fisico ci mettono sotto questo aspetto quasi in una botte di ferro. Secondo alcuni catastrofisti una causa esogena della nostra fine potrebbe essere l'esplosione sotto forma di supernova di Eta Carinae, una ipergigante blu centinaia di volte più massiccia e milioni di volte più luminosa del Sole, situata a 7500 anni luce da noi, nella costellazione della Carena, e che dovrebbe esaurire il suo ciclo stellare tra qualche milione di anni. Tuttavia si sono osservate supernovae di stelle analoghe molto anticipate rispetto alle previsioni, quindi Eta Carinae potrebbe esplodere anche nei prossimi secoli o anni. Il collasso della stella libererà un'energia spaventosa, in particolare con l'emissione di un lampo di raggi gamma potenzialmente letali nonostante l'enorme distanza. Per fortuna questo lampo non dovrebbe puntare nella nostra direzione, a meno che un futuro moto di precessione non faccia mutare la direzione dell'asse della stella. Nel caso peggiore il lampo raggiungerebbe le parti alte della nostra atmosfera con un'energia pari a quella di 1000 tonnellate di tritolo per kmq e la ionosfera potrebbe non riuscire a schermarci dalle radiazioni. Per fortuna sembra che Eta Carinae non sia una stella singola ma almeno un sistema binario e ciò dovrebbe attenuare di molto il fenomeno: al massimo rischieremmo una lieve abbronzatura. Tra le possibili cause antropiche della nostra fine una tra le più gettonate è l'intelligenza artificiale che potrebbe sfuggirci di mano, una sorta di ammutinamento dei robot che finirebbero per ribellarsi ai programmatori e per distruggerci. Hawking prende in considerazione anche questo scenario, peraltro ampiamente utilizzato dagli scrittori e dai registi di fantascienza (vedasi per es. i vari film della serie Terminator).  A me sembra anche questo poco plausibile. Intendiamoci, le macchine attuali hanno già una capacità distruttività enorme e anche un altissimo grado di automatismo. Un drone telecomandato e armato in modo convenzionale può abbattere edifici, ponti, tralicci. Però le macchine non sono autoreferenziali, ma fanno quello che l'uomo o un software scritto dall'uomo le comanda di fare. Inoltre l'intelligenza artificiale ha dei limiti teorici precisi, che nessuna tecnologia potrà mai superare, limiti sintetizzati da Kurt Godel nella sua famosa Gibbs Lecture "O la mente umana sorpassa infinitamente i poteri di qualsiasi macchina finita, oppure esistono problemi assolutamente indecidibili anche per la mente umana (dove ambedue i disgiunti possono essere veri). Quando il campione del mondo di scacchi viene sconfitto da un computer (come capitò per la prima volta a Garry Kasparov nel 1996) non è la macchina che batte l'uomo,  ma è un esperto programmatore che batte un grande scacchista usando "stupido veloce" (la definizione sempre attuale di computer coniata da Luciano De Crescenzo). Una guerra mondiale nucleare non conviene a nessuno, sarebbe una follia senza vincitori. Personalmente la catastrofe planetaria che temo di più è quella cui potremmo andare incontro, sul lungo periodo, con i mutamenti climatici, i quali, come oramai è assodato, hanno anch'essi una causa antropica (sintetizzata dall'IPCC in un numero: il radiative forcing antropogenico). Se si sciolgono i ghiacci polari e si alza di alcuni metri il livello degli oceani, la vita per le prossime generazioni sarà davvero molto complicata e molto dura.

Modificato da fosforo31

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Certo  che  sono  d'accordo  , quando  si mette  davanti a  tutto  il  massimo  profitto a  spese  dell'ambiente  e  di territori e delle persone ormai  sfruttati all'osso non  ci  può che  essere  questa   fine.  

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Crea un account o accedi per commentare

È necessario essere registrati per poter lasciare un messaggio

Crea un account

Non sei ancora iscritto? Registrati subito


Registra un nuovo account

Accedi

Hai già un account? Accedi qui.


Accedi ora

© Italiaonline S.p.A. 2021Direzione e coordinamento di Libero Acquisition S.á r.l.P. IVA 03970540963