L'intelligenza artificiale distruggerà davvero l'umanità?
Gli avvertimenti arrivano da tutte le angolazioni: l'intelligenza artificiale rappresenta un rischio esistenziale per l'umanità e deve essere incatenata prima che sia troppo tardi.
Ma quali sono questi scenari di disastro e in che modo le macchine dovrebbero spazzare via l'umanità?
La maggior parte degli scenari di disastro inizia nello stesso posto: le macchine supereranno le capacità umane, sfuggiranno al controllo umano e si rifiuteranno di essere spente.
"Una volta che abbiamo macchine che hanno un obiettivo di autoconservazione, siamo nei guai", ha detto l'accademico di intelligenza artificiale Yoshua Bengio a un evento questo mese.
Ma poiché queste macchine non esistono ancora, immaginare come potrebbero condannare l'umanità è spesso lasciato alla filosofia e alla fantascienza.
Il filosofo Nick Bostrom ha scritto di una "esplosione di intelligenza" che dice accadrà quando macchine superintelligenti inizieranno a progettare macchine proprie.
Ha illustrato l'idea con la storia di un'intelligenza artificiale superintelligente in una fabbrica di graffette.
All'intelligenza artificiale viene assegnato l'obiettivo finale di massimizzare la produzione di graffette e quindi "procede convertendo prima la Terra e poi pezzi sempre più grandi dell'universo osservabile in graffette".
Le idee di Bostrom sono state respinte da molti come fantascienza, anche perché separatamente ha sostenuto che l'umanità è una simulazione al computer e ha sostenuto teorie vicine all'eugenetica.
Di recente si è anche scusato dopo che è stato portato alla luce un messaggio razzista che ha inviato negli anni '90.
Eppure i suoi pensieri sull'intelligenza artificiale sono stati estremamente influenti, ispirando sia Elon Musk che il professor Stephen Hawking.
Se le macchine superintelligenti devono distruggere l'umanità, hanno sicuramente bisogno di una forma fisica.
Il cyborg dagli occhi rossi di Arnold Schwarzenegger, inviato dal futuro per porre fine alla resistenza umana da un'intelligenza artificiale nel film "The Terminator", si è rivelato un'immagine seducente, in particolare per i media.
Ma gli esperti hanno spazzato via l'idea.
"È improbabile che questo concetto di fantascienza diventi realtà nei prossimi decenni, se non mai", ha scritto il gruppo della campagna Stop Killer Robots in un rapporto del 2021.
Tuttavia, il gruppo ha avvertito che dare alle macchine il potere di prendere decisioni sulla vita e sulla morte è un rischio esistenziale.
L'esperta di robot Kerstin Dautenhahn, della Waterloo University in Canada, ha minimizzato queste paure.
Ha detto ad AFP che è improbabile che l'intelligenza artificiale fornisca alle macchine capacità di ragionamento più elevate o le infonda il desiderio di uccidere tutti gli umani.
"I robot non sono malvagi", ha detto, anche se ha ammesso che i programmatori potrebbero fargli fare cose malvagie.
Uno scenario meno apertamente fantascientifico vede "cattivi attori" che usano l'intelligenza artificiale per creare tossine o nuovi virus e scatenarli nel mondo.
Modelli di linguaggio di grandi dimensioni come GPT-3, che è stato utilizzato per creare ChatGPT, risultano essere estremamente bravi a inventare nuovi orribili agenti chimici.
Un gruppo di scienziati che utilizzavano l'intelligenza artificiale per aiutare a scoprire nuovi farmaci ha condotto un esperimento in cui hanno ottimizzato la loro intelligenza artificiale per cercare invece molecole dannose.
Sono riusciti a generare 40.000 agenti potenzialmente velenosi in meno di sei ore, come riportato nella rivista Nature Machine Intelligence.
L'esperta di intelligenza artificiale Joanna Bryson della Hertie School di Berlino ha affermato di poter immaginare qualcuno che elabori un modo per diffondere più rapidamente un veleno come l'antrace.
"Ma non è una minaccia esistenziale", ha detto ad AFP. "È solo un'arma orribile, terribile."
Le regole di Hollywood impongono che i disastri epocali debbano essere improvvisi, immensi e drammatici, ma se la fine dell'umanità fosse lenta, silenziosa e non definitiva?
"Alla fine più cupa la nostra specie potrebbe finire senza successore", afferma il filosofo Huw Price in un video promozionale per il Centro per lo studio del rischio esistenziale dell'Università di Cambridge.
Ma ha detto che c'erano "possibilità meno desolate" in cui gli esseri umani potenziati dalla tecnologia avanzata potevano sopravvivere.
"Le specie puramente biologiche alla fine finiscono, in quanto non ci sono umani in giro che non hanno accesso a questa tecnologia abilitante", ha detto.
L'apocalisse immaginata è spesso inquadrata in termini evolutivi.
Stephen Hawking ha sostenuto nel 2014 che alla fine la nostra specie non sarà più in grado di competere con le macchine di intelligenza artificiale, dicendo alla BBC che potrebbe "significare la fine della razza umana".
Geoffrey Hinton, che ha trascorso la sua carriera costruendo macchine che assomigliano al cervello umano, ultimamente per Google, parla in termini simili di "superintelligenze" che semplicemente sorpassano gli umani.
Di recente ha detto all'emittente statunitense PBS che è possibile che "l'umanità sia solo una fase passeggera nell'evoluzione dell'intelligence".
© Copyright 2024 IBTimes IT. All rights reserved.