Tempo stimato di lettura: 3 minuti

Qualche tempo fa, l’argomento dell’intelligenza artificiale è emerso sulla scena mediatica a seguito di un annuncio straordinario. Un considerevole numero di individui autorevoli o influenti, o addirittura entrambi, ha espresso l’opinione che sarebbe opportuno sospendere le ricerche sull’intelligenza artificiale. Si sosteneva che stessimo sperimentando come apprendisti stregoni con qualcosa che potrebbe portare alla fine del nostro mondo così come lo conosciamo, mettendo in pericolo persino la sopravvivenza dell’umanità.

Questa non è una situazione del tutto nuova, infatti anche durante gli esperimenti condotti al CERN di Ginevra per studiare il bosone di Higgs, si diffuse la preoccupazione che si potesse aprire un buco nero al centro della Terra che avrebbe inghiottito l’intero pianeta e oltre. Inoltre, a sollevare questa sgradevole possibilità non erano solo quattro persone al bar, ma persino il rinomato fisico Stephen Hawking.

le tre leggi della robotica secondo asimovTuttavia, sembra che l’appello non abbia suscitato un’ampia eco. Forse perché molti sono convinti che si tratti semplicemente di un tentativo di rallentare la concorrenza nel settore, oppure perché l’intelligenza artificiale è percepita da molti come una vecchia conoscenza, almeno a livello immaginario, che ha creato un senso di familiarità nell’immaginario collettivo. Da decenni, infatti, siamo abituati a immaginare i robot come compagni di viaggio grazie alle affascinanti opere di Isaac Asimov, che ha introdotto concetti come i cervelli positronici e il pensiero robotico. Ha persino introdotto la psicologia robotica, con la dottoressa Susan Calvin come principale esponente, all’interno dell’US Robots and Mechanical Men Corp.

Ma oggi, in questa realtà in cui abbiamo interlocutori algoritmici a cui possiamo porre le domande più complesse o banali semplicemente connettendoci a internet, come si sono concretizzate queste anticipazioni? Nessuna previsione, nemmeno quelle che miravano a predire accuratamente il futuro, è mai stata completamente accurata. Quindi, la questione principale non è questa. Sembra che la differenza fondamentale non risieda nei dettagli, ma nel paradigma di base che Asimov ha posto come fondamento della natura robotica e che ha fornito la spinta per numerosi intrecci narrativi che ha saputo creare. Mi riferisco alle celebri Tre Leggi della Robotica, che costituivano la base stessa dell’esistenza dei cervelli positronici e, di conseguenza, dell’intelligenza artificiale.

ADSMacrolibrarsi

Queste leggi sono naturalmente citate anche su Wikipedia:

Ovviamente, queste leggi erano integrate nella mente positronica dei robot con una priorità decrescente, dalla Prima alla Terza Legge. Ma nell’intelligenza artificiale che si è sviluppata nel corso degli anni del ventunesimo secolo, queste rassicuranti basi non sembrano essere state incluse. Nessuno ha mai fornito una risposta esplicita, ma l’impressione è che la risposta corretta sia negativa.

Tuttavia, se è vero che l’arte imita la natura, non sarebbe opportuno che, per una volta, la scienza e la tecnologia prendessero ispirazione dalla letteratura? Forse, se l’appello alla prudenza fosse stato più specifico e incisivo, avrebbe richiesto l’inclusione delle vecchie e care Tre Leggi della Robotica nell’effettiva intelligenza artificiale esistente, rendendola intrinsecamente meno pericolosa. Ma forse la chiave per dormire sonni tranquilli risiede altrove: quando mai l’intelligenza, qualsiasi forma di intelligenza, ha effettivamente dominato il mondo?

Geoffrey Hinton lascia Google per poter parlare liberamente

Nonostante sia universalmente riconosciuto come il “padrino dell’Intelligenza Artificiale”, Geoffrey Hinton, l’informatico britannico naturalizzato canadese, ha annunciato la sua separazione da Google, una delle grandi aziende tecnologiche che sta investendo miliardi di dollari in questa tecnologia. La motivazione di Hinton, 75 anni, è stata espressa attraverso un tweet dopo che la notizia era stata anticipata dal New York Times: “Ho scelto di lasciare per poter parlare apertamente dei rischi associati allo sviluppo dell’IA”.

Tuttavia, Hinton ha precisato che all’interno della prestigiosa azienda di Mountain View si è operato con grande responsabilità nello sviluppo dell’Intelligenza Artificiale, anche se non si possono negare i pericoli connessi al suo progresso costante. Questo è un fatto ben noto all’informatico, il cui lavoro pionieristico sulle reti neurali ha plasmato i sistemi di IA che alimentano molti dei prodotti attuali. Hinton afferma: “Al momento, queste intelligenze non sono più intelligenti di noi, per quanto ne sappia. Tuttavia, credo che presto potrebbero superarci”.

Certo è che gli avanzamenti nell’Intelligenza Artificiale stanno progredendo rapidamente e ci sono diverse scuole di pensiero riguardo alla possibilità che l’IA possa superare l’intelligenza umana. Alcuni esperti ritengono che ciò possa accadere, mentre altri sono più scettici. È un argomento complesso e dibattuto che coinvolge molte variabili, speriamo che Hilton riesca a dire la sua… quando ci sono in gioco poteri forti c’è sempre da dubitare che vi si riesca.

di Francesco De Vito

0 0 votes
Gradimento Articolo
Subscribe
Notificami
guest
0 Commenti
Inline Feedbacks
View all comments