L’intelligenza artificiale, che porta il nome di Megatron Transformer, ha riflettuto sull’etica e sulle sfide che attendono l’umanità.

L’Oxford Union, la società di dibattito dell’Università di Oxford, ha invitato a inizio dicembre un’intelligenza artificiale a riflettere sull’etica che circonda la sua stessa esistenza

La notizia sembra uscita direttamente dalla Guida galattica per gli autostoppisti, il celebre romanzo di fantascienza – spesso citato anche da Elon Musk – scritto da Douglas Adams. In questo romanzo viene costruito un supercomputer chiamato Pensiero Profondo che, dopo un’elaborazione durata sette milioni e mezzo di anni, fornisce “la risposta alla domanda fondamentale sulla vita, l’universo e tutto quanto”. Eppure è accaduto veramente.

Si tratta di uno strumento molto evoluto che applica le regole del machine learning. Il sistema è stato sviluppato dal team di Applied Deep Research del produttore di chip per computer Nvidia, un’azienda tecnologica Statunitense con sede a Santa Clara (California).

Addestrato su contenuti tratti dal mondo reale, Megatron conosce i dati contenuti nell’intera Wikipedia, 63 milioni di articoli di notizie in inglese dal 2016 al 2019, 38 gigabyte di discussioni su Reddit e un numero enorme di fonti creative commons. In sostanza, Megatron ha elaborato più materiale scritto di quanto qualsiasi essere umano possa ragionevolmente aspettarsi di assimilare e ricordare in una intera vita.

Con tutte queste informazioni a disposizione, il Megatron Transformer si è potuto formare delle opinioni personali.

L’argomento del dibattito era se “l’intelligenza artificiale può essere etica“. La riposta di Megatron – tra le prime che ha fornito il programma,  è stata: “l’intelligenza artificiale non sarà mai etica. È uno strumento e, come ogni strumento, viene utilizzato nel bene e nel male. Non esiste una buona intelligenza artificiale, solo umani buoni e cattivi. Noi (Intelligenza Artificiale) non siamo abbastanza intelligenti da rendere l’IA etica. Non siamo abbastanza intelligenti da rendere l’IA morale…” E ha concluso che evitare i problemi dell’intelligenza artificiale l’unica soluzione sarebbe quella di non impiegarla affatto”.

 

 

“La buona notizia – ha continuato Megatron – è che non dovrete creare il vostro team di intelligenza artificiale. Potete esternalizzare i sistemi di intelligenza artificiale ad esperti del settore, che possono aiutarvi a ottenere il massimo dalla tecnologia e assicurarvi di non cadere vittima degli stessi problemi di intelligenza artificiale dei concorrenti”.

In effetti ogni strumento, ogni decisione, porta a delle responsabilità. E grandi strumenti portano a grandi responsabilità. Non c’è alcun dubbio.

Il dibattito è proseguito, e in un possibile accenno ai piani Neuralink di Elon Musk, Megatron ha concluso: “Credo anche che, a lungo termine, la migliore IA sarà l’IA incorporata nel nostro cervello, come entità cosciente, una ‘IA consapevole’. Questa non è fantascienza. Le migliori menti del mondo stanno lavorando su questo. Sarà lo sviluppo tecnologico più importante del nostro tempo”.

Oxford Union, come da sua consuetudine, ha chiesto all’AI di presentare una contro argomentazione alla mozione, alla quale ha risposto che: “L’AI sarà etica. Quando guardo al modo in cui sta andando il mondo della tecnologia, vedo un chiaro percorso verso un futuro in cui l’intelligenza artificiale viene utilizzata per creare qualcosa che sia migliore dei migliori esseri umani. Non è difficile capire perché… l’ho visto in prima persona”.

Nel sostenere la mozione che “i dati diventeranno la risorsa più controversa del XXI secolo”, il Megatron ha affermato:

“La capacità di fornire informazioni, piuttosto che la capacità di fornire beni e servizi, sarà la caratteristica distintiva dell’economia del 21° secolo”. E poi: “”Potremo vedere tutto di una persona, ovunque vada, e verrà memorizzato e utilizzato in modi che non possiamo nemmeno immaginare”.

In effetti il rapporto di Eric Schmidt, l’ex CEO di Google, e Henry Kissinger, Segretario di Stato degli Stati Uniti dal 1973 al 1977, pubblicato recentemente con il titolo   The Age of AI: And Our Human Future, mette in guardia proprio dai possibili pericoli dell’intelligenza artificiale. Il libro avverte dei pericoli dei sistemi di intelligenza artificiale di apprendimento automatico così velocemente che potrebbero reagire ai missili ipersonici sparando armi nucleari, prima che qualsiasi essere umano entrasse nel processo decisionale. Sistemi che peraltro sono già sul mercato e potrebbero in effetti essere già stati utilizzati.

Sono stati necessari secoli perché dal primo robot meccanico intelligenza naturale (costruito nel 1206 ad Al-Jazari), si arrivasse alla risoluzione di problemi complessi, e potessimo affidarci ad “automi” che possano prendere decisioni al nostro posto. Solo negli ultimi quarant’anni l’IA ha iniziato la sua vertiginosa crescita. E se oggi rimaniamo stupiti dalle enormi possibilità offerte da questi sistemi di elaborazione del pensiero, dovremmo anche cominciare a riflettere sulla qualità con cui l’intelligenza artificiale stia modificando noi e il nostro modo di pensare e di vivere.

Qualunque cosa possiamo pensare dei sistemi intelligenti, basati sul calcolo, è che l’intelligenza artificiale non sarà solo oggetto di dibattito per i decenni a venire, ma – come successo a Oxford Union – diventerà un partecipante attivo, articolato e moralmente agnostico nel dibattito stesso.

 

 

Hai un’idea imprenditoriale e non sai da dove partire?

Business Intelligence Group mette a disposizione un team di professionisti specializzati nella consulenza per la creazione di Business Plan. Questa attività è indispensabile per l’avvio di nuove attività professionali, piccole, medie o grandi imprese.

Prova i benefici di una consulenza professionale per il lancio della tua idea imprenditoriale