Intelligenza artificiale e sicurezza: saremo in grado di controllarla?
Intelligenza artificiale (IA) e sicurezza: una nuova ricerca afferma che l’uomo rischia di non essere in grado di controllare le future “macchine intelligenti” che non smettono mai di imparare.
Proprio per questo alcuni scienziati hanno evidenziato i potenziali pericolo dello sviluppo di software autonomi.
In uno studio pubblicato sul Journal of Artificial Intelligence Research Portal, l’autore Manuel Cebrain ha dichiarato:
“Una macchina super intelligente che controlla il mondo suona come fantascienza”
Journal of Artificial Intelligence – Manuel Cebrain
Questo perchè è appurato che ci sono già macchine che svolgono determinati compiti importanti in modo indipendente senza che i programmatori capiscano appieno come l’hanno imparato […], una situazione, questa, che a un certo punto potrebbe diventare incontrollabile e pericolosa per l’umanità.
E’ giusto quindi analizzarne con cura rischi e opportunità dell’IA, prendendosi forse più tempo di quel che si è prospettato.
Intelligenza artificiale e sicurezza: l’uomo prima di tutto
E’ pure vero che i grandi progressi fatti e applicati in un serie di campi sono utili a verificarne anche i benefici oltre che i rischi: non dobbiamo dmenticare che la tecnologia IA rappresenta un enorme opportunità per il nostro futuro e quello del pianeta.
Pensiamo solo al problema dell’identità digitale, contro le frodi e il crimine infrmatico o agli ultimi progressi compiuti contro la disinformazione grazie ad una nuova capacità dell’IA di distinguere le notizie reali dai complottismi.
Attraverso dei calcoli teorici, un team di scienziati tra cui quelli del Center for Humans and Machines del Max Planck Institute for Human Development, mostra però che non sarebbe possibile controllare un’IA superintelligente. Il problema starebbe nella prevenzione del danno: lo studio è stato impostato su 2 diversi metodi per controllare il software: uno per isolare il software da internet e il secondo attraverso la programmazione di un algortimo che gli impedisca di danneggiare in qualsiasi circostanza. Questo per arrestarla se considerata pericolosa.
Il primo metodo ha impedito alla tecnologia di svolgere le sue funzioni di base, ma, cosa preoccupante, sembra che non ci sia un algoritmo in grado di garantire una prevenzione dal danno. Ovvero, il problema del contenimento è incomputabile, cioè nessun singolo algoritmo può trovare una soluzione per determinare se un’IA produrrebbe danni al mondo.
Se nel primo caso si è impedito alla tecnologia di svolgere le sue funzioni di base, nel secondo sembra che non ci sia un algoritmo in grado di garantire una prevenzione dal danno. Tale algoritmo non può essere costruito.
“Se si suddivide il problema in regole di base dall’informatica teorica, si scopre che un algoritmo che comanda un’IA di non distruggere il mondo potrebbe inavvertitamente fermare le proprie operazioni. Se ciò accadesse, non saprei se l’algoritmo di contenimento sta ancora analizzando la minaccia o se si è fermato a contenere l’IA dannosa. In effetti, questo rende inutilizzabile l’algoritmo di contenimento”
Iyad Rahwan, direttore del Center for Humans and Machines – We wouldn’t be able to control superintelligent machines