• 27 Luglio 2024

Saremo in grado di controllare l’intelligenza artificiale? [Pare di no]

Saremo in grado di controllare l'intelligenza artificiale
Condividi su:

Saremo in grado di controllare l’intelligenza artificiale? Pare di no. Secondo alcuni scienziati infatti dei robot intelligenti possono eseguire compiti complessi da soli, senza che i programmatori capiscano come li hanno imparati.

I più recenti progressi nell’intelligenza artificiale (AI) hanno sollevato diversi dilemmi etici. Forse uno dei più importanti è se l’umanità sarà in grado di controllare macchine autonome.

Sta diventando sempre più comune vedere robot responsabili dei lavori domestici o veicoli a guida autonoma (come Amazon ), che sono alimentati dall‘intelligenza artificiale. Sebbene questo tipo di tecnologia semplifichi la vita, potrebbe anche complicarla.

Un gruppo internazionale di ricercatori ha avvertito dei potenziali rischi della creazione di un software eccessivamente potente e autonomo. Utilizzando una serie di calcoli teorici, gli scienziati hanno esplorato come tenere sotto controllo l’intelligenza artificiale.

La sua conclusione è che sarebbe impossibile, secondo lo studio pubblicato dal portale Journal of Artificial Intelligence Research .

Una macchina super intelligente che controlla il mondo sembra fantascienza. Ma ci sono già macchine che svolgono determinati compiti importanti in modo indipendente senza che i programmatori comprendano appieno come l’hanno imparati […], una situazione che potrebbe a un certo punto diventare incontrollabile e pericolosa per l’umanità

ha detto Manuel Cebrian, coautore dello studio , all’Istituto Max Planck per lo sviluppo umano .

Saremo in grado di controllare l’intelligenza artificiale?

Gli scienziati hanno sperimentato due modi per controllare l’intelligenza artificiale. Uno era isolarla da Internet e da altri dispositivi, limitando i suoi contatti con il mondo esterno. Il problema è che ciò ridurrebbe notevolmente la sua capacità di eseguire le funzioni per le quali è stata creata.

L’altro era progettare un “algoritmo di contenimento teorico” per garantire che un’intelligenza artificiale (anche usando l’apprendimento automatico) “non possa danneggiare le persone in nessuna circostanza”. Tuttavia, un’analisi dell’attuale paradigma di calcolo ha mostrato che non è possibile creare un tale algoritmo.

Se scomponiamo il problema in regole di base del calcolo teorico, si scopre che un algoritmo che ha istruito un’IA a non distruggere il mondo potrebbe inavvertitamente interrompere le proprie operazioni. Se ciò accadesse, non sapremmo se l’algoritmo di contenimento continuerebbe ad analizzare la minaccia oppure no. In effetti, questo rende inutilizzabile l’algoritmo di contenimento “, ha spiegato Iyad Rahwan, un altro dei ricercatori.

Sulla base di questi calcoli, il problema è che nessun algoritmo può determinare se un’intelligenza artificiale potrebbe danneggiare il mondo.

I ricercatori sottolineano anche che l’umanità potrebbe non sapere nemmeno quando sono arrivate le macchine superintelligenti, perché decidere se un dispositivo possiede un’intelligenza superiore agli umani è impossibile.

Dobbiamo avere paura del futuro? Quali sono i paesi più intelligenti al mondo?

Condividi su:

valerio sanna

Vsx Blog : il mio punto di vista sul mondo del web, dell'innovazione e della scienza.

Leggi Precedente

S&P500, quando l’investimento è a prova di imprevisti

Leggi Prossimo

Come creare un blog di successo in 7 fasi

Lascia un Commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Social media & sharing icons powered by UltimatelySocial