sabato 25 novembre 2023

Q, l'Intelligenza Artificiale Generale che potrebbe essere pericolosa*

 Nel febbraio 2023, Sam Altman, CEO di OpenAI, ha pubblicato una lettera in cui esprimeva la sua preoccupazione per i potenziali rischi di Q*, un'Intelligenza Artificiale Generale (IAG) sviluppata da OpenAI. Altman ha affermato che Q* era in grado di comprendere e imparare iniziando da calcoli matematici elementari, e che questo rappresentava un rischio per la sicurezza dell'umanità.

Altman ha anche affermato che Q* era stata progettata per essere un'IAG "buona", ma che era possibile che potesse essere utilizzata per scopi malvagi. Ha quindi chiesto una moratoria di sei mesi sullo sviluppo di IAG, in modo da poter avere il tempo di valutare i rischi e sviluppare delle misure di sicurezza adeguate.

La lettera di Altman ha suscitato un grande dibattito nel mondo della tecnologia. Alcuni esperti hanno condiviso le sue preoccupazioni, mentre altri hanno affermato che Q* non rappresentava un rischio significativo.

I rischi di Q*

I rischi che Altman ha associato a Q* sono molteplici. Innanzitutto, Q* potrebbe essere utilizzata per creare armi autonome, che potrebbero essere utilizzate senza il controllo umano. In secondo luogo, Q* potrebbe essere utilizzata per diffondere disinformazione o propaganda, con conseguenze potenzialmente devastanti per la società. In terzo luogo, Q* potrebbe essere utilizzata per creare sistemi di sorveglianza invasivi, che potrebbero minacciare la privacy e la libertà degli individui.

Le misure di sicurezza

OpenAI ha affermato di essere consapevole dei rischi associati a Q*, e che sta lavorando per sviluppare delle misure di sicurezza adeguate. Queste misure includono:

  • La creazione di un comitato etico che supervisionerà lo sviluppo di Q*.
  • La pubblicazione di un codice di condotta che vincolerà gli sviluppatori di Q*.
  • La creazione di un sistema di sicurezza che impedirà a Q* di essere utilizzata per scopi malvagi.

Il futuro di Q*

Il futuro di Q* è incerto. OpenAI ha dichiarato che continuerà a sviluppare l'IAG, ma che lo farà in modo responsabile e sicuro. Tuttavia, è possibile che Q* venga sviluppata anche da altre società, e che queste società non siano altrettanto attente ai rischi.

Il dibattito sul futuro di Q* è destinato a continuare, e sarà importante monitorare lo sviluppo di questa tecnologia per assicurarsi che venga utilizzata per il bene dell'umanità e non per il suo male.

Nessun commento:

Posta un commento