banner
Casa / Blog / Possiamo fermare l’intelligenza artificiale in fuga?
Blog

Possiamo fermare l’intelligenza artificiale in fuga?

Jan 31, 2024Jan 31, 2024

Di Matthew Hutson

Siamo sempre più circondati da persone false. A volte lo sappiamo e a volte no. Ci offrono assistenza clienti sui siti Web, ci prendono di mira nei videogiochi e riempiono i nostri feed sui social media; commerciano azioni e, con l'aiuto di sistemi come ChatGPT di OpenAI, possono scrivere saggi, articoli ed e-mail. Questi sistemi di intelligenza artificiale non sono affatto all’altezza di tutti i compiti che ci si aspetta da una persona a tutti gli effetti. Ma eccellono in determinati ambiti e si stanno espandendo.

Molti ricercatori coinvolti nell'intelligenza artificiale credono che le persone false di oggi siano solo l'inizio. A loro avviso, ci sono buone probabilità che l’attuale tecnologia dell’intelligenza artificiale si sviluppi nell’intelligenza artificiale generale, o AGI, una forma superiore di intelligenza artificiale in grado di pensare a livello umano sotto molti o quasi tutti gli aspetti. Un gruppo più piccolo sostiene che il potere dell'AGI potrebbe aumentare in modo esponenziale. Se un sistema informatico può scrivere codice, come già fa ChatGPT, allora potrebbe imparare a migliorarsi ancora e ancora fino a quando la tecnologia informatica raggiunge quella che è conosciuta come "la singolarità": un punto in cui sfugge al nostro controllo. Nello scenario peggiore previsto da questi pensatori, le IA incontrollabili potrebbero infiltrarsi in ogni aspetto della nostra vita tecnologica, interrompendo o reindirizzando le nostre infrastrutture, i sistemi finanziari, le comunicazioni e altro ancora. Persone false, ora dotate di astuzia sovrumana, potrebbero persuaderci a votare per misure e investire in preoccupazioni che rafforzino la loro posizione, e individui o fazioni suscettibili potrebbero rovesciare governi o terrorizzare le popolazioni.

La singolarità non è affatto una conclusione scontata. Potrebbe essere che l'AGI sia fuori portata o che i computer non siano in grado di diventare più intelligenti. Ma le transizioni tra AI, AGI e superintelligenza potrebbero avvenire senza che noi le rileviamo; i nostri sistemi di intelligenza artificiale ci hanno spesso sorpreso. E i recenti progressi nell’intelligenza artificiale hanno reso più plausibili gli scenari più preoccupanti. Le grandi aziende stanno già sviluppando algoritmi generalisti: lo scorso maggio DeepMind, di proprietà della società madre di Google, Alphabet, ha presentato Gato, un "agente generalista" che utilizza lo stesso tipo di algoritmo di ChatGPT per eseguire una varietà di compiti, dall'invio di SMS e giocare ai videogiochi per controllare un braccio robotico. "Cinque anni fa, nella mia carriera, era rischioso dire ad alta voce che credevo nella possibilità di un'intelligenza artificiale di livello umano o sovrumano", ha detto Jeff Clune, uno scienziato informatico dell'Università della British Columbia e del Vector Institute. Me. (Clune ha lavorato presso Uber, OpenAI e DeepMind; il suo lavoro recente suggerisce che gli algoritmi che esplorano il mondo in modo aperto potrebbero portare all’AGI) Ora, ha detto, mentre le sfide dell’intelligenza artificiale “si dissolvono”, sempre più ricercatori stanno emergendo dell’“armadio di sicurezza dell’intelligenza artificiale”, dichiarando apertamente che l’AGI è possibile e può rappresentare un pericolo destabilizzante per la società. A marzo, un gruppo di eminenti tecnologi ha pubblicato una lettera in cui chiedeva una pausa in alcuni tipi di ricerca sull’intelligenza artificiale, per impedire lo sviluppo di “menti non umane che potrebbero alla fine superarci in numero, essere più intelligenti, obsolete e sostituirci”; il mese successivo, Geoffrey Hinton, uno dei principali pionieri dell'intelligenza artificiale, lasciò Google per poter parlare più liberamente dei pericoli della tecnologia, inclusa la minaccia per l'umanità.

Un’area di ricerca in crescita chiamata allineamento dell’intelligenza artificiale cerca di ridurre il pericolo assicurando che i sistemi informatici siano “allineati” con gli obiettivi umani. L'idea è quella di evitare conseguenze indesiderate instillando valori morali, o i loro equivalenti meccanici, nelle IA. La ricerca sull'allineamento ha dimostrato che anche i sistemi di IA relativamente semplici possono guastarsi in modi bizzarri. In un articolo del 2020 intitolato “La sorprendente creatività dell’evoluzione digitale”, Clune e i suoi coautori hanno raccolto dozzine di aneddoti di vita reale sul comportamento involontario e imprevisto dell’IA. Un ricercatore mirava a progettare creature virtuali che si muovessero orizzontalmente, presumibilmente strisciando o strisciando; invece, le creature crescevano in altezza e cadevano, coprendo il terreno attraverso il collasso. Un'intelligenza artificiale che giocava a una versione di tris ha imparato a "vincere" richiedendo deliberatamente mosse bizzarre, mandando in crash il programma del suo avversario e costringendolo a rinunciare. Abbondano altri esempi di sorprendente disallineamento. Un'intelligenza artificiale incaricata di giocare a un gioco di corse in barca ha scoperto che poteva guadagnare più punti guidando in cerchi stretti e raccogliendo bonus invece di completare il percorso; i ricercatori hanno osservato la barca dell'intelligenza artificiale "prendere fuoco, schiantarsi contro altre barche e andare nella direzione sbagliata" mentre aumentavano il punteggio. Man mano che i nostri sistemi di intelligenza artificiale diventano sempre più sofisticati e potenti, questo tipo di risultati perversi potrebbero diventare più consequenziali. Non vorremmo che le IA del futuro, che potrebbero calcolare le pene detentive, guidare automobili o progettare farmaci, facessero l’equivalente di fallire per avere successo.