L'intelligenza artificiale sta facendo notizia, ma gli esperti stanno già pianificando “la prossima grande novità”: quindi cos'è l'AGI?
I rapidi sviluppi dell'intelligenza artificiale (AI) hanno fatto notizia quest'anno grazie al popolare chatbot ChatGPT, ai motori di ricerca che rilasciano i propri chatbot AI e alle persone che utilizzano l'intelligenza artificiale per creare immagini, audio e video da zero.
Ma alcune aziende ed esperti di intelligenza artificiale rivolgono sempre più la loro attenzione a ciò che è noto come intelligenza generale artificiale o AGI – che alcuni si aspettano possa annunciare l’arrivo di sistemi di intelligenza artificiale intelligenti quanto gli esseri umani (e alla fine anche più intelligenti).
L'idea porta con sé alcune possibilità entusiasmanti ma anche alcuni rischi enormi, quindi diamo un'occhiata a quanto potente secondo alcune persone potrebbe diventare l'AGI e se potrebbe essere necessario impedire ai robot di conquistare il mondo.
Cos'è l'AGI?
L’AGI deve ancora diventare realtà e sembra ancora un po’ fantascienza.
Fondamentalmente lo è il concetto di L’intelligenza artificiale raggiunge un livello di intelligenza pari o superiore a quello umano.
La società americana OpenAI, che ha creato ChatGPT e il popolare generatore di immagini AI DALL·E 2, ha descritto l'AGI come “sistemi altamente autonomi che superano gli esseri umani nel lavoro economicamente più prezioso”.
Ci si aspetta che questi sistemi risolvano problemi e facciano cose complesse adattandosi ai loro ambienti e migliorando da soli le proprie conoscenze e abilità.
Esiste anche il concetto di superintelligenza artificiale (ASI)che immagina sistemi con capacità intellettuali molto maggiori di quelle umane.
Alcuni esperti ritengono che queste tecnologie non saranno realizzabili, ma altri sono entusiasti e preoccupati di come potrebbero cambiare il mondo.
Alcuni esperti ritengono che l’AGI comporti rischi “straordinari” per l’umanità
L'amministratore delegato di OpenAI Sam Altman ha messo in guardia dagli “enormi rischi” dell'AGI, tra cui “abuso, incidenti drastici e disagi sociali”. Ha detto che potremmo vedere l’AGI arrivare nel prossimo decennio.
“La prima AGI sarà solo un punto lungo il continuum dell'intelligence. Pensiamo che sia probabile che i progressi continuino da lì, possibilmente sostenendo il tasso di progresso che abbiamo visto negli ultimi dieci anni per un lungo periodo di tempo”, ha affermato. in un recente post sul blog.
“Se questo è vero, il mondo potrebbe diventare estremamente diverso da come è oggi, e i rischi potrebbero essere straordinari. Un’AGI superintelligente disallineata potrebbe causare gravi danni al mondo; anche un regime autocratico con un deciso vantaggio nella superintelligence potrebbe fare lo stesso.
“Alcune persone nel campo dell'intelligenza artificiale pensano che i rischi dell'AGI (e dei sistemi successivi) siano fittizi; saremmo lieti se risultassero giusti, ma opereremo come se questi rischi fossero esistenziali.”
Il mese scorso, il co-fondatore di OpenAI Elon Musk, che non è più affiliato alla società, ha affermato che l’AGI gli ha fatto provare “angoscia esistenziale”.
Non era sorprendente, dato che il concetto di AGI ha portato gli esperti a considerare potenziali scenari negativi, come:
- Un'AGI sanitaria che decide di non curare gli anziani per ottimizzare la salute del resto della popolazione
- Un’AGI incaricata di fare soldi per una società che sostituirà rapidamente tutti i lavoratori umani, portando a licenziamenti di massa
- Un'AGI creata da uno stato nazionale che utilizza le sue capacità per abbattere le difese informatiche di altri paesi
- Un'AGI della difesa che decide di eliminare un'intera città per uccidere un bersaglio di alto valore, il che sembra uscito da Terminator
Caricamento
Alcuni hanno addirittura suggerito che l’AGI potrebbe essere utilizzata per comandare i soldati umani in guerra.
In un documento pubblicato questo mese, Robert Sparrow della Monash University e Adam Henschke dell’Università di Twente hanno scritto che, poiché una guerra del genere era una possibilità, c’erano preoccupazioni etiche sul fatto che all’IA dovesse essere data l’autorità di mandare gli esseri umani verso la loro potenziale morte.
“Alla fine, il perseguimento della vittoria potrebbe richiedere la consegna del comando alle macchine e la vittoria potrebbe essere determinata da quale forza ha l'IA migliore”, hanno detto.
Se in questo momento stai immaginando un mondo tetro e distopico controllato da supercomputer e robot pericolosamente potenti, non sei solo.
Ma non preoccupatevi per ora: la ricerca e la pianificazione dell’AGI sono in aumento, così che si spera che l’umanità possa evitare esiti negativi.
Cosa stanno facendo le persone per impedire che l’AGI sfugga di mano?
Paul Salmon è un professore di fattori umani presso l'Università della Sunshine Coast del Queensland. Il suo team sta analizzando i rischi dell'AGI e prevede di formulare raccomandazioni al governo, agli sviluppatori e ai ricercatori entro la fine dell'anno.
Il professor Salmon concorda sul fatto che l’AGI rappresenta un rischio esistenziale per l’umanità e afferma che dobbiamo agire ora in modo da essere preparati al suo arrivo, anche se è lontano decenni.
“Con l'AGI, se iniziamo a preoccuparci quando emerge, è troppo tardi”, dice.
“L'idea è che una volta che l'AGI sarà qui, arriveremo rapidamente alla superintelligenza artificiale, il che sostanzialmente significa che abbiamo perso il treno: non avremo l'opportunità di controllare questa cosa.
“Dobbiamo davvero capire come progettare l'AGI in modo che sia sicura, etica e utilizzabile. E come gestire i rischi e poi vedere come controllarli.
“Questi non sono rischi che emergeranno attraverso un uso dannoso dell'AGI, o attraverso qualcosa di simile a uno scenario Terminator. È più quando l'AGI diventa prepotente o superintelligente e, nel cercare di bilanciare i diversi obiettivi che le abbiamo assegnato, fa cose che sarà problematico per gli esseri umani.”
Nel suo post sul blog del mese scorso, Sam Altman di OpenAI ha illustrato i piani dell'azienda “per AGI e oltre”.
Dice che OpenAI sta “diventando sempre più cauto” nel rilasciare i suoi modelli di intelligenza artificiale man mano che l'AGI si avvicina, e dice che la società ha una clausola nel suo statuto “sull'aiutare altre organizzazioni a promuovere la sicurezza invece di correre con loro nello sviluppo dell'AGI in fase avanzata”.
Salmon afferma che ci sono ancora dubbi sulla proprietà dell'AGI, dato che “uno dei rischi è che la prima società a sviluppare l'AGI avrà rapidamente un vantaggio che potrà utilizzare per generare grandi profitti”.
Altman afferma che OpenAI, che consiste in un'organizzazione no-profit e nella sua controllata a scopo di lucro, ha un limite ai rendimenti che i suoi azionisti possono guadagnare in modo che la società non sia incentivata “a catturare valore senza limiti e rischiare di implementare qualcosa di potenzialmente catastroficamente pericoloso” .
Il ministro australiano per l’industria e la scienza, Ed Husic, afferma di aver chiesto al National Science and Technology Council del paese di considerare come si evolverà l’intelligenza artificiale e di “pensare a quali sono le implicazioni e come i governi dovrebbero rispondere”.
“Vogliamo che sia la tecnologia a lavorare per noi, e non il contrario”, ha detto questa settimana al National Press Club.
Il Centro nazionale per l'intelligenza artificiale del CSIRO fornisce inoltre consulenza al governo sui quadri responsabili per l'intelligenza artificiale.
Le aziende che si occupano di intelligenza artificiale sono ottimiste, nonostante le preoccupazioni di alcuni esperti
Elon Musk ha detto che, sebbene abbia provato una certa angoscia per l'AGI, era entusiasta di vedere, si spera, che essa si realizzasse nel corso della sua vita – e non è l'unico leader tecnologico con un certo ottimismo.
Nel suo recente post sul blog, Altman di OpenAI ha affermato che la tecnologia AGI potrebbe potenzialmente “dare a tutti nuove incredibili capacità” per aiutare nelle attività cognitive.
“Se l'AGI verrà creata con successo, questa tecnologia potrebbe aiutarci a elevare l'umanità aumentando l'abbondanza, mettendo il turbo all'economia globale e aiutando la scoperta di nuove conoscenze scientifiche che cambiano i limiti delle possibilità”, ha affermato.
“Possiamo immaginare un mondo in cui l'umanità prospera a un livello che probabilmente è ancora impossibile per chiunque di noi visualizzare pienamente.”
Pochi giorni dopo il post sul blog di Altman, un avvocato della Federal Trade Commission degli Stati Uniti, che lavora per proteggere i consumatori e la concorrenza, hanno scritto nel loro post sul blog che l'intelligenza artificiale era “un termine di marketing” e avvertiva le aziende di essere caute su come la usavano.
“Non viviamo ancora nel regno della fantascienza, dove i computer possono generalmente fare previsioni attendibili sul comportamento umano”, hanno scritto.
Il cofondatore di Microsoft Bill Gates ha scritto in a post sul blog questa settimana che “nessuna delle scoperte degli ultimi mesi ci ha portato sostanzialmente più vicino” alla creazione dell'AGI, e ha sottolineato che gli sviluppi nell'intelligenza artificiale comportano sia “opportunità che responsabilità”.
Il professor Salmon ha affermato di essere ottimista sul fatto che, se la società si fosse preparata bene per l’AGI, ciò potrebbe avere impatti estremamente positivi.
“Se adottiamo un approccio proattivo nella progettazione dei controlli, non c'è dubbio che i benefici per l'umanità potranno essere assolutamente enormi”, ha affermato.
Altman sembra essere d’accordo, ma è chiaro che creare e gestire l’AGI è un’impresa enorme.
“La transizione verso un mondo dotato di superintelligenza è forse il progetto più importante, promettente e spaventoso della storia umana”, ha affermato.
“Il successo è lungi dall'essere garantito, e si spera che la posta in gioco (illimitato lato negativo e illimitato lato positivo) unisca tutti noi.”
Pubblicato , aggiornato