ilgestionalecreo@gmail.com
mercoledì, Novembre 27, 2024
Attualità

L'intelligenza artificiale sta facendo notizia, ma gli esperti stanno già pianificando “la prossima grande novità”: quindi cos'è l'AGI?

133views

I rapidi sviluppi dell'intelligenza artificiale (AI) hanno fatto notizia quest'anno grazie al popolare chatbot ChatGPT, ai motori di ricerca che rilasciano i propri chatbot AI e alle persone che utilizzano l'intelligenza artificiale per creare immagini, audio e video da zero.

Ma alcune aziende ed esperti di intelligenza artificiale rivolgono sempre più la loro attenzione a ciò che è noto come intelligenza generale artificiale o AGI – che alcuni si aspettano possa annunciare l’arrivo di sistemi di intelligenza artificiale intelligenti quanto gli esseri umani (e alla fine anche più intelligenti).

L'idea porta con sé alcune possibilità entusiasmanti ma anche alcuni rischi enormi, quindi diamo un'occhiata a quanto potente secondo alcune persone potrebbe diventare l'AGI e se potrebbe essere necessario impedire ai robot di conquistare il mondo.

Cos'è l'AGI?

L’AGI deve ancora diventare realtà e sembra ancora un po’ fantascienza.

Fondamentalmente lo è il concetto di L’intelligenza artificiale raggiunge un livello di intelligenza pari o superiore a quello umano.

La società americana OpenAI, che ha creato ChatGPT e il popolare generatore di immagini AI DALL·E 2, ha descritto l'AGI come “sistemi altamente autonomi che superano gli esseri umani nel lavoro economicamente più prezioso”.

Ci si aspetta che questi sistemi risolvano problemi e facciano cose complesse adattandosi ai loro ambienti e migliorando da soli le proprie conoscenze e abilità.

Esiste anche il concetto di superintelligenza artificiale (ASI)che immagina sistemi con capacità intellettuali molto maggiori di quelle umane.

Alcuni esperti ritengono che queste tecnologie non saranno realizzabili, ma altri sono entusiasti e preoccupati di come potrebbero cambiare il mondo.

Un'illustrazione generata dall'intelligenza artificiale della testa di una figura umana, sul suo profilo laterale, con nuvole e fili dove si troverebbe un cervello umano

Un'immagine creata dal generatore di immagini AI DALL·E 2, quando viene dato il comando “superintelligenza artificiale”.(OpenAI: DALL·E 2)

Alcuni esperti ritengono che l’AGI comporti rischi “straordinari” per l’umanità

L'amministratore delegato di OpenAI Sam Altman ha messo in guardia dagli “enormi rischi” dell'AGI, tra cui “abuso, incidenti drastici e disagi sociali”. Ha detto che potremmo vedere l’AGI arrivare nel prossimo decennio.

“La prima AGI sarà solo un punto lungo il continuum dell'intelligence. Pensiamo che sia probabile che i progressi continuino da lì, possibilmente sostenendo il tasso di progresso che abbiamo visto negli ultimi dieci anni per un lungo periodo di tempo”, ha affermato. in un recente post sul blog.

“Se questo è vero, il mondo potrebbe diventare estremamente diverso da come è oggi, e i rischi potrebbero essere straordinari. Un’AGI superintelligente disallineata potrebbe causare gravi danni al mondo; anche un regime autocratico con un deciso vantaggio nella superintelligence potrebbe fare lo stesso.

“Alcune persone nel campo dell'intelligenza artificiale pensano che i rischi dell'AGI (e dei sistemi successivi) siano fittizi; saremmo lieti se risultassero giusti, ma opereremo come se questi rischi fossero esistenziali.”

Il mese scorso, il co-fondatore di OpenAI Elon Musk, che non è più affiliato alla società, ha affermato che l’AGI gli ha fatto provare “angoscia esistenziale”.

Non era sorprendente, dato che il concetto di AGI ha portato gli esperti a considerare potenziali scenari negativi, come:

  • Un'AGI sanitaria che decide di non curare gli anziani per ottimizzare la salute del resto della popolazione
  • Un’AGI incaricata di fare soldi per una società che sostituirà rapidamente tutti i lavoratori umani, portando a licenziamenti di massa
  • Un'AGI creata da uno stato nazionale che utilizza le sue capacità per abbattere le difese informatiche di altri paesi
  • Un'AGI della difesa che decide di eliminare un'intera città per uccidere un bersaglio di alto valore, il che sembra uscito da Terminator

Caricamento

Alcuni hanno addirittura suggerito che l’AGI potrebbe essere utilizzata per comandare i soldati umani in guerra.

In un documento pubblicato questo mese, Robert Sparrow della Monash University e Adam Henschke dell’Università di Twente hanno scritto che, poiché una guerra del genere era una possibilità, c’erano preoccupazioni etiche sul fatto che all’IA dovesse essere data l’autorità di mandare gli esseri umani verso la loro potenziale morte.

“Alla fine, il perseguimento della vittoria potrebbe richiedere la consegna del comando alle macchine e la vittoria potrebbe essere determinata da quale forza ha l'IA migliore”, hanno detto.

Se in questo momento stai immaginando un mondo tetro e distopico controllato da supercomputer e robot pericolosamente potenti, non sei solo.

Ma non preoccupatevi per ora: la ricerca e la pianificazione dell’AGI sono in aumento, così che si spera che l’umanità possa evitare esiti negativi.

Cosa stanno facendo le persone per impedire che l’AGI sfugga di mano?

Paul Salmon è un professore di fattori umani presso l'Università della Sunshine Coast del Queensland. Il suo team sta analizzando i rischi dell'AGI e prevede di formulare raccomandazioni al governo, agli sviluppatori e ai ricercatori entro la fine dell'anno.

Il professor Salmon concorda sul fatto che l’AGI rappresenta un rischio esistenziale per l’umanità e afferma che dobbiamo agire ora in modo da essere preparati al suo arrivo, anche se è lontano decenni.

“Con l'AGI, se iniziamo a preoccuparci quando emerge, è troppo tardi”, dice.

“L'idea è che una volta che l'AGI sarà qui, arriveremo rapidamente alla superintelligenza artificiale, il che sostanzialmente significa che abbiamo perso il treno: non avremo l'opportunità di controllare questa cosa.

“Dobbiamo davvero capire come progettare l'AGI in modo che sia sicura, etica e utilizzabile. E come gestire i rischi e poi vedere come controllarli.

“Questi non sono rischi che emergeranno attraverso un uso dannoso dell'AGI, o attraverso qualcosa di simile a uno scenario Terminator. È più quando l'AGI diventa prepotente o superintelligente e, nel cercare di bilanciare i diversi obiettivi che le abbiamo assegnato, fa cose che sarà problematico per gli esseri umani.”

Nel suo post sul blog del mese scorso, Sam Altman di OpenAI ha illustrato i piani dell'azienda “per AGI e oltre”.

Pubblicato , aggiornato

Leave a Response