L'ultimo a rilanciare il concetto di intelligenza artificiale generale è Marco Zuckerbergche in un video postato sulle piattaforme Meta – da Facebook a Discussioni – ha dichiarato di voler costruire una cosiddetta AGI che sia anche fonte aperta, ovvero che sia accessibile agli sviluppatori anche al di fuori della società. «Questa tecnologia è così importante e le opportunità sono così grandi che desideriamo aprirla e renderla il più possibile disponibile, in modo che tutti ne possano beneficiare», ha detto. L'intelligenza artificiale generale è il passo successivo che, in realtà, tutti i protagonisti di questa nuova rivoluzione stanno tentando di compiere. Apri l'intelligenza artificiale ha già raccontato qualcosa del suo misterioso progetto Q* (che sembra essere anche il motivo per cui il Ceo Sam Altman era stato allontanato dal consiglio di amministrazione), mentre Googlenella persona del responsabile di DeepMind Demis Hassabis, sostenendo che manca meno di una decade alla concretizzazione di questa tecnologia. Che già dal suo aggettivo, «generale», fa intendere come sia qualcosa di definitivo ma anche molto nebuloso.
Non c'è, ad oggi, una vera definizione di intelligenza artificiale generale. È più un concetto teorico che pratico. Secondo Open AI, l'acronimo AGI (che sta per «artificial general intelligence») sta a intendere un sistema automatizzato che possa svolgere compiti di valore molto meglio degli esseri umani. Zuckerberg non specifica i dettagli del suo progetto, né ha ancora precisato modalità e tempistiche. O tanto meno una definizione. UN Il limite ne ha parlato così: «Si può discutere se l'intelligenza generale sia simile all'intelligenza umana, o se sia come un'intelligenza più umana, o se sia una super intelligenza del futuro. Ma per me la parte importante è l'ampiezza della definizione, cioè che l'intelligenza ha tutte queste capacità diverse, in cui bisogna essere in grado di ragionare e avere intuizioni». Intanto si sta concentrando sull'accumulare la potenza di calcolo necessaria per addestrare ed eseguire modelli di grandi dimensioni. Entro la fine dell'anno vuole recuperare più di 340mila Gpu H100 di Nvidiail chip più usato per l'intelligenza artificiale generativa.
A parlare per primo di intelligenza artificiale generale è stato nel 1997 Marco Gubrud, fisico e professore dell'università della Carolina del Nord. Poi nel 2022 è stato reintrodotto da due imprenditori che investono sull'AI, Shane Legg e Ben Goertzel. Si intende con questo termine una intelligenza artificiale che possa essere in grado di elaborare le informazioni come un cervello umano, o addirittura superarne le capacità. Può svolgerlo stessi compiti – con la stessa qualità – e può imparare a fare qualsiasi cosa che un umano può fare. Può comprendere contesti ed emozioni, si adatta a nuove situazioni e ambienti. Per creare una tecnologia di questo tipo serve un tipo di apprendimento che sia «aperto» e continuo. Proprio come succede a un bambino, che poi continua a imparare da ragazzo e anche da adulto. Non esiste, al momento, un sistema di intelligenza artificiale di questo tipo. Questo concetto è piuttosto l'ambizione verso cui tendino i più sofisticati centri di ricerca.
Come quello di Open AI, che sta lavorando al progetto Q* dove – da ciò che sappiamo – l'AI viene addestrata non solo per generare concetti per rispondere ai nostri quesiti ma anche per acquisire abilità matematica, e dunque maggiore capacità di ragionamento ancora più simile a quella umana. Non siamo ancora davvero all'intelligenza artificiale generale, ma poco a poco ci si prova ad avvicinare. Così sta facendo Google, che ha rilanciato con il modello di linguaggio Gemini. E così vuole fare Zuckerberg che ha appena rilasciato Lama 2il più vasto modello di linguaggio della sua Meta, e che ne sta già allenando uno nuovo, Lama 3che avrà anche la capacità di creare codice.
L'altro termine che Zuckerberg usa è «fonte aperta». La possibilità di rendere disponibile a tutti gli sviluppatori il modello rappresenta sicuramente un vantaggio competitivo. Secondo il Ceo di Meta c'è anche un aspetto etico dietro la scelta: «Tendo a pensare che una delle sfide più grandi sarà che se si costruisce qualcosa che è davvero prezioso, finisce per diventare molto concentrato (nelle mani di pochi ndr). Se invece lo si rende più aperto, si risolve un'ampia serie di problemi che potrebbero derivare dalla disparità di accesso tutte le opportunità e il valore. Questa è una parte importante della visione open source». Una visione che possiamo tradurre anche in un altro modo: se lo strumento reso disponibile a tutti proviene da una società, significa concentrazione di potere ma in una forma diversa. Lo stesso concetto di social – una piattaforma cui poter costruire qualsiasi contenuto, che però viene monetizzato dalla piattaforma stessa attraverso raccolta dati e profilazione pubblicitaria – applicata all'intelligenza artificiale. Vieni spiega Il limite«se Meta riuscirà a standardizzare lo sviluppo dell'IA rilasciando i suoi modelli apertamente, la sua influenza sull'ecosistema non potrà che crescere».