A marzo, due dipendenti di Google, il cui compito è rivedere i prodotti di intelligenza artificiale dell’azienda, hanno cercato di impedire a Google di lanciare un chatbot basato sull’intelligenza artificiale. Credevano che generasse dichiarazioni inesatte e pericolose.
Dieci mesi prima, preoccupazioni simili erano state sollevate in Microsoft da esperti di etica e altri dipendenti. Hanno scritto in diversi documenti che la tecnologia AI alla base di un chatbot pianificato potrebbe inondare i gruppi Facebook di disinformazione, degradare il pensiero critico ed erodere le basi fattuali della società moderna.
Le aziende hanno comunque rilasciato i loro chatbot. Microsoft è stata la prima, con a evento clamoroso a febbraio per rivelare un chatbot AI integrato nel suo motore di ricerca Bing. Google ha seguito circa sei settimane dopo con il proprio chatbot, Bard.
Le mosse aggressive delle aziende normalmente avverse al rischio sono state guidate da una corsa per controllare quella che potrebbe essere la prossima grande novità del settore tecnologico: l’intelligenza artificiale generativa, la nuova potente tecnologia che alimenta i chatbot.
La competizione ha assunto un tono frenetico a novembre, quando OpenAI, una start-up di San Francisco che lavora con Microsoft, ha rilasciato ChatGPT, un chatbot che ha catturato l’immaginazione del pubblico e che ora conta circa 100 milioni di utenti mensili.
Secondo 15 dipendenti attuali ed ex dipendenti e documenti interni delle aziende, il sorprendente successo di ChatGPT ha portato Microsoft e Google ad assumersi maggiori rischi con le linee guida etiche stabilite nel corso degli anni per garantire che la loro tecnologia non causi problemi sociali. .
L’urgenza di costruire con la nuova intelligenza artificiale è stata cristallizzata in un’e-mail interna inviata il mese scorso da Sam Schillace, un dirigente tecnologico di Microsoft. Ha scritto nell’e-mail, che è stata vista dal New York Times, che è stato un “errore assolutamente fatale in questo momento preoccuparsi di cose che possono essere risolte in seguito”.
Quando l’industria tecnologica si sta improvvisamente spostando verso un nuovo tipo di tecnologia, la prima azienda a introdurre un prodotto “è il vincitore a lungo termine solo perché ha iniziato per prima”, ha scritto. “A volte la differenza si misura in settimane.”
La scorsa settimana, la tensione tra chi è preoccupato e chi si assume rischi si è manifestata pubblicamente quando più di 1.000 ricercatori e leader del settore, tra cui Elon Musk e il co-fondatore di Apple Steve Wozniak, chiamato per una pausa di sei mesi nello sviluppo di una potente tecnologia IA. In una lettera pubblica, hanno affermato che presenta “profondi rischi per la società e l’umanità”.
I regolatori stanno già minacciando di intervenire. L’Unione Europea ha proposto una legislazione per regolamentare l’intelligenza artificiale e l’Italia ha temporaneamente vietato ChatGPT la scorsa settimana. Negli Stati Uniti, il presidente Biden martedì è diventato l’ultimo funzionario a mettere in dubbio la sicurezza dell’intelligenza artificiale
“Le aziende tecnologiche hanno la responsabilità di assicurarsi che i loro prodotti siano sicuri prima di renderli pubblici”, ha affermato alla Casa Bianca. Quando gli è stato chiesto se l’intelligenza artificiale fosse pericolosa, ha risposto: “Resta da vedere. Potrebbe essere.”
Le questioni sollevate ora erano una volta il tipo di preoccupazioni che spingevano alcune aziende a sedersi sulle nuove tecnologie. Avevano imparato che rilasciare prematuramente l'IA poteva essere imbarazzante. Sette anni fa, ad esempio, Microsoft ha rapidamente ritirato un chatbot chiamato Tay dopo che gli utenti lo avevano spinto a generare risposte razziste.
I ricercatori affermano che Microsoft e Google stanno correndo dei rischi rilasciando tecnologie che nemmeno i suoi sviluppatori comprendono del tutto. Ma le aziende hanno affermato di aver limitato la portata del rilascio iniziale dei loro nuovi chatbot, e così è stato costruito sofisticati sistemi di filtraggio eliminare i discorsi e i contenuti che incitano all’odio che potrebbero causare danni evidenti.
Natasha Crampton, responsabile dell'intelligenza artificiale di Microsoft, ha affermato in un'intervista che sei anni di lavoro sull'intelligenza artificiale e sull'etica in Microsoft hanno consentito all'azienda di “muoversi agilmente e con attenzione”. Ha aggiunto che “il nostro impegno per un’intelligenza artificiale responsabile rimane costante”.
Google ha rilasciato Bard dopo anni di dissenso interno sulla questione se i benefici dell’intelligenza artificiale generativa superassero i rischi. Ha annunciato Meena, un chatbot simile, nel 2020. Ma quel sistema è stato ritenuto troppo rischioso da rilasciare, hanno detto tre persone a conoscenza del processo. Tali preoccupazioni sono state segnalate in precedenza da Il giornale di Wall Street.
Più tardi, nel 2020, Google ha impedito ai suoi principali ricercatori etici sull’intelligenza artificiale, Timnit Gebru e Margaret Mitchell, di pubblicare un documento in cui avvertiva che i cosiddetti modelli linguistici di grandi dimensioni utilizzati nei nuovi sistemi di intelligenza artificiale, che sono addestrati a riconoscere modelli da grandi quantità di dati, potrebbero usare un linguaggio offensivo o discriminatorio. I ricercatori sono stati espulsi dopo che la dottoressa Gebru ha criticato gli sforzi dell'azienda a favore della diversità e la dottoressa Mitchell è stata accusata di aver violato il codice di condotta dopo aver salvato alcune email di lavoro su un account Google Drive personale.
La dottoressa Mitchell ha affermato di aver cercato di aiutare Google a rilasciare i prodotti in modo responsabile ed evitare la regolamentazione, ma invece “si sono davvero dati la zappa sui piedi”.
Brian Gabriel, portavoce di Google, ha dichiarato in una dichiarazione che “continuiamo a fare dell’intelligenza artificiale responsabile una priorità assoluta, utilizzando la nostra Principi dell'intelligenza artificiale e strutture di governance interna per condividere in modo responsabile i progressi dell’intelligenza artificiale con i nostri utenti”.
Persistevano le preoccupazioni sui modelli più grandi. Nel gennaio 2022, Google ha rifiutato di consentire a un altro ricercatore, El Mahdi El Mhamdi, di pubblicare un articolo critico.
Il dottor El Mhamdi, impiegato part-time e professore universitario, ha utilizzato teoremi matematici per avvertire che i più grandi modelli di intelligenza artificiale sono più vulnerabili agli attacchi di sicurezza informatica e presentano insoliti rischi per la privacy perché probabilmente hanno avuto accesso a dati privati archiviati in vari luoghi in giro. Internet.
Sebbene una presentazione esecutiva abbia successivamente messo in guardia da simili violazioni della privacy legate all’intelligenza artificiale, i revisori di Google hanno chiesto al Dr. El Mhamdi modifiche sostanziali. Ha rifiutato e ha rilasciato il documento tramite l'École Polytechnique.
Si è dimesso da Google quest’anno, citando in parte la “censura della ricerca”. Ha affermato che i rischi dell’intelligenza artificiale moderna “superano di gran lunga” i benefici. “È un dispiegamento prematuro”, ha aggiunto.
Dopo il rilascio di ChatGPT, Kent Walker, il principale avvocato di Google, ha incontrato i dirigenti della ricerca e della sicurezza del potente Advanced Technology Review Council dell'azienda. Ha detto loro che Sundar Pichai, amministratore delegato di Google, stava spingendo forte per rilasciare l'intelligenza artificiale di Google
All'incontro ha partecipato Jen Gennai, direttrice del gruppo Innovazione responsabile di Google. Si ricordò ciò che il signor Walker aveva detto al suo staff.
Durante l'incontro “Kent parlava ai dirigenti dell'ATRC, dicendo loro: 'Questa è la priorità dell'azienda'”, ha detto la signora Gennai in una registrazione recensita dal Times. “'Quali sono le tue preoccupazioni? Mettiamoci in fila.”
Il signor Walker ha detto ai partecipanti di accelerare i progetti di intelligenza artificiale, anche se alcuni dirigenti hanno affermato che avrebbero mantenuto gli standard di sicurezza, ha detto la signora Gennai.
Il suo team aveva già documentato le preoccupazioni relative ai chatbot: potrebbero produrre informazioni false, ferire gli utenti che si affezionano emotivamente a loro e consentire la “violenza facilitata dalla tecnologia” attraverso molestie di massa online.
A marzo, due revisori del team della signora Gennai hanno presentato la loro valutazione del rischio associato a Bard. Hanno raccomandato di bloccarne l'imminente rilascio, hanno detto due persone che hanno familiarità con il processo. Nonostante le misure di salvaguardia, credevano che il chatbot non fosse pronto.
SM. Gennai ha cambiato quel documento. Ha accettato la raccomandazione e ha minimizzato la gravità dei rischi di Bard, hanno detto le persone.
La signora Gennai ha detto in una e-mail al Times che, poiché Bard era un esperimento, i revisori non avrebbero dovuto valutare se procedere o meno. Ha detto che “ha corretto ipotesi imprecise e in realtà ha aggiunto più rischi e danni che necessitavano di considerazione”.
Google ha affermato di aver rilasciato Bard come esperimento limitato a causa di questi dibattiti, e la signora Gennai ha affermato che la formazione continua, i guardrail e le dichiarazioni di non responsabilità hanno reso il chatbot più sicuro.
Google ha rilasciato Bard ad alcuni utenti il 21 marzo. La società ha affermato che presto integrerà l'intelligenza artificiale generativa nel suo motore di ricerca.
Satya Nadella, amministratore delegato di Microsoft, ha scommesso sull'intelligenza artificiale generativa nel 2019 quando Microsoft ha investito 1 miliardo di dollari in OpenAI. Dopo aver deciso che la tecnologia era pronta durante l’estate, Nadella ha spinto tutti i team di prodotto Microsoft ad adottare l’intelligenza artificiale
Microsoft ha sviluppato politiche dal suo Office of Responsible AI, un team gestito dalla signora Crampton, ma le linee guida non sono state applicate o seguite in modo coerente, hanno affermato cinque attuali ed ex dipendenti.
Pur avendo un principio di “trasparenza”.Secondo tre persone coinvolte nel lavoro, agli esperti di etica che lavorano sul chatbot non sono state fornite risposte su quali dati OpenAI abbia utilizzato per sviluppare i suoi sistemi. Alcuni hanno sostenuto che integrare i chatbot in un motore di ricerca fosse una pessima idea, dato che a volte forniva dettagli non veritieri, ha detto una persona con conoscenza diretta delle conversazioni.
La Crampton ha affermato che gli esperti di Microsoft hanno lavorato su Bing e che le persone chiave hanno avuto accesso ai dati di formazione. L'azienda ha lavorato per rendere il chatbot più accurato collegandolo ai risultati di ricerca di Bing, ha aggiunto.
In autunno, Microsoft ha iniziato a sciogliere quello che era stato uno dei suoi più grandi team di etica tecnologica. Il gruppo Etica e Società ha formato e consultato i leader dei prodotti aziendali per progettare e costruire in modo responsabile. Nel mese di ottobre, la maggior parte dei suoi membri sono stati ceduti ad altri gruppi, secondo quattro persone che hanno familiarità con la squadra.
I pochi rimasti si sono uniti agli incontri quotidiani con il team di Bing, correndo per lanciare il chatbot. John Montgomery, un dirigente dell’intelligenza artificiale, ha detto loro in una e-mail di dicembre che il loro lavoro rimane vitale e che anche più team “avranno bisogno del nostro aiuto”.
Dopo l'introduzione di Bing basato sull'intelligenza artificiale, il team di etica ha documentato le preoccupazioni persistenti. Gli utenti potrebbero diventare troppo dipendenti dallo strumento. Risposte imprecise potrebbero trarre in inganno gli utenti. Le persone potevano credere che il chatbot, che utilizza una “I” ed emoji, fosse umano.
A metà marzo, la squadra è stata licenziata, un’azione segnalata per la prima volta dal tecnico notiziario Platform. Ma la Crampton ha detto che centinaia di dipendenti stanno ancora lavorando su iniziative etiche.
Microsoft ha rilasciato nuovi prodotti ogni settimana, un ritmo frenetico per soddisfare i piani che Nadella ha avviato in estate quando ha presentato in anteprima il nuovo modello di OpenAI.
Ha chiesto al chatbot di tradurre il poeta persiano Rumi in urdu e poi di scriverlo in caratteri inglesi. “Ha funzionato a meraviglia”, ha detto in un'intervista di febbraio. “Poi ho detto: 'Dio, questa cosa.'”
Audio prodotto da Parin Behrooz.
Mike Isacco ha contribuito alla segnalazione. Susan C. Beachy contribuito alla ricerca.