Skip to main content

Come ad ogni avvento di una nuova era tecnologica, non mancano gli entusiasti “early adopter” e i catastrofisti…

Nel panorama dell’innovazione tecnologica, una nuova voce di allarme risuona forte e chiara: i dipendenti di OpenAI e Google DeepMind stanno mettendo in guardia il mondo sui pericoli dell’intelligenza artificiale (AI). In una lettera accorata, questi professionisti esprimono profonde preoccupazioni sul ritmo incessante di sviluppo dell’AI, sollevando dubbi sull’eticità e la sicurezza di queste tecnologie emergenti.

Il documento, intitolato «Il diritto di mettere in guardia sull’intelligenza artificiale avanzata», sottolinea come le attuali misure di sicurezza e i protocolli di sviluppo non siano sufficienti a prevenire rischi potenzialmente catastrofici. I firmatari, tra cui dipendenti attuali e passati delle due aziende leader nel settore dell’AI, affermano che gli strumenti sviluppati potrebbero sfuggire al controllo umano, con conseguenze drammatiche.

Uno degli aspetti più critici evidenziati nella lettera riguarda i cosiddetti accordi di non denigrazione. Questi contratti legali impediscono ai dipendenti di esprimere critiche o commenti negativi sulle tecnologie sviluppate dalle loro aziende. Questo clima di silenzio obbligato, combinato con incentivi finanziari significativi, riduce la trasparenza e impedisce un dibattito aperto sulle potenziali minacce dell’AI.

I nove firmatari della lettera, che lavorano o hanno lavorato per OpenAI e Google DeepMind, sostengono che non si stia facendo abbastanza per mitigare i rischi associati allo sviluppo di un’Intelligenza Artificiale Generale (AGI). Sam Altman, CEO di OpenAI, ha recentemente dichiarato che l’attuale ChatGPT potrebbe sembrare “incredibilmente stupida” rispetto alle future innovazioni, evidenziando quanto rapidamente stia evolvendo questa tecnologia.

Le preoccupazioni espresse non sono nuove, ma assumono un significato ancora più pressante in un’epoca in cui l’AI sta diventando onnipresente. I rischi vanno dalla disuguaglianza sociale radicata alla manipolazione e disinformazione, fino a scenari più estremi come la perdita di controllo su sistemi autonomi e persino l’estinzione umana. La possibilità che un’AI avanzata possa operare senza allineamento con gli interessi umani solleva inquietanti paralleli con scenari da film di fantascienza.

Nella loro lettera, i dipendenti chiedono un maggiore obbligo di condivisione delle informazioni con i governi e la società civile, e una supervisione governativa più rigorosa. Chiedono anche di poter esprimere liberamente le loro preoccupazioni senza timore di ritorsioni o restrizioni legali.

Questo appello non è il primo e probabilmente non sarà l’ultimo. Gli eventi recenti, come il tumulto interno a OpenAI che ha visto il temporaneo allontanamento di Sam Altman, dimostrano quanto sia complesso e controverso il panorama dell’AI. Mentre le aziende corrono per sviluppare tecnologie sempre più potenti, è fondamentale che la comunità scientifica, i politici e il pubblico lavorino insieme per garantire che questi strumenti siano sicuri e allineati con i migliori interessi dell’umanità.

L’avvertimento dei dipendenti di OpenAI e Google DeepMind è comunque un chiaro richiamo alla vigilanza. Come utenti, sviluppatori e cittadini, in ogni caso dobbiamo chiedere maggiore trasparenza e responsabilità nello sviluppo dell’AI e non solo, non tanto per evitare potenziali disastri che al momento sembrano più frutto di approcci visionari, quanto per limitare pericolosi abusi e manipolazioni, specie nell’ambito dell’informazione ad esempio.