I rapporti dicono che Open AI è stato violato più di un anno fa, ma ha scelto di rimanere in silenzio sull'hacking Il New York Times. L'hacking è avvenuto in un forum interno in cui i dipendenti hanno discusso lo sviluppo e i dettagli tecnici dei vari modelli di intelligenza artificiale dell'azienda.
Il sistema è indipendente da altri sistemi interni e l'hacker non ha trovato informazioni di accesso ad altre parti dell'azienda. Poiché il forum non contiene dati dei clienti, l'azienda ha scelto di non rendere pubblica la violazione, ma solo dei dipendenti e del consiglio di amministrazione. Inoltre, la società non ha contattato l’FBI o qualsiasi altra autorità.
Non tutti erano d’accordo con questa giustificazione. Un dirigente, Leopold Aschenbrenner, ha criticato le misure di sicurezza dell'azienda, che secondo lui lasciano l'azienda esposta a significative intrusioni da parte di agenzie governative. Successivamente è stato licenziato per aver divulgato segreti interni, che secondo lui erano motivati politicamente. Open AI afferma che il suo licenziamento non ha nulla a che fare con le critiche alla sicurezza e che l'amministrazione è semplicemente giunta a una conclusione diversa.
Il New York Times scrive che Open AI non ritiene che i suoi algoritmi di intelligenza artificiale rappresentino alcun rischio per la sicurezza nazionale ed è supportato da altri operatori del settore. I sistemi di intelligenza artificiale esistenti probabilmente non possono essere utilizzati per causare danni significativi, afferma ad esempio Daniela Amodei, CEO di Anthropic. Meta ha reso i suoi modelli, in particolare Llama, open source e non è il solo.
“Evangelista della musica. Fanatico del cibo malvagio. Ninja del web. Fan professionista dei social media. Maniaco dei viaggi sottilmente affascinante.”