Chi sta ancora dicendo che l'intelligenza artificiale sarà migliore degli esseri umani se questo è accaduto?

OpenAI, l'azienda dietro ChatGPT, è stata hackerata all'inizio del 2023 e informazioni confidenziali sullo sviluppo delle sue tecnologie AI sono state rubate. Un hacker ha ottenuto accesso a un forum di messaggistica interno in cui i dipendenti discutevano sugli ultimi progressi dell'azienda. Sebbene l'hacker non abbia violato i sistemi principali che ospitano i modelli AI e i dati di addestramento di OpenAI, l'incidente ha sollevato significativi problemi di sicurezza all'interno dell'azienda. Alcuni dipendenti, come Leopold Aschenbrenner, hanno sostenuto che le misure di sicurezza di OpenAI erano inadeguate per impedire a avversari stranieri come la Cina di accedere a informazioni sensibili. I dirigenti di OpenAI hanno informato i dipendenti e il consiglio sull'incidente nell'aprile 2023, ma hanno scelto di non renderlo pubblico, credendo che l'hacker fosse un individuo non affiliato a nessun governo e che nessun dato dei clienti fosse stato compromesso. Tuttavia, la decisione di non coinvolgere le forze dell'ordine è stata criticata da alcuni. L'hack ha evidenziato le divergenze interne di OpenAI sui rischi per la sicurezza e sul potenziale furto delle tecnologie AI da parte di entità straniere. Sebbene OpenAI sostenga che il suo attuale AI non rappresenti una minaccia alla sicurezza nazionale significativa, l'incidente mette in luce la necessità di misure di sicurezza robuste mentre la tecnologia avanza rapidamente.
OpenAI, l'azienda dietro ChatGPT, è stata hackerata all'inizio del 2023 e informazioni confidenziali sullo sviluppo delle sue tecnologie AI sono state rubate. Un hacker ha ottenuto accesso a un forum di messaggistica interno in cui i dipendenti discutevano sugli ultimi progressi dell'azienda. Sebbene l'hacker non abbia violato i sistemi principali che ospitano i modelli AI e i dati di addestramento di OpenAI, l'incidente ha sollevato significativi problemi di sicurezza all'interno dell'azienda. Alcuni dipendenti, come Leopold Aschenbrenner, hanno sostenuto che le misure di sicurezza di OpenAI erano inadeguate per impedire a avversari stranieri come la Cina di accedere a informazioni sensibili. I dirigenti di OpenAI hanno informato i dipendenti e il consiglio sull'incidente nell'aprile 2023, ma hanno scelto di non renderlo pubblico, credendo che l'hacker fosse un individuo non affiliato a nessun governo e che nessun dato dei clienti fosse stato compromesso. Tuttavia, la decisione di non coinvolgere le forze dell'ordine è stata criticata da alcuni. L'hack ha evidenziato le divergenze interne di OpenAI sui rischi per la sicurezza e sul potenziale furto delle tecnologie AI da parte di entità straniere. Sebbene OpenAI sostenga che il suo attuale AI non rappresenti una minaccia alla sicurezza nazionale significativa, l'incidente mette in luce la necessità di misure di sicurezza robuste mentre la tecnologia avanza rapidamente.
Show original content

2 users upvote it!

0 answers