•1 an
Qui dit toujours que l'IA sera meilleure que les humains si cela s'est produit?
OpenAI, la société derrière ChatGPT, a été piratée début 2023 et des informations confidentielles sur le développement de ses technologies d'IA ont été volées. Un pirate a eu accès à un forum de messagerie interne où les employés discutaient des dernières avancées de l'entreprise. Bien que le pirate n'ait pas violé les systèmes principaux abritant les modèles d'IA et les données d'entraînement d'OpenAI, l'incident a soulevé d'importantes préoccupations en matière de sécurité au sein de l'entreprise. Certains employés, comme Leopold Aschenbrenner, ont fait valoir que les mesures de sécurité d'OpenAI étaient insuffisantes pour empêcher les adversaires étrangers comme la Chine d'accéder à des informations sensibles. Les dirigeants d'OpenAI ont informé les employés et le conseil d'administration de la violation en avril 2023, mais ont choisi de ne pas la divulguer publiquement, estimant que le pirate était un individu non affilié à un gouvernement et qu'aucune donnée client n'avait été compromise. Cependant, la décision de ne pas impliquer les forces de l'ordre a été critiquée par certains. Le piratage a mis en lumière des désaccords internes chez OpenAI concernant les risques de sécurité et le potentiel pour que les technologies d'IA soient volées par des entités étrangères. Bien qu'OpenAI maintienne que son IA actuelle ne représente pas une menace majeure pour la sécurité nationale, l'incident souligne la nécessité de mesures de sécurité robustes alors que la technologie progresse rapidement.
OpenAI, la société derrière ChatGPT, a été piratée début 2023 et des informations confidentielles sur le développement de ses technologies d'IA ont été volées. Un pirate a eu accès à un forum de messagerie interne où les employés discutaient des dernières avancées de l'entreprise. Bien que le pirate n'ait pas violé les systèmes principaux abritant les modèles d'IA et les données d'entraînement d'OpenAI, l'incident a soulevé d'importantes préoccupations en matière de sécurité au sein de l'entreprise. Certains employés, comme Leopold Aschenbrenner, ont fait valoir que les mesures de sécurité d'OpenAI étaient insuffisantes pour empêcher les adversaires étrangers comme la Chine d'accéder à des informations sensibles. Les dirigeants d'OpenAI ont informé les employés et le conseil d'administration de la violation en avril 2023, mais ont choisi de ne pas la divulguer publiquement, estimant que le pirate était un individu non affilié à un gouvernement et qu'aucune donnée client n'avait été compromise. Cependant, la décision de ne pas impliquer les forces de l'ordre a été critiquée par certains. Le piratage a mis en lumière des désaccords internes chez OpenAI concernant les risques de sécurité et le potentiel pour que les technologies d'IA soient volées par des entités étrangères. Bien qu'OpenAI maintienne que son IA actuelle ne représente pas une menace majeure pour la sécurité nationale, l'incident souligne la nécessité de mesures de sécurité robustes alors que la technologie progresse rapidement.
Montrer le contenu original
2 users upvote it!
0 answer