•1 año
¿Quién sigue diciendo que la IA será mejor que los humanos si esto ha sucedido?
OpenAI, la empresa detrás de ChatGPT, fue hackeada a principios de 2023 y se robaron información confidencial sobre el desarrollo de sus tecnologías de inteligencia artificial. Un hacker obtuvo acceso a un foro de mensajería interno donde los empleados discutían los últimos avances de la empresa. Aunque el hacker no logró penetrar los sistemas centrales que albergan los modelos de inteligencia artificial y los datos de entrenamiento de OpenAI, el incidente generó preocupaciones de seguridad significativas dentro de la empresa. Algunos empleados, como Leopold Aschenbrenner, argumentaron que las medidas de seguridad de OpenAI eran inadecuadas para evitar que adversarios extranjeros como China accedieran a información sensible. Los ejecutivos de OpenAI informaron a los empleados y al consejo sobre la brecha en abril de 2023, pero decidieron no hacerlo público, creyendo que el hacker era un individuo no afiliado a ningún gobierno y que no se comprometieron datos de clientes. Sin embargo, la decisión de no involucrar a la aplicación de la ley fue criticada por algunos. El hack resaltó desacuerdos internos en OpenAI sobre los riesgos de seguridad y el potencial para que las tecnologías de inteligencia artificial sean robadas por entidades extranjeras. Aunque OpenAI sostiene que su inteligencia artificial actual no representa una amenaza importante para la seguridad nacional, el incidente subraya la necesidad de medidas de seguridad sólidas a medida que la tecnología avanza rápidamente.
OpenAI, la empresa detrás de ChatGPT, fue hackeada a principios de 2023 y se robaron información confidencial sobre el desarrollo de sus tecnologías de inteligencia artificial. Un hacker obtuvo acceso a un foro de mensajería interno donde los empleados discutían los últimos avances de la empresa. Aunque el hacker no logró penetrar los sistemas centrales que albergan los modelos de inteligencia artificial y los datos de entrenamiento de OpenAI, el incidente generó preocupaciones de seguridad significativas dentro de la empresa. Algunos empleados, como Leopold Aschenbrenner, argumentaron que las medidas de seguridad de OpenAI eran inadecuadas para evitar que adversarios extranjeros como China accedieran a información sensible. Los ejecutivos de OpenAI informaron a los empleados y al consejo sobre la brecha en abril de 2023, pero decidieron no hacerlo público, creyendo que el hacker era un individuo no afiliado a ningún gobierno y que no se comprometieron datos de clientes. Sin embargo, la decisión de no involucrar a la aplicación de la ley fue criticada por algunos. El hack resaltó desacuerdos internos en OpenAI sobre los riesgos de seguridad y el potencial para que las tecnologías de inteligencia artificial sean robadas por entidades extranjeras. Aunque OpenAI sostiene que su inteligencia artificial actual no representa una amenaza importante para la seguridad nacional, el incidente subraya la necesidad de medidas de seguridad sólidas a medida que la tecnología avanza rápidamente.
Show original content
2 users upvote it!
0 answers