35.8 C
Mexico
viernes, junio 14, 2024

ChatGPT se cerró temporalmente posteriormente de que un error expusiera los historiales de chat de los usuarios

Debe leer

¿Lo que acaba de suceder? ChatGPT podría haberse topado con su primer problema importante de privacidad posteriormente de que un error en el servicio expusiera los títulos de los historiales de chat de otros usuarios. Creator OpenAI ha desconectado la función de historial de chat mientras intenta rectificar el problema.

Un portavoz de OpenAI confirmó a Bloomberg que los títulos de las conversaciones de otros usuarios estaban visibles en la mostrador pegado del historial del agraciado que se encuentra en el costado izquierdo de la página web de ChatGPT. Hicieron hincapié en que solo se podían ver estas breves descripciones, no los contenidos de las conversaciones.

Si aceptablemente OpenAI aún está investigando la causa precisa del problema, la compañía confirmó que se originó a partir de un error en un software de código campechano sin nombre. Los usuarios de Reddit y Twitter (a través de The Verge) compartieron capturas de pantalla del error, lo que dejó a los usuarios preguntándose si habían sido pirateados o si ChatGPT había sido violado.

OpenAI cerró todo el servicio ChatGPT el lunes por la indeterminación antiguamente de regresar el lunes por la indeterminación sin los historiales de chat de los usuarios. Todavía están desaparecidos a partir de esta mañana. La página de estado de OpenAI indica que continúa trabajando para restaurar el historial de conversaciones pasadas a los usuarios.

LEER  Apple agrega iPhone 14 y Mac M2 al software de reparación de supermercado

OpenAI mismo aconseja a los usuarios que no compartan información confidencial en conversaciones con ChatGPT, y señala que pueden estilarse con fines de capacitación.

El incidente es un recordatorio de las advertencias recientes sobre IA generativas como ChatGPT del Centro Doméstico de Seguridad Cibernética (NCSC) del Reino Unido. La agencia expresó su preocupación acerca de que las consultas confidenciales de los usuarios estén disponibles para los proveedores (OpenAI, en este caso) y se utilicen para entrenar versiones futuras del chatbot. Los ejemplos que dio fueron un director ejecutor que preguntó sobre la mejor forma de despedir a un empleado o cualquiera que hizo una pregunta médica personal.

El NCSC incluso demostró ser profético en su advertencia de que las consultas almacenadas podrían accidentalmente ponerse a disposición del manifiesto. Por fortuna, no se reveló información de identificación personal próximo con los títulos de la conversación en este caso.

En última instancia, el error ilustra por qué compañías como Amazon y JPMorgan han prudente a sus empleados que no usen ChatGPT por temor a que se filtre información confidencial.

Encabezamiento: Focal Foto

UniversoInformativo

Más artículos

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Último artículo