Privacidad en Entredicho: Conversaciones en ChatGPT Pueden Ser Accedidas por Empleados

"Privacidad en Entredicho: Conversaciones en ChatGPT Pueden Ser Accedidas por Empleados"

En la era de las tecnologías avanzadas, donde la inteligencia artificial (IA) se ha convertido en una herramienta indispensable, se abre un debate crucial sobre la privacidad de la información compartida. Alan Daitch, un experto en inteligencia artificial y excolaborador de Google, ha puesto el dedo en la llaga al advertir que las conversaciones mantenidas en plataformas como ChatGPT podrían no ser tan privadas como se cree. Según Daitch, «las interacciones de los usuarios, si no se desactiva una opción específica, pueden ser leídas por algunos empleados de OpenAI».

Para aquellos preocupados por la confidencialidad, Daitch ofrece una solución. En las configuraciones de ChatGPT, tanto en la aplicación como en la web, los usuarios pueden ir a «Controles de datos» y desactivar la opción «Mejorar el modelo para todos». Aunque este simple paso impide que las interacciones sean utilizadas para entrenar el algoritmo, es importante destacar que OpenAI puede conservar estos datos por un periodo de 30 días por razones de seguridad.

La inteligencia artificial generativa, como la de ChatGPT, se nutre de la retroalimentación de los usuarios para mejorar su rendimiento. Sin embargo, esta falta de transparencia sobre cómo se utilizan estas interacciones plantea serias dudas sobre la privacidad. Desde OpenAI aseguran que solo un número reducido de empleados tiene acceso a las conversaciones y exclusivamente para mejorar el servicio. Sin embargo, si alguna cuenta es marcada como potencialmente abusiva, podría ser revisada manualmente.

Muchos usuarios, como empresas y freelancers, utilizan ChatGPT para tareas que van desde la redacción de correos hasta el análisis de datos confidenciales. El hecho de que esta información pueda ser usada para el entrenamiento del modelo sin un consentimiento explícito es motivo de preocupación. Daitch subraya que «muchos usuarios ni siquiera son conscientes de que su información está siendo compartida».

El impacto de esta desinformación puede ser significativo. Imaginemos a un empleado que sin saberlo filtra información sensible de su empresa, o a un periodista que compromete la confidencialidad de una fuente. Incluso aquellos que simplemente buscan apoyo emocional o consejo personal podrían estar exponiendo detalles íntimos sin darse cuenta.

En última instancia, la conversación sobre privacidad y uso de datos en la inteligencia artificial apenas comienza. Los usuarios tienen derecho a conocer y decidir cómo se maneja su información. Mientras las herramientas basadas en IA continúan evolucionando, es vital que lo hagan con un enfoque en la ética y la transparencia.