La Organización de Consumidores y Usuarios (OCU) alertó sobre el uso que OpenAI podría estar dando a los datos compartidos en ChatGPT.
Según su investigación, la mayoría de versiones de este servicio de inteligencia artificial emplean las conversaciones y archivos subidos por los usuarios para perfeccionar sus modelos, incluso en algunas modalidades de suscripción.
Versiones con protección de datos
Solo 2 modalidades del servicio garantizan por defecto la confidencialidad de la información: ChatGPT Team (25/mes) y Enterprise (precio variable).
Las demás opciones, incluyendo la versión gratuita y las de pago Plus (20 / mes) y Pro (200/mes), mantienen la capacidad de emplear los contenidos proporcionados por los usuarios para el refinamiento de sus algoritmos. Pese a que la compañía garantiza que no utiliza esta información con fines comerciales, la OCU recomienda a los usuarios desactivar manualmente esta característica en la configuración de su cuenta
Cómo proteger la privacidad
Los usuarios que deseen limitar el uso de sus datos pueden seguir este procedimiento:
-
Iniciar sesión en la plataforma oficial de ChatGPT
-
Seleccionar el icono de perfil situado en la esquina superior derecha
-
Acceder al apartado de Configuración
-
Localizar la opción 'Controles de datos' y desmarcar 'Mejorar el modelo para todos'
Límites en la protección
La organización advirtió que, incluso desactivando esta opción, OpenAI continúa recopilando diversos tipos de información:
-
Datos de registro (nombre, correo electrónico, forma de pago)
-
Estadísticas de uso (frecuencia, funciones empleadas)
-
Información técnica (dirección IP, navegador utilizado)
-
Metadatos (duración de sesiones, extensión de mensajes)
-
Datos requeridos por obligaciones legales
Nuevas regulaciones europeas
La OCU recordó que desde febrero rige en la UE una normativa sobre IA que prohíbe específicamente:
-
Tácticas que aprovechen vulnerabilidades por edad, discapacidad o situación económica
-
Sistemas de puntuación social basados en conductas o características personales
-
Predicción de conductas delictivas mediante perfiles
-
Recolección indiscriminada de imágenes para bases de datos de reconocimiento facial
-
Análisis de emociones en entornos laborales o educativos (salvo motivos médicos)
-
Deducción de características sensibles (ideología, orientación sexual, creencias)
-
Identificación biométrica en espacios públicos (excepto en casos de seguridad nacional)
La OCU solicitó a las autoridades mayor difusión sobre estos derechos y recursos adecuados para la recién creada Agencia Española de Supervisión de Inteligencia Artificial (AESIA), encargada de vigilar el cumplimiento de estas normas.
Este análisis forma parte del trabajo continuo que realiza la OCU desde 1975, en colaboración con organizaciones europeas y laboratorios independientes, para evaluar productos y servicios bajo criterios de calidad, eficiencia y transparencia. Su independencia está avalada por los más de 190.000 socios que apoyan su labor.
Si quieres recibir más temas como éste, puedes suscribirte a nuestras alertas gratuitas de noticias de Whatsapp o Telegram. También tenemos un boletín gratuito de noticias que llegarán a tu e-mail. Además, nos puedes seguir en Google News.