La actualización de GPT-4o disparó la tendencia de crear ilustraciones a partir de fotos personales, pero especialistas advierten sobre los riesgos de seguridad y la exposición de datos sensibles.
MIRÁ TAMBIÉN | Crean un marcapasos miniatura que desaparece tras su uso
La más reciente actualización de ChatGPT, con la versión GPT-4o, abrió nuevas posibilidades en la interacción entre usuarios y la inteligencia artificial. La incorporación de funciones visuales, como la generación de imágenes a partir de fotos, desató una ola de entusiasmo en redes sociales. Durante el último fin de semana, miles de personas compartieron sus retratos para transformarlos en ilustraciones al estilo Studio Ghibli, entre otros estilos artísticos.
Sin embargo, detrás de esta tendencia viral surge una advertencia clave: ¿qué sucede con las imágenes que subimos a la inteligencia artificial? La posibilidad de que OpenAI conserve millones de fotos con rostros y datos biométricos encendió las alarmas en torno a la privacidad y el uso de datos sensibles.
Expertos en ciberseguridad recuerdan que cada imagen, texto o información que se comparte con un chatbot puede ser utilizada para alimentar y entrenar modelos de IA, salvo que se indique lo contrario en los ajustes de privacidad. En este contexto, es fundamental tomar precauciones para proteger la información personal y profesional que se intercambia con estas herramientas.
MIRÁ TAMBIÉN | Peñarol se recuperó y sueña con los playoffs
Imágenes con datos biométricos: Aunque puede ser entretenido ver tu cara en versión animé, subir fotos personales —especialmente donde aparece tu rostro o el de familiares— puede exponer datos biométricos valiosos, como estructura facial o expresión.
Datos personales identificables: Información como el número de DNI, fecha de nacimiento, dirección o ubicaciones habituales no debe compartirse con la IA, ya que podría usarse para realizar ataques dirigidos o suplantación de identidad.
Información médica: ChatGPT no está diseñado para dar diagnósticos médicos. Compartir resultados de estudios o datos clínicos puede poner en riesgo la confidencialidad de tu salud.
MIRÁ TAMBIÉN | Amazon competirá con Starlink en internet satelital
Datos bancarios: Nunca se deben ingresar números de tarjetas, contraseñas o cualquier información financiera. Aunque la plataforma tiene protocolos de seguridad, no está exenta de posibles vulnerabilidades.
Información corporativa confidencial: Si se utiliza la IA para tareas laborales, se debe evitar compartir datos estratégicos o sensibles de la empresa, ya que esto podría violar políticas internas o incluso comprometer la seguridad institucional.
Frente a esta nueva era de inteligencia artificial interactiva, el uso responsable y consciente de estas plataformas se vuelve esencial. Las posibilidades creativas son inmensas, pero también lo son los desafíos en términos de protección de datos y seguridad digital.
Fuente: TN
Foto: Archivo