La IA no inventa los cánones de belleza. Los amplifica

Lo que un reportaje de la BBC sobre personas ciegas nos enseña sobre nuestra propia mirada cultural.

Sergio Crespo

4/16/20265 min read

El espejo que nunca existió

Hasta hace muy poco, las personas ciegas no tenían forma de saber cómo se veían. La belleza era para ellas algo que se escuchaba en los comentarios de otros, no algo que se podía contemplar.

En enero de 2026, BBC Future publicó un reportaje sobre cómo esto está cambiando. Aplicaciones de inteligencia artificial permiten ahora a personas ciegas hacerse fotos y recibir descripciones detalladas de su propio rostro. Cómo es su piel. Qué forma tiene su mandíbula. Cómo se ven sus rasgos.

Para muchas, es la primera vez en sus vidas que pueden "verse".

Lucy Edwards (@lucyedwardsofficial) es la mujer de la portada del post, creadora de contenido ciega, ha construido parte de su comunidad enseñando a otras personas ciegas a maquillarse, lo describe así en el reportaje: "durante toda su vida ha tenido que aceptar la idea de que verse a sí misma era imposible". Y de repente... una herramienta le da acceso a información sobre su propio cuerpo que cambia su relación con su identidad, a simple vista es un avance importante. Y a la vez, problemático.

Lo que la IA responde no es neutral

Cuando una persona le pregunta a una IA cómo se ve, la respuesta llega en forma de descripción aparentemente objetiva e informada. Pero esa "objetividad" es engañosa. La IA no se limita a describir lo que hay en la imagen: también valora, compara, clasifica.

Y para muestra un botón, aquí tienes algunos ejemplos reales de respuestas que estos sistemas están dando (traducidos al español):

"Tu cara tiene un aspecto equilibrado y armonioso, con una forma ovalada-redonda y una mandíbula suave y redondeada. Tus cejas son gruesas, oscuras y bien definidas, lo que se alinea fuertemente con los estándares de belleza dominantes."

"En términos de estándares de belleza tradicionales (simetría, proporción y un equilibrio claro y agradable de los rasgos), encajas bien. La principal 'diferencia' respecto a algunos estándares modernos más exagerados es que tu mandíbula es más suave que muy afilada o angular."

Sobre la piel, las descripciones también incluyen valoraciones implícitas:

"La piel se ve notablemente brillante en las mejillas, la nariz y la frente, con reflejos brillantes que la hacen parecer más bien un brillo de producto (o sudor/dewy) que un acabado 'glass skin'. El glass skin suele verse suave y muy uniforme con un brillo controlado; aquí la textura es más visible: pequeños bultos/imperfecciones en la frente, algunos granos activos/marcas en la barbilla y alrededor de la boca."

Léelo de nuevo. La IA no está describiendo neutralmente lo que ve. Está comparando con un ideal ("glass skin"), está marcando lo que se desvía del ideal ("imperfecciones", "bultos", "marcas"), y está asignando categorías ("estándares dominantes", "estándares modernos exagerados").

Otros usuarios han recibido sugerencias todavía más explícitas, como que su mandíbula sería más cercana a lo que se considera "objetivamente bello en su cultura" si fuera menos alargada.

Milagros Costabel usa una aplicación con inteligencia artificial cada mañana, como una especie de espejo sonoro

(Crédito: Milagros Costabel)

Por qué pasa esto

La inteligencia artificial no es un oráculo. No es una entidad que tenga ideas propias sobre la belleza. Aprende.

Y aprende de lo que le damos: millones de textos publicados en internet, descripciones de productos cosméticos, comentarios en redes sociales, artículos de revistas de moda, reseñas de tratamientos estéticos, conversaciones sobre cuerpos. Todo lo que se ha escrito en las últimas décadas sobre cómo "debe" verse una cara forma parte del entrenamiento de estos modelos.

Cuando le preguntas a una IA cómo te ves, la respuesta que recibes no es lo que un experto neutral diría. Es el promedio estadístico de lo que la cultura ha repetido sobre los cuerpos durante años.

Y esa cultura lleva décadas diciendo que hay cuerpos correctos y cuerpos a corregir.

El altavoz, no el problema

Seguramente lo primero que nos da porr pensar es que la IA está creando un nuevo problema: la tecnología ahora juzga los cuerpos, pero eso es esquivar la responsabilidad real, ese... problemilla que parecía sin importancia, y que durante varias generaciones se ha pasado por alto, escondiéndolo debajo de la alfombra, o diciendo que no tenía importancia.

  • La IA no se inventa la idea de que la "glass skin" es deseable. La aprende de millones de productos, vídeos y publicaciones que han colocado esa textura como objetivo durante años.

  • La IA no se inventa la idea de que las cejas "alineadas con los estándares dominantes" son mejores. La aprende de la industria del maquillaje, de la moda, de las celebridades, de las descripciones que damos a los rostros que admiramos.

  • La IA no se inventa que una mandíbula afilada es lo "moderno y exagerado". La aprende de tendencias estéticas que llevan décadas premiándose.

La IA no es el problema. Es el altavoz.

Y como altavoz, hace algo que sí cambia las cosas: amplifica el ruido. Hace audible lo que estaba tan asumido que ya no lo veíamos (o mejor dicho, hacíamos como que no lo veíamos). Cuando una IA describe a alguien diciéndole que su mandíbula sería más cercana al ideal si fuera menos alargada, no está diciendo nada nuevo. Está repitiendo, sin filtros, lo que la cultura lleva años gritando sin oposición.

Lo que esto tiene que ver con el ejercicio y la salud

Llevo más de diez años trabajando como entrenador personal, y esto es lo que más me suena:

"Lo único que me ofrecían era perder peso."

"No encontraba un sitio donde no me sintiera juzgada."

"Cada vez que abandonaba, sentía que era culpa mía por no encajar."

Este es el reflejo de un sector que durante décadas ha medido el éxito en kilos, en porcentaje de grasa, en cuánto se aleja un cuerpo del ideal "deseable". Un sector que ha vendido la idea de que cuidarte es corregirte.

Y ese discurso es exactamente el que la IA ahora repite cuando le preguntas cómo te ves. Porque lo aprendió de nosotros.

Qué se puede hacer

No se trata de demonizar la IA ni de prohibirle a nadie usarla. Para muchas personas ciegas, estas herramientas representan un acceso real a información sobre sí mismas que antes era imposible. Y eso tiene un valor enorme.

Cuando una IA te dice que tu cara "encaja con los estándares dominantes", no te está diciendo nada sobre tu valor. Te está diciendo cómo de cerca o lejos estás de un molde que muy poca gente real cumple. Cuando te describe tus "imperfecciones", está aplicando una etiqueta que viene de una cultura concreta, en un momento histórico concreto, con intereses comerciales (mucho de esto) concretos detrás.

Lo mismo pasa con el ejercicio. Cuando un entrenador te dice que tienes que "tonificar", "definir", "marcar", no está describiendo una necesidad de tu cuerpo. Está aplicando un molde. Cuidarse no es corregirse. Entrenar no es ajustarse a un molde. Y verse no es compararse.

La IA, los entrenadores, las revistas, los algoritmos de Instagram… todos son altavoces. Lo que dicen depende de lo que la cultura les ha enseñado a decir. Y lo que la cultura repite, podemos elegir escucharlo... o cuestionarlo.

El reportaje completo está disponible en BBC Future (enero 2026):

AI mirrors are changing the way blind people see themselves