FOSFO: Un documental mexicano que desafía el capacitismo y amplifica las voces de las personas con discapacidad

FOSFO: Un documental mexicano que desafía el capacitismo y amplifica las voces de las personas con discapacidad

En un panorama cinematográfico que busca ser cada vez más inclusivo, FOSFO emerge como una propuesta innovadora y necesaria. Este documental mexicano, codirigido por el actor Humberto Busto y el activista con discapacidad Guz Guevara, se posiciona como una herramienta poderosa para visibilizar y combatir el capacitismo, es decir, la discriminación hacia las personas con discapacidad.

Una narrativa desde la experiencia vivida

FOSFO no es simplemente un documental sobre la discapacidad; es una obra que nace desde la experiencia y la perspectiva de quienes la viven. Guz Guevara, activista queer y persona con osteogénesis imperfecta, aporta su visión única al proyecto, asegurando que la narrativa no sea extractivista ni paternalista. La colaboración con Busto se basa en una relación de empatía y respeto mutuo, donde cada uno contribuye desde su área de expertise para construir una historia auténtica y conmovedora.

Un enfoque interseccional

El documental aborda la discapacidad desde una perspectiva interseccional, reconociendo que las personas con discapacidad también pueden enfrentar otras formas de opresión relacionadas con su identidad de género, orientación sexual, raza o clase social. Esta visión integral permite una comprensión más profunda de las múltiples barreras que enfrentan estas personas en su vida cotidiana.

Una experiencia sensorial y musical

FOSFO se presenta como una pieza inmersiva que combina material de archivo, dramatizaciones y puestas en escena musicales. La música juega un papel fundamental en el documental, con la inclusión del nuevo material discográfico de Guevara, titulado Inválido, que mezcla géneros como el euro pop, la cumbia y el trap para contar historias personales y colectivas. Esta fusión de elementos busca conectar emocionalmente con el público y desafiar las ideas preconcebidas sobre la discapacidad.

Reconocimientos y proyecciones futuras

A pesar de los desafíos y el escepticismo inicial, FOSFO ha sido premiado en festivales internacionales como el Festival Internacional de Cine Documental DocsMX y el Encuentro Internacional de Industria Documental Chile Conecta. Se espera que el rodaje culmine en 2025 y que el documental se estrene en 2026, con la intención de llegar a una audiencia amplia y diversa, sensibilizando de manera proactiva sobre la realidad de las personas con discapacidad.

 

¿Qué opinas sobre la representación de la discapacidad en el cine y los medios? ¿Conoces otras iniciativas que promuevan la inclusión desde la cultura? ¡Dejanos tu comentario! Te invitamos a leer nuestro artículo: Cytotron en ‘Los dos hemisferios de Lucca’: esperanza vs. evidencia científica

Deepfakes y lengua de señas: oportunidades y riesgos de la IA para la accesibilidad

Deepfakes y lengua de señas: oportunidades y riesgos de la IA para la accesibilidad

Los avances en inteligencia artificial están revolucionando múltiples campos y uno de los desarrollos más recientes es el uso de deepfakes: técnicas que permiten generar videos realistas de personas hablando, moviéndose o gesticulando, incluso si esas imágenes nunca existieron originalmente. Aunque muchas veces asociados a riesgos de desinformación o manipulación, los deepfakes también abren nuevas oportunidades para la accesibilidad, especialmente en el campo del doblaje en lengua de señas.

Como suele ocurrir con las tecnologías emergentes, el potencial de inclusión convive con nuevos riesgos éticos y desafíos que es importante visibilizar.

¿Qué son los deepfakes?

Los deepfakes son videos generados mediante inteligencia artificial, basados en redes neuronales profundas (deep learning). Estas redes analizan grandes cantidades de datos de imagen y sonido para recrear de forma realista los gestos, movimientos faciales y voces de personas reales o incluso generar rostros completamente artificiales.

Aunque inicialmente generaron preocupación por su potencial de manipulación (como la creación de videos falsos de figuras públicas), su aplicación en accesibilidad ha empezado a abrir debates más complejos.

¿Cómo pueden los deepfakes mejorar la accesibilidad en lengua de señas?

Una de las barreras de accesibilidad más frecuentes es la falta de contenidos audiovisuales traducidos a lengua de señas. Gran parte del material educativo, informativo o cultural no está disponible para personas sordas o con hipoacusia. La creación manual de intérpretes en video para cada contenido es costosa, demanda tiempo y recursos, y no siempre es viable.

Aquí es donde surge una de las aplicaciones positivas de los deepfakes: el desarrollo de avatares de lengua de señas generados por IA. A través de modelos que aprenden los movimientos precisos de las señas, es posible crear avatares hiperrealistas que interpretan automáticamente los contenidos en tiempo real o generan videos pregrabados de forma mucho más rápida.

Esto permitiría:

  • Generar versiones en lengua de señas de noticias, videos educativos, cursos online o contenido de plataformas de streaming. 
  • Traducir contenidos masivos de forma más accesible, rápida y económica. 
  • Personalizar el avatar según la variante de lengua de señas de cada país (por ejemplo: LSA, LSM, LSC, etc.). 

Varias empresas tecnológicas ya están desarrollando prototipos de esta tecnología, combinando modelos de IA de procesamiento del lenguaje natural con modelos visuales de interpretación gestual.

¿Por qué esta tecnología es prometedora para la comunidad sorda?

La posibilidad de contar con más contenido accesible en lengua de señas permitiría reducir la brecha de acceso a la información, la educación, el entretenimiento y los servicios digitales. Muchas personas sordas tienen como primera lengua una lengua de señas, y el acceso a contenidos adaptados en su propio idioma es todavía limitado en la mayoría de los países.

 

¿Qué riesgos presenta el uso de deepfakes en accesibilidad?

A pesar de su potencial, esta tecnología también plantea desafíos importantes que deben ser discutidos con responsabilidad.

Uno de los principales riesgos es el reemplazo indebido del rol de intérpretes humanos, especialmente cuando la tecnología aún no logra captar la complejidad completa de la lengua de señas: expresiones faciales, contexto cultural, variaciones regionales y matices emocionales. Si se confía exclusivamente en sistemas automatizados inmaduros, se corre el riesgo de generar traducciones inexactas o confusas.

Además, la posibilidad de manipular imágenes de personas generando videos que nunca existieron plantea debates éticos profundos sobre el consentimiento, la propiedad de la imagen, la privacidad y la manipulación informativa.

Existe también el riesgo de crear “señado artificial” que no sea fiel a ninguna variante real de lengua de señas, lo cual puede resultar confuso o incluso ofensivo para la comunidad sorda.

Por último, debe considerarse quién controla el desarrollo y uso de estos modelos. Si las comunidades de personas sordas no son involucradas activamente en el diseño, entrenamiento y validación de los sistemas, el resultado puede terminar reproduciendo sesgos o invisibilizando su propia diversidad lingüística.

 

¿Qué principios deberían guiar el desarrollo responsable de estas tecnologías?

Para que el uso de deepfakes en accesibilidad sea realmente inclusivo y seguro, es necesario:

  • Involucrar a las comunidades sordas y los profesionales de lengua de señas en el diseño, desarrollo y validación de los modelos. 
  • Asegurar que los algoritmos respeten las variantes regionales y culturales de cada lengua de señas. 
  • Mantener altos estándares de precisión lingüística y contextual. 
  • Establecer marcos éticos y regulatorios claros sobre el uso de imágenes personales, consentimiento y propiedad de los datos. 
  • Garantizar siempre la opción de contar con intérpretes humanos para contextos sensibles o complejos. 

Los deepfakes aplicados a la accesibilidad abren un nuevo capítulo en la inclusión digital. Pueden convertirse en herramientas valiosas para ampliar el acceso a la información de las personas sordas, pero también requieren ser utilizados con cautela, supervisión ética y participación activa de las propias comunidades destinatarias.

Como ocurre con toda tecnología emergente, el desafío no es solo lo que la inteligencia artificial puede hacer, sino cómo, para quién y bajo qué condiciones lo hace. La accesibilidad verdadera siempre debe construirse con las personas, no solo para ellas.

¿Qué opinas sobre el uso de deepfakes en accesibilidad? ¿Crees que la tecnología puede ser un aliado real para la inclusión o que aún presenta más riesgos que beneficios? Te invitamos a compartir tus reflexiones en los comentarios. Si deseas conocer más sobre innovación inclusiva, te invitamos a leer nuestro artículo: 10 tecnologías para personas con discapacidad visual

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Configurar y más información
Privacidad