Deepfakes sexuales y violencia algorítmica: hacia un marco normativo integral de protección de la dignidad digital
La expansión de los deepfakes sexuales plantea desafíos jurídicos sin precedentes, al constituir una modalidad insidiosa de violencia digital que erosiona la intimidad y autonomía sexual sin mediación física directa, pero con consecuencias tangibles en el plano simbólico y psicosocial. Este fenómeno demanda una relectura crítica de los marcos legales vigentes, que hasta ahora han mostrado una capacidad limitada para abordar la complejidad de las agresiones algorítmicas. En ese sentido, el presente artículo tiene por objetivo proponer un marco normativo integral que articula prevención, sanción y reparación, identificando tres aportes conceptuales clave: el consentimiento digital cualificado, que introduce mecanismos de trazabilidad algorítmica como garantía procesal; la dignidad digital, concebida como la extensión de la protección jurídica al ámbito representacional, y el daño simbólico, que reconceptualiza el umbral de lesividad penal desde una perspectiva psicosocial y reputacional. Los hallazgos muestran a reconsiderar las categorías jurídicas tradicionales y sugieren que los deepfakes sexuales no sólo desbordan los límites del derecho penal clásico, sino que configuran una ruptura epistémica que interpela la noción misma de subjetividad jurídica en entornos de creciente artificialidad. En conclusión, resulta imperativo avanzar hacia arquitecturas normativas más flexibles y corresponsables, capaces de integrar criterios de gobernanza digital, cooperación internacional y actualización normativa sostenida, en aras de una protección efectiva de la dignidad humana en el ecosistema digital contemporáneo.
Detalles del artículo
Estudios en Derecho a la Información por Universidad Nacional Autónoma de México, Instituto de Investigaciones Jurídicas

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.
Citas
Ajder, H., Patrini, G., Cavalli, F., y Cullen, L. (2019). The state of deepfakes: landscape, threats, and impact. Deeptrace.
Breyer, C-582/14, Tribunal de Justicia de la Unión Europea. (19 de octubre de 2016). https://curia.europa.eu/juris/liste.jsf?num=C-582/14
Butler, J. (2009). Undoing gender. Taylor & Francis.
Citron, D., y Chesney, R. (2019). Deepfakes and the new disinformation war. https://scholarship.law.bu.edu/shorter_works/76
Citron, D., y Jurecic, Q. (2018). Platform justice: content moderation at an inflection point. https://www.lawfaremedia.org/article/platform-justice-content-moderation-inflection-point
Citron, D. K. (2019). Sexual privacy. Yale Law Journal, 128(7). https://www.yalelawjournal.org/article/sexual-privacy
Citron, D. K., y Wittes, B. (2017). The internet will not break: denying bad samaritans section 230 immunity (No. 3007720). Social Science Research Network. https://papers.ssrn.com/abstract=3007720
Convención de Ginebra relativo al trato debido a los prisioneros de guerra. 12 de agosto de 1949.
European Commission. (2021). Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206
Tribunal Europeo de Derechos Humanos. (2004). Germany v. Von Hannover. https://hudoc.echr.coe.int/fre?i=001-61853
Gobierno de Alemania. (1983). Urteil vom 15. Dezember 1983. https://www.bundesverfassungsgericht.de/SharedDocs/Entscheidungen/DE/1983/12/rs19831215_1bvr020983.html
Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., y Bengio, Y. (2014). Generative adversarial networks. https://doi.org/10.48550/arXiv.1406.2661
Han, B.-C., y Sanja, V. (2013). La sociedad de la transparencia (R. G. Pallas, Trad.). Herder. DOI: https://doi.org/10.2307/j.ctvt9k5qb
Harmful Digital Communications Act, Ley No. 63 de 2015. Por la cual se establecen medidas contra las comunicaciones digitales dañinas. 2 de julio de 2015 (Nueva Zelanda). https://www.legislation.govt.nz/act/public/2015/0063/latest/whole.html
Helberger, N., Pierson, J., y Poell, T. (2018). Governing online platforms: From contested to cooperative responsibility. The Information Society, 34(1). https://doi.org/10.1080/01972243.2017.1391913 DOI: https://doi.org/10.1080/01972243.2017.1391913
Henry, N., y Powell, A. (2015). Beyond the «sext»: technology-facilitated sexual violence and harassment against adult women. Australian & New Zealand Journal of Criminology, 48(1). https://doi.org/10.1177/0004865814524218 DOI: https://doi.org/10.1177/0004865814524218
Korsgaard, C. M. (1996). Creating the kingdom of ends. Cambridge University Press. DOI: https://doi.org/10.1017/CBO9781139174503
Ley sobre Casos Especiales Concernientes al Castigo de Crímenes Sexuales, Ley No. 14412 de 2016. Por la cual se establecen disposiciones especiales para el castigo de delitos sexuales. 20 de diciembre de 2016 (Corea del Sur). https://elaw.klri.re.kr/eng_service/lawView.do?hseq=40947&lang=ENG
Ley sobre la Protección de Niños y Jóvenes contra Delitos Sexuales, Ley No. 17972 de 2021. Por la cual se establecen medidas para la protección de menores contra delitos sexuales. 20 de abril de 2021 (Corea del Sur). https://elaw.klri.re.kr/eng_service/lawView.do?hseq=56569&lang=ENG
Levy, P. (1999). ¿Qué es lo virtual? Paidós Ibérica.
Mantelero, A. (2018). AI and big data: a blueprint for human rights, social and ethical impact assessment. Computer Law & Security Review, 34(4). https://doi.org/10.1016/j.clsr.2018.05.017 DOI: https://doi.org/10.1016/j.clsr.2018.05.017
Martín López, M. T. (2025). Nuevos riesgos de la inteligencia artificial en la protección de la imagen personal. En M. Á. Jiménez Montañés, S. Villaluenga de Gracia y A. Valmaña Ochaíta (Dirs.), El valor de la persona en tiempos de la inteligencia artificial (pp. 155-218). Tirant Lo Blanch.
Naciones Unidas. (2011). Principios rectores de empresas y DD.HH. - Diez años. https://www.pactomundial.org/noticia/aplica-los-principios-rectores-de-empresas-y-dd-hh-en-tres-sencillos-pasos/
Nussbaum, M. C. (1999). Objectification. En Sex and social justice (pp. 213-239). Oxford University Press. DOI: https://doi.org/10.1093/acprof:oso/9780195112108.003.0009
Online Safety Act, Ley No. 76 de 2021. Por la cual se establecen medidas de seguridad en línea. 28 de enero de 2021 (Australia). https://www.aph.gov.au/Parliamentary_Business/Bills_LEGislation/Bills_Search_Results/Result?bId=r6680
Pagallo, U. (2013). The laws of robots: crimes, contracts, and torts. Springer. DOI: https://doi.org/10.1007/978-94-007-6564-1
Protection from Harassment Act, Ley No. 17 de 2019. Por la cual se establecen medidas de protección contra el acoso. 3 de octubre de 2014, enmendada en 2019 (Singapur). https://sso.agc.gov.sg/Acts-Supp/17-2019/Published/20190610170000?DocDate=20190610170000
Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo. Reglamento General de Protección de Datos. 27 de abril de 2016. Diario Oficial de la Unión Europea, L 119. http://data.europa.eu/eli/reg/2016/679/oj/spa
Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo. Ley de Servicios Digitales. 19 de octubre de 2022. Diario Oficial de la Unión Europea, L 277. https://eur-lex.europa.eu/eli/reg/2022/2065/oj
Service, C. S. I. (2023, octubre 1). The evolution of disinformation: a deepfake future. https://www.canada.ca/en/security-intelligence-service/corporate/publications/the-evolution-of-disinformation-a-deepfake-future/the-evolution-of-disinformation-a-deepfake-future.html
Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act [TAKE IT DOWN Act], S. 146, Ley Pública No. 119-12 de 2025. Por la cual se prohíbe la publicación no consensual de representaciones visuales íntimas. 20 de mayo de 2025. Statutes at Large, 139, 109. https://www.congress.gov/bill/119th-congress/senate-bill/146/text
Vallor, S. (2016). Technology and the virtues: a philosophical guide to a future worth wanting. Oxford University Press. DOI: https://doi.org/10.1093/acprof:oso/9780190498511.001.0001
Wagner, B. (2018). Ethics as an escape from regulation. From «ethics-washing» to ethics-shopping? En E. Bayamlioglu, I. Baraliuc, L. A. W. Janssens y M. Hildebrandt (Eds.), Being profiled: Cogitas ergo sum: 10 years of profiling the European citizen (pp. 84-89). Amsterdam University Press. http://dx.doi.org/10.25969/mediarep/13281 DOI: https://doi.org/10.2307/j.ctvhrd092.18
Wagner, T. L., y Blewer, A. (2019). “The word real is no longer real”: deepfakes, gender, and the challenges of AI-altered video. Open Information Science, 3(1), 32-46. https://doi.org/10.1515/opis-2019-0003 DOI: https://doi.org/10.1515/opis-2019-0003
Zuboff, S. (2022). La era del capitalismo de la vigilancia: la lucha por un futuro humano frente a las nuevas fronteras del poder (A. S. Mosquera, Trad.). Paidós.








