Logo Yober Ramos Abogados

4 de mayo de 2026

Deepfakes pornográficos vs. Derecho a la Intimidad (y otros) en la era de la Inteligencia Artificial

Revisado por: Dr. Yober Ramos

Deepfakes pornográficos vs. Derecho a la Intimidad (y otros) en la era de la Inteligencia Artificial

Abog. Elizabeth Mendoza Maldonado[2]

Introducción

En la actualidad, Internet y las nuevas tecnologías han tomado un lugar primordial en el desarrollo de las sociedades y en la vida diaria de los ciudadanos. Pero, así como las nuevas tecnologías representan numerosas ventajas, existen muchos riesgos en la navegación. Esto es así porque los delincuentes han encontrado en Internet y en las nuevas tecnologías, una herramienta para facilitar la comisión de ilícitos (tradicionales y tecnológicos) y espacios para delinquir con impunidad.

La inteligencia artificial autogenerativa es también usada de forma criminal pues a través del uso de estas herramientas se puede generar contenido pornográfico no consentido. A través de las IA’s y mediante algoritmos de aprendizaje profundo se generan o alteran imágenes, audios y vídeos que parecen reales, de modo que resulta difícil diferenciar entre estos contenidos y un contenido original. Esta situación hace que muchas personas pierdan el control de su imagen y voz pues a través de estas IAs, se puede generar contenido audiovisual del tipo que el autor desee. Además, para el uso de estas herramientas no se requiere de conocimientos técnicos especializados por lo que estas tecnologías son de fácil uso y acceso, y se encuentran al alcance de cualquier persona que navegue en Internet.

Al respecto, es necesario cuestionarse cómo funcionan los sistemas de justicia en la protección de las personas frente a este tipo de situaciones:¿cuál es la protección jurisdiccional que los sistemas de justicia ofrecen a las víctimas de deepfakes?. En este sentido, es necesario analizar qué es una deepfake, cuáles son sus implicaciones para los derechos humanos y el derecho penal, y cuáles son los retos a los que se enfrentan los jueces al momento de procesar estos casos, así como los principales precedentes judiciales sobre estos temas.

Este fenómeno es tan nuevo que existen muy pocas sentencias sobre deepfakes a lo largo del mundo, por lo que el campo de estudio será a nivel universal, con el fin de recopilar los principales pronunciamientos.

Índice:

Introducción2

1. Deepfakes4

1.1. Definición y conceptualización4

1.2. Relación con los derechos humanos5

2. Deepfakes en el Derecho Penal6

3. Desarrollo jurisprudencial7

3.1. Canadá7

3.2. España8

3.3. México9

4. Retos en la jurisprudencia10

Conclusiones11

  1. Deepfakes

Para poder realizar un análisis sobre cómo los deepfakes representan un reto para la administración de justicia, es necesario entender cómo funcionan y cuáles son las implicancias de los mismos en los derechos humanos.

1.1. Definición y conceptualización

El término deepfakes fue utilizado en 2017 como referencia de deep learning (aprendizaje profundo) que es una técnica de inteligencia artificial a través de la cual se utilizan algoritmos complejos que aprenden de forma autónoma a crear vídeos, audios y fotografías falsas que parecen reales. Así, lo que buscan los deepfakes es realizar copias digitalizadas de personas que hacen o dicen lo que el autor de esta creación solicita[3].

La forma en la que se realizan los deepfakes es a través de un software de aprendizaje profundo que utiliza vídeos o imágenes libres de derechos que son difíciles de contrarrestar[4]. La forma en la que trabaja este software es a través de un mecanismo susceptible de engañar a los algoritmos de detección, ya que se basa en la competencia de dos algoritmos: uno que copia un video muchas veces de forma idéntica haciendo que la imagen o vídeo coincidan con la distribución de datos de preparación y el segundo algoritmo que detecta la calidad de estos videos creados por el primer algoritmo, con el fin de excluir aquellos contenidos menos creíbles, de modo que existen menos porcentajes de errores[5]. Los vídeos manipulados, a criterio de Matías Lavanda, pueden calificarse en tres categorías:

  • Intercambio de caras: la cara de un vídeo se sustituye por la de otra persona.
  • Insertar personas en vídeos; por ejemplo, insertar mujeres en clips de contenido pornográfico.
  • Sincronización de labios: modificación de un vídeo original para hacer coincidir los movimientos musculares de la zona de la boca con otra grabación de audio, diferente a la original[6].

1.2. Relación con los derechos humanos

Históricamente, el uso de deepfakes se ha relacionado con la política y la economía[7]. No obstante, en la actualidad, este uso se ha proliferado con fines delictivos; entre ellos, los deepfakes pronográficos. En 2024, Sensity AI, una empresa que detecta deepfakes emitió un Informe sobre la situación de estos en 2024 y los resultados fueron alarmantes ya que entre el 90 y 95% de deepfakes son pornografía no consencida, de las cuales, 9 de cada 10 víctimas son mujeres[8]. Al respecto, es necesario analizar cuáles son las consecuencias y cómo afecta la pornografía generativa no consentida a las personas implicadas.

Los principales derechos afectados son el derecho a la voz y a la imagen. Estos derechos no se encuentran regulados directamente en la Declaración Universal de Derechos Humanos. No obstante, se están promoviendo normativas internacionales y regionales al respecto, y muchos países los regulan como derechos fundamentales en sus Constituciones o en su derecho interno. Estos derechos hacen referencia a la protección de la identidad de cada individuo y al control que cada ser humano tiene sobre el uso tanto de su imagen como de su voz. De esta forma, se protege la reproducción, distribución y publicación de la imagen y la voz de las personas. Los deepfakes, para ser creados, necesitan de la voz o la imagen de determinada persona; lo cual significa un uso no autorizado de estos datos y su consecuente manipulación, a través de la generación de voces e imágenes no reales.

Por otro lado, también se afecta el derecho a la intimidad. La intimidad hace referencia a los límites y ámbitos excluidos de la injerencia y conocimiento de terceros. Al respecto, el Tribunal Constitucional español ha establecido en la STC 110/1984 que el respeto al ámbito de vida privada, familiar y personal deben quedar excluidos del conocimiento de terceros y de intromisiones de la tecnología. Los deepfakes de pornografía no consentida producen imágenes sexuales y/o íntimas de personas que no han participado en estas acciones. Al generar estas imágenes, se muestra a la persona afectada realizando conductas sexuales, de modo que aún cuando no sea su cuerpo o sus actos, el hecho de hacer creer que sí lo es, genera afectaciones a su intimidad.

También se vulneran el derecho al honor y a la buena reputación. Estos derechos hacen referencia a la dignidad de una persona respecto a los ataques que la misma recibe y pudieran afectar su nombre e imagen frente a los demás. Los deepfakes pornográficos pueden generar daños a la reputación personal, ya que este contenido puede ser visto por más personas y hacerlas creer que se trata de un contenido real. De esta forma, se asocia a la persona víctima con determinados contenidos sexuales, de modo que se afecta su reputación e integridad moral. En este sentido, se puede crear una imagen sexualizada o degradante de determinada persona, asociándola a estereotipos.

Adicionalmente a la vulneración de los derechos antes mencionados, la generación de deepfakes pornográficos puede traer situaciones de acoso y estigmatización social. A raíz de la divulgación o venta de este contenido, la persona puede sufrir de acoso sexual y también puede ser foco de comentarios insultantes, despectivos, de burlas o ataques que pueden intensificarse. Estas situaciones traen más consecuencias y afectaciones a la dignidad de la persona; entre ellas, afectaciones psicológicas y emocionales, así como en la relación de la persona con Internet y redes sociales.

  1. Deepfakes en el Derecho Penal

En algunos países como Canadá, la regulación de deepfakes pornográficas aún no es específica, por lo que corresponde buscar la subsunción de este tipo de hechos en delitos ya regulados. Al respecto, el profesor Roberto Diab indica que esta duda surgió en la policía al encontrar un caso de un chico de secundaria que creó una serie de deepfakes pornográficos de sus compañeras de clase, extrayendo sus rostros de fotos de Instagram. No obstante, la Fiscalía decidió no proceder porque no consideraban que se tratase de un delito. En Canadá, dos artículos de su Código Penal son relevantes respecto a los deepfakes de contenido sexual: 162.1 distribución no consentida de imágenes íntimas y 163.1 fabricación, distribución o posesión de pornografía infantil. Respecto al primer delito, en Canadá no se ha aplicado en ningún caso este artículo para la creación de deepfakes pornográficos. Lo que sí se ha utilizado es el articulado sobre creación de pornografía infantil[9].

La discusión principal de este tema se refiere con la excepción del “uso privado” de la posesión de la pornografía para uso personal. En el caso R. v. Sharpe[10], el Tribunal Supremo desarrolla doctrina sobre la protección de menores y la libertad de expresión y privacidad de la persona investigada. De esta forma, se desarrolla la doctrina del “uso personal” e indica que existen dos excepciones al delito de pornografía infantil: (1) posesión de material exclusivamente para uso personal y (2) grabaciones de actividad sexual legal para uso privado, con consentimiento de la persona. Estas excepciones se aplican de manera limitada y no justifican de ninguna forma la comercialización o distribución de este material.

En otros países como Perú, existe normativa actualizada que busca incluir como ilícitos penales aquellas conductas delictivas desarrolladas con los avances de las nuevas tecnologías. El cambio normativo ocurrió hace poco, en agosto de 2024, a través de la modificación del delito 154-B sobre difusión de contenido íntimo sin consentimiento. El nuevo precepto legal incluye dentro de la difusión ilegal contenido audiovisual real o aquellos que hayan sido elaborados o modificados por medios digitales o tecnológicos.

  1. Desarrollo jurisprudencial

A continuación se realiza un análisis de la jurisprudencia relacionada a los deepfakes. Los países elegidos son los únicos de la región americana que cuentan con sentencias de deepfakes de pornografía no consentida.

3.1. Canadá

El Tribunal de Québec emitió la sentencia 2023 CCCQ 1853[11]de fecha 14 de abril de 2023. El caso es sobre un hombre de 61 años que fue declarado culpable de poseer más de 545,000 archivos de pornografía infantil que fueron puestos a disposición para compatir. Y, también fue declarado culpable de crear más de 86,000 archivos de pornografía infantil utilizando tecnología deepfake (fundamento.

Esta sentencia hace hincapié en que las nuevas tecnologías han contribuido en la proliferación de la pronografía infantil. Además, este tribunal indica que los deepfakes de pornografía de menores son igual de perniciosos porque repiten la violencia sexual original sobre los niños (fundamento.. Cuando el Tribunal realiza el análisis de la pornografía infantil sobre niños no reales, indica que aún cuando no sean reales y esta información no se encuentra dentro de la configuración del delito de pornografía infantil, el acusado se encontraba consumiendo pornografía infantil, por lo que su posesión consciente y deliberada revela su depravación moral y su culpabilidad, demodo que respecto a este contenido, los hechos deben considerarse como un factor agravante de gran importancia (fundamento 44).

Respecto a la fabricación de pornografía infantil, el Tribunal indica que se trata del primer caso de este tipo en el país y que si bien los deepfakes tienen desarrollo académico, no se ha hablado al respecto en la jurisprudencia. Indican que la policía, al registrar los archivos, encontraron una serie de fotografías con anomalías en la calidad de la imagen y trasanalizarlos, determinaron que los archivos habían sido modificados o alterados. Al respecto, este Tribunal indica que la fabricación de pornografía infantil también debe ser considerada como uno de los delitos más graves en el Código Penal (fundamento 67). El Tribunal indica la importancia de su uso en internet pues el infractor creó 86,000 archivos que se crearon y que en la actualidad se estaban multiplicando y generando efectos negativos sobre los niños. Por ello, el Tribunal considera que aún cuando no existan niños sexualmente agredidos en estos archivos, es pertinente enviar un mensaje sobre cualquier persona que piense en cometer un delito con este tipo de tecnologías por la afectación que genera la producción de este material. Además, indica que en la producción de estos archivos, los niños, aunque no agredidos, vieron vulnerada su imagen y su integridad sexual se vio violada (fundamento 75).

Es importante también resaltar que el Tribunal indica que el uso de la tecnología para crear material deepfake no cambia el sentido y la esencia del delito de producción de pornografía infantil. De esta forma, no consideran que debe tratarse de forma diferente o excepcional a una persona que ha fabricado este material pues no se trata de “simples manipuladores”, sino que son imágenes existentes en donde se recrea el abuso de niños (fundamento 76). Por ello, el Tribunal sancionó al acusado con 17 meses de prisión preventiva por la elaboración de pornografía infantil, siendo una condena total de 5 años y 11 meses de presión.

Otra sentencia relacionada a los deepfakes en Canadá es la Sentencia BCPC 29 del expediente 30971-2[12]del Tribunal Provincial de Columbia Británica. El caso se refiere a catfishing, fabricación de pornografía infantil, posesión de pornografía infantil, acoso por Internet y un video de masturbación no consentido; por parte del pastor asociado bautista Nathan Allen Joseph Legault de 30 años. Respecto al deepfake, Nathan puso la foto de BBB sobre un cuerpo desnudo a través del uso de una aplicación llamada “DeepNude”. Esta aplicación convierte cualquier fotografía en una imagen con desnudos. Su teléfono móvil contenía aproximadamente 112 fotografías y vídeos de pornografía infantil de menores de 12 años. Su teléfono también contenía más de 200 imágenes de niños que, a criterio de la policía, usaría para crear imágenes pronográficas con DeepNude. Parte de la defensa fue solicitar una consideración especial para sentencia de delincuentes indígenas por la autoidentificación como indígena. No obstante, el Tribunal indicó que la autoidentificación no reducía en absoluto la culpa moral de los hechos[13].

Al respecto, el Tribunal indica que los derechos de fabricación y puesta a disposición de pornografía infantil son objetivamente graves. Indica también que realizar la pornografía infacntil con tecnología deepfake es un delito diferente a la recopilación de fotos pornográficas y el sometimiento a abuso de los niños. Pero, aún cuando sea diferente, la fabricación de la pornografía infantil debe ser denunciado y castigado (fundamento 44). La sentencia reflexiona sobre el daño que genera la pornografía infantil (generada o real) respecto a las representaciones degradantes, deshumanizadoras y cosificadoras de los niños pues se erotiza su condición de niños. Así, lo que produce este tipo de comportamientos es alentar este abuso (fundamentos 49 y 61).

3.2. España

En la jurisprudencia española no se ha hablado del término deepfakes pero un caso relevante y relacionado es el de la Sentencia 23/2010[14] sobre un fotomontaje de Isabel Iglesias Preysler en donde se puede ver a una mujer mostrando los muslos y cubierto únicamente con una tanga hasta la cintura. Isabel Iglesias demandó la protección de sus derechos al honor, intimidad personal y familiar, y a la propia imagen, en contra de Javier Vázques, en representación de HF Revistas, S.A. por haber publicado un reportaje caricaturesco sobre Isabel Iglesias en donde aparecía una composición fotográfica con el rostro de Iglesias y el cuerpo de otra mujer. En el Fundamento Jurídico 5, el Tribunal Constitucional español indica que se trata de una composición humorística a través de la manipulación de la imagen, por lo que aún cuando este tribunal reconoce el uso de las nuevas tecnologías para el tratamiento de imágenes, considera que se trata de una caricatura. Pero, este tribunal también reconoce que si la caricatura se realiza a través de la distorsión de la imagen fotográfica de una persona, efectivamente, se estaría afectando la imagen de la persona afectada. Al respecto, el tribunal indica que esta sátira no podría entenderse dentro del ejercicio de crítica política o social, sino que más bien se trata de un caso de afectación a la propia imagen al publicar un montaje caricaturesco elaborado a través de la manipulación de la fotografía.

Esta sentencia es útil porque aunque no se habla de contenido íntimo, se hace referencia al uso de las tecnologías para la creación de deepfakes o fotomontajes. En este sentido, el TC español reconoce que estos hechos (el uso de imágenes propias para la elaboración de fotomontajes) afecta el derecho a la imagen de la persona pues se crean fotografías no reales.

3.3. México

En México se encuentra la Causa N° V-63[15] en donde se analizan las medidas de protección contra violencia familiar. El caso es denunciado por S.M.M.B por violencia familiar en contra de su ex pareja Y.E.D. la víctima refirió haber sufrido agresiones físicas y haber sido hostigada a través de redes sociales. Esta resolución es importante porque hace referencia a la violencia en línea en contra de las mujeres indicando que este tipo de violencia digital representa un obstáculo para el uso seguro de las comunicaciones e información digital, generando consecuencias psicológicas, emocionales y sociales, impidiendo el uso y disfrute de los derechos humanos de las víctimas (Fundamento Décimo Primero). Así, esta violencia puede traducirse en la violación de la intimidad de las mujeres al filtrar imágenes o videos con contenido sexual que buscan ridiculizarla o humillarla.

En México, la Ley Olimpia 27736 regula la violencia digital contra la mujer como aquella violencia cometida a través del uso de las tecnologías, que busca causar daños de cualquier tipo hacia las mujeres. El Poder Judicial de Ituzaingó indicó en la Causa V- 63 que esta ley contempla la reproducción de material íntimo, real o editado. En este caso es también relevante que las medidas buscan evitar la comisión de perjuicios irreparables hacia la víctima por lo que ordenan al denunciado eliminar cualquier material ya publicado sobre la víctima y que se abstenga de publicar materiales sobre la denunciante en cualquier red social. Además, ordena la eliminación de todo material privado o íntimo de la denunciante, de todos sus dispositivos y datos almacenados, incluyendo los shallowfakes o deepfakes.

Estas medidas son sumamente relevantes y adecuadas para este tipo de casos. Esto es así porque usualmente se otorgan medidas de protección sobre alejamiento y poco más. En cambio, en este caso se tomó en cuenta la situación denunciada, los riesgos que generaría la posibilidad de divulgación de contenido íntimo, tanto real como generado, y se adecuaron las medidas de protección al caso específico.

  1. Retos en la jurisprudencia

Como hemos podido observar, los deepfakes de contenido pornográfico representan grandes riesgos en los ordenamientos jurídicos y en la impartición de justicia. Esto es así porque a medida que avanza y se sofistica la tecnología, las formas de cometer ilícitos van creciendo y van generando retos tanto para legisladores como para jueces.

Por un lado, las regulaciones quedan desfasadas cuando surgen nuevas formas de cometer delitos y como se indicó en los acápites anteriores, aún existen muchos países que siguen sin regular las deepfakes en sus ordenamientos porque son situaciones tan novedosas que siguen en las discusiones de la agenda parlamentaria, pero aún no se ven traducidas en una norma. Por ello, y a la espera de su promulgación, la única salida termina siendo buscar la forma de subsumir este tipo de delitos en delitos ya regulados. En algunos ordenamientos, según la forma de redacción de sus tipos penales, esto es posible; no obstante, en otros ordenamientos no es posible subsumir este tipo de delitos, por lo que nos encontramos frente a espacios de impunidad, ya que uno de los principios que fundamentan el Derecho Penal es el principio de Legalidad, a través de la ley previa.

También, estas nuevas tecnologías generan problemas al momento de impartir justicia. Esto principalmente por las brechas en el entendimiento de las tecnologías: si no existe conocimiento sobre cómo funciona el delito, no va a ser probable realizar actos de investigación pertinentes o adecuados; tampoco será probable que un juez pueda evaluar evidencia sobre softwares e inteligencia artificial generativa si no conoce cómo funcionan estos sistemas y mucho menos que emita medidas de protección y no repetición adecuadas con las necesidades de la víctima.

Adicionalmente al desconocimiento, los retos que representan las inteligencias artificiales autogenerativas y las nuevas tecnologías en general se relacionan con la obtención de evidencia sobre su uso. La mayoría de softwares de uso de IA no necesitan cuentas específicas y su uso es tan accesible que no se necesita un conocimiento especializado por lo que muchas veces es poco probable encontrar al autor de este contenido si no ha sido identificado antes o si no se ha encontrado este material en sus dispositivos. Además, con la sofisticación de las IAs generativas, muchas veces es difícil distinguir entre contenidos reales y contenidos generados. Así, en el tema de probanza encontramos un caso sumamente importante en México en el que un estudiante (Diego “N”) fue denunciado por almacenar y distribuir más 166,000 imágenes y vídeos sexuales de mujeres, entre ellas ex compañeras de clase, generados con Inteligencia Artificial. Diego fue absuelto porque el Juzgado consideró que no existían pruebas suficientes para relacionar al joven con la modificación de las imágenes encontradas en su celular[16]. En este sentido, existen muchos casos que no llegan a una sentencia condenatoria por la falta de producción de evidencia que puede deberse a la misma forma en la que se configura Internet o a negligencias por desconocimiento en la obtención de pruebas por parte del Ministerio Público o Fiscalías.

Al respecto, corresponde también hablar de la necesidad de comprometer a las plataformas digitales en la investigación y sanción de estos delitos, así como la necesidad de plantear su responsabilidad en la difusión de estos contenidos. Las plataformas de redes sociales manejan flujos inmensos de información y contenido audiovisual; pero, debe existir responsabilidad sobre el manejo de esta información, así como el respeto de los derechos humanos en el uso de sus herramientas. En este sentido, también se ha planteado la necesidad del desarrollo de herramientas de prevención y sanción de delitos por parte de estas plataformas con el fin de obtener evidencia para futuras denuncias y con el fin de que cese la situación de violencia.

Conclusiones

  1. Las nuevas tecnologías representan grandes oportunidades de desarrollo para las sociedades. Pero, también representan grandes situaciones de riesgo para los derechos humanos. Entre estas situaciones riesgosas encontramos la generación de pornografía no consentida a través de inteligencia artificial autogenerativa. Esta inteligencia solo necesita una fotografía del rostro de una persona para poder generar contenido pornográfico que parezca verdadero.
  2. Las deepfakes pornográficas generan efectos importantes en los derechos humanos pues se afectan la voz, imagen, intimidad y el derecho al honor y a la buena reputación de las personas que se encuentran afectadas por estas IAs. Esto es así porque se generan contenidos no reales de carácter sexual. Estas situaciones pueden llevar también a generar situaciones de acoso y estigmatización social.
  3. Existen diversas formas de abordar las deepfakes pornográficas en los ordenamientos jurídicos. No obstante, al tratarse de un fenómeno relativamente nuevo, muchos ordenamientos no han logrado regular a tiempo estas situaciones, por lo que en algunas ocasiones se encuentran frente a la impunidad de este tipo de hechos.
  4. El desarrollo jurisprudencial de deepfakes es escaso e incipiente. Esta situación refuerza la idea de que los deepfakes pornográficos representan grandes retos para los ordenamientos jurídicos. También refuerza la idea de que la judicialización de estos casos es complicada por temas de pruebas y regulación.
  5. Dentro de los retos que generan los deepfakes, se encuentran las regulaciones desfasadas, la falta de capacitación en el entendimiento de las tecnologías y la actuación de las plataformas digitales en la prevención, investigación y sanción de estos delitos.
  6. Aún existen muchos retos y tareas pendientes para la regulación de estas situaciones, pero los avances son significativos y alentadores.


[1] Artículo presentado en el curso Sistemas Constitucionales y la protección de los derechos fundamentales, en el marco del Máster en Estudios Avanzados en Derechos Humanos en la Universidad Carlos III de Madrid. Fecha: 26 de enero de 2025.

[2] Abogada por la Pontificia Universidad Católica del Perú, Candidata a Master en Estudios Avanzados en Derechos Humanos por la Universidad Carlos III de Madrid.

[3] LAVANDA, M., “Deepfake: cuando la inteligencia artificial amenaza el Derecho y la Democracia”

[4] Ídem.

[5] SOMERS, M., “Deepfakes, explained”, Massachusetts Institute of Technology.

[6] LAVANDA, M., “Deepfake: cuando la inteligencia artificial amenaza el Derecho y la Democracia”, Lawgic Tec, número 2, Julio, 2022, pp. 84-95, p.86.

[7] LAVANDA, M., “Deepfake: cuando la inteligencia artificial amenaza el Derecho y la Democracia”, Lawgic Tec, número 2, Julio, 2022, pp. 84-95, p.87.

[8] SENSITY AI, The State of Deepfakes 2024.

[9] DIAB, R., ¿Los deepfakes sexuales no son un delito en Canadá?, 11 de enero de 2025, disponible en https://www.robertdiab.ca/index.html.

[10] TRIBUNAL DE APELACIONES DE COLUMBIA BRITÁNICA, Sentencia 2001 SCC2, Sentencia del 26 de enero de 2001.

[11] TRIBUNAL DE QUÉBEC, Sentencia 2023 CCCQ 1853, Sentencia de 14 de abril de 2023, disponible en https://www.canlii.org/en/qc/qccq/doc/2023/2023qccq1853/2023qccq1853.html.

[12] TRIBUNAL PROVINCIAL DE COLUMBIA BRITÁNICA, Sentencia del BCPC 29 del expediente 20971-2, Sentencia de 30 de enero de 2024, disponible en https://www.canlii.org/en/bc/bcpc/doc/2024/2024bcpc29/2024bcpc29.html.

[13] Los beneficios de ser tratado como indígena frente al sistema penal canadiense significan la reducción de la pena, respecto a un enfoque más indulgente por la especial atención a las circunstancias de los delincuentes indígenas, con el objetivo de lograr sentencias adecuadas y apropiadas.

[14] TRIBUNAL CONSTITUCIONAL ESPAÑOL, Sentencia 23/2010, de 27 de abril de 2010, disponible en https://hj.tribunalconstitucional.es/es-ES/Resolucion/Show/6662.

[15] SENTENCIA DEL PODER JUDICIAL DE LA PROVINCIA DE BUENOS AIRES, ITUZAINGÓ, Causa N° V-63, de 20 de noviembre de 2024, disponible en https://www.diariojudicial.com/uploads/0000057337-original.pdf.

[16] EXPANSIÓN POLÍTICA, Juez absuelve a estudiante del IPN acusado de violencia digital, 05 de diciembre de 2024, disponible en https://politica.expansion.mx/sociedad/2024/12/05/diego-n-estudiante-ipn-acusado-de-violencia-digital-absuelto.