Influencers, mĂşsicos, actores y polĂticos han estado expuestos a la suplantaciĂłn de su rostro o voz —a travĂ©s de inteligencia artificial— marcando un hito y nuevos problemas para el reguardo de la privacidad y los datos personales. En Chile, estos casos son cada vez más frecuentes y, por ahora, no hay una normativa especĂfica que regule esta práctica. Fast Check CL te explica cĂłmo lo está abordando el mundo, sus alcances en nuestro paĂs y los proyectos en el Congreso que buscan ponerle un freno.
Por Fast Check CL
Ya no son casos aislados que puedan merecer exclusivas en matinales. Son hechos reiterados y cada vez más frecuentes en Chile y el mundo. Quizás, el que acaparó toda la atención en el último tiempo —por su sensibilidad—, fue la situación de los alumnos del Colegio Saint George que crearon imágenes desnudas de sus compañeras con inteligencia artificial (IA).
La denuncia provocĂł: que los apoderados demandaran al establecimiento y, al mismo tiempo, develara algunas luces de una nueva forma de ciber acoso. La suplantaciĂłn de la imagen —sea el rostro o la voz— y la generaciĂłn de deepfakes, están a la orden del dĂa: «Usaron mi cara con inteligencia artificial», es la frase que hoy asedia la privacidad de las personas.
Entre otros afectados por esta práctica hay: influencers, actores, polĂticos y artistas musicales; desde Morgan Freeman, pasando por el Presidente Gabriel Boric, hasta MarĂa Fernanda «Mafe» Bertero, quien resultĂł vĂctima de un deepfake, donde su cara es superpuesta en imágenes y videos pornográficos que circulan en distintas plataformas de mensajerĂa.
¿Hay penas asociadas a esta práctica? ¿Cuál es la discusión en Chile? ¿Qué puedes hacer si utilizan tu imagen para este tipo de contenido? Fast Check CL aborda todas interrogantes que hoy se discuten en la opinión pública.
¿Qué es un deepfake?
Según el portal especializado Seon, un deepfake es un tipo de contenido generado digitalmente, como video, imagen o audio, que imita la apariencia y el sonido de una persona. Estos «medios sintéticos» son tan convincentes en su simulación de lo real que pueden engañar tanto a personas como a algoritmos.
ÂżCĂłmo funciona un deepfake?
En la actualidad, gracias al avance en inteligencia artificial y aprendizaje automático, han surgido nuevos paquetes de software que incluyen avatares. Un avatar, de acuerdo a la Real Academia Española (RAE), es la representación gráfica de la identidad virtual.
Asimismo —recoge la empresa especializada en este ámbito, Sensity—, estos avatares son representaciones visuales de rostros humanos generados por IA, capaces de hablar con una voz humana y de parecerse a personas reales.
Los avatares de IA, conocidos tambiĂ©n como humanos digitales, combinan tecnologĂa avanzada de texto a voz con gráficos fotorrealistas y algoritmos de aprendizaje especializados. Estos sistemas utilizan grandes cantidades de datos de audio y video para crear representaciones realistas de humanos, que pueden interactuar en tiempo real con los usuarios.
Para el año 2020, un estudio elaborado por Deeptrace, actual Sensity, arrojó que los videos deepfake se duplicaban cada 6 meses, aproximadamente.
¿Qué se está haciendo en el mundo?
La aproximación más cercana a la regulación de deepfakes y la suplantación de rostro o voces, es la discusión que se desarrolla en la Comisión Europea, en base al aumento de imágenes de abusos sexuales infantiles, generadas por inteligencia artificial. En Bruselas actualizaron los lineamientos vigentes desde 2011.
De esta manera, el pasado 13 de marzo, el Parlamento Europeo aprobĂł por amplia mayorĂa la Ley de Inteligencia Artificial, la cual viene a establecer cierta protecciĂłn a derechos de privacidad, al mismo tiempo que fomenta la innovaciĂłn.
¿Qué dice la ley?
Conforme a los pilares más relevantes que establece la ley, esta guarda ciertas obligaciones para los sistemas de Inteligencia Artificial, según su nivel de riesgo potencial y su impacto en la seguridad. En ese sentido, la legislación establece cuatro riesgos:
- MĂnimo (por ej. Videojuegos, filtro de spam)
- Limitado (por ej. Chatbox, Deep Fake)
- Alto (uso de IA en educaciĂłn, transporte, salud, seguridad y aplicaciĂłn de la ley)
- Inaceptable (por ej. puntuaciĂłn social)
De esta manera, en el numeral 134 de la ley, quedó estipulado «que los usuarios que utilicen estos sistemas para crear o manipular imágenes, audio o video que parezcan auténticos (deepfakes) deben etiquetar claramente el contenido como artificial».
ÂżHay penalizaciĂłn?
En Reino Unido, de acuerdo a la BBC, desde octubre de 2023 que se considera delito compartir pornografĂa deepfake. No obstante, por ahora, generar este tipo de contenido no es ilegal en el citado paĂs. Por esta razĂłn es que en abril de 2024, un proyecto de ley ingresado busca penalizar su generaciĂłn, incluso si no es compartido.
Otro caso es el de Australia, donde el Fiscal General, Mark Dreyfus, presentĂł al Parlamento un proyecto de ley para enmendar el CĂłdigo Penal. Esta iniciativa propone penalizar la distribuciĂłn de contenido deepfake —sexualmente explĂcito, sin consentimiento— con una pena máxima de seis años de cárcel. Por lo demás, contempla delitos agravados para los reincidentes y los creadores de dicho contenido.

El panorama en Chile
En el caso de nuestro paĂs, cuando se utiliza la suplantaciĂłn con Inteligencia Artificial (IA) o deepfakes en perjuicio de una persona —para fines publicitarios o de contenido sexual sin su consentimiento— es importante considerar la legislaciĂłn vigente en la materia y las disposiciones que Ă©sta nos puede entregar.
Para conocerlo a cabalidad, Fast Check CL conversĂł con Danielle Zaror —abogada e investigadora en el Centro de Derecho Informático (CEDI) de la Facultad de Derecho de la Universidad de Chile— y LucĂa Camacho, abogada y coordinadora de polĂticas pĂşblicas de Derechos Digitales.
Una legislaciĂłn insuficiente
«En Chile no hay una regulaciĂłn especĂfica que se aplique a la creaciĂłn de imágenes que tengan por resultado la suplantaciĂłn de una persona en un contexto determinado», explica Zaror.

A lo anterior, la investigadora del CEDI agrega: «En principio, hay que saber que no siempre esas creaciones serán reprochables al punto de ser reprimidas como un delito y, en ese sentido, cualquier regulaciĂłn deberĂa tener en vista que hay casos menos graves y otros más graves. En los casos menos graves, serĂa posible aplicar las reglas que existen en Chile sobre la protecciĂłn de la propia imagen que ancla su resguardo en el derecho».
«Hay casos donde el agravio es tan grande, ya sea porque hay menores de edad involucrados o porque las imágenes se han viralizado a tantas personas y lugares que el daño a la integridad psĂquica sĂłlo puede ser reparable sancionando como delito la actividad relacionada con la suplantaciĂłn», afirma Zaror.
“En Chile no hay jurisprudencia sobre el asunto, hace poco tiempo la cantante Denise Rosentahl fue vĂctima de esta suplantaciĂłn y presentĂł una denuncia, hace poco supimos de unos alumnos que hicieron lo mismo con imágenes de una compañeras y las acciones que las familias presentaron aĂşn están en curso”, puntualiza Danielle Zaror.
En tanto, LucĂa Camacho complementa que «cuando vemos que la persona está viendo su imagen suplantada, donde ve su rostro en videos que no son suyos, su voz en audios que no ha grabado o que no reconoce como suyos, tambiĂ©n se configura el delito de suplantaciĂłn de la propia identidad».

«Pero, ÂżquĂ© pasa? La regulaciĂłn chilena tiene este delito de suplantaciĂłn de identidad, pero no es uno que al dĂa de hoy permita responder a los retos que trae consigo el deepfake, las tecnologĂas de inteligencia artificial, que permiten generar de manera verosĂmil atributos de personalidad de alguien más, como puede ser su voz o imagen», sostiene Camacho.
«Este no es solo un problema de la regulaciĂłn en Chile. En la regiĂłn, por ahora, no contamos con regulaciones que nos permitan hacer frente a los retos que traen los deepfakes. Estamos hablando de gente que vio su rostro, de una mujer que está participando en polĂtica y vio su rostro en contenido sexual. Este tipo de problemas que, segĂşn el contexto y a quien busquen suplantar, tienen una connotaciĂłn más o menos gravosa. Porque en lo que describo, la mujer aludida tambiĂ©n puede ser vĂctima de violencia de gĂ©nero. Hay varios fenĂłmenos delictivos que se van superponiendo entre sĂ, y eso lo complejiza», concluye Camacho.
¿Qué se discute hoy en el Congreso?
Este año, en el mes de mayo, el Gobierno presentĂł al Congreso Nacional un proyecto de ley para regular la Inteligencia Artificial. Concretamente, la iniciativa —empujada por la ministra de Ciencia, AisĂ©n Etcheverry— propone clasificar los sistemas de IA en cuatro categorĂas segĂşn el nivel de riesgo que representen para las personas, la sociedad y los derechos fundamentales.
Inspirados en el modelo europeo, la propuesta define categorĂas como «inaceptable» para herramientas que puedan vulnerar la dignidad humana, como deepfakes sexuales involucrando a menores; «alto riesgo» para aplicaciones que puedan afectar la salud, seguridad o derechos fundamentales; «riesgo limitado», donde se encuentran aplicaciones de Inteligencia Artificial que no representan riesgos significativos de manipulaciĂłn; y «sin riesgo evidente», que es aquella que recomienda pelĂculas o canciones basándose en las preferencias del usuario.
¿Qué dice sobre los deepfakes?
En el proyecto de ley se considera como «riesgo inaceptable» prácticas con alto potencial de manipulación de personas, asà como el uso de sistemas de categorización biométrica, salvo para fines terapéuticos autorizados con consentimiento informado y autorización sanitaria correspondiente.
Adicionalmente, tambiĂ©n se prohĂben sistemas de calificaciĂłn social genĂ©rica y sistemas de IA que empleen tĂ©cnicas de facial scraping para la extracciĂłn no selectiva de imágenes faciales, donde quedarĂa incluido la creaciĂłn de deepfakes de contenido sexual que vulnere a niños, niñas y adolescentes.

La iniciativa del Congreso y la suplantaciĂłn de la voz
El diputado Alejandro Bernales (PL), el 17 julio de 2023, presentó un proyecto de ley que moderniza el delito de usurpación de identidad en el contexto de uso de inteligencia artificial, innovando en lo que refiere a la capacidad de la IA para imitar o replicar la voz, pero también incluyendo la suplantación visual.
- Lee el proyecto aquĂ.
Por lo anterior, es que la iniciativa sustituye el artĂculo 214 del CĂłdigo Penal:
- ArtĂculo actual: El que usurpare el nombre de otro será castigado con presidio menor en su grado mĂnimo, sin perjuicio de la pena que pudiere corresponderle a consecuencia del daño que en su fama o intereses ocasionare a la persona cuyo nombre ha usurpado.
- ArtĂculo del proyecto: El que usurpare la identidad fĂsica o virtual de otro, mediante la simulaciĂłn nominativa, visual, auditiva o el uso de datos personales, será castigado con presidio menor en su grado mĂnimo, sin perjuicio de la pena que pudiere corresponderle a consecuencia del daño que en su fama o intereses ocasionare a la persona cuya identidad ha usurpado.
De acuerdo al estado del boletĂn, el proyecto se encuentra en primer trámite constitucional, en la ComisiĂłn de ConstituciĂłn, siendo el 25 de julio del año 2023, el Ăşltimo movimiento en su tramitaciĂłn.
























