ANALYSIS

Aspectos del proyecto de ley sobre el sello obligatorio y rastreable de la IA en Chile

Últimamente, se presentó el Proyecto de Ley que establece la obligación de un sello claro y rastreable del contenido generado por IA.

Published:

Subscribe to IAPP Newsletters

Contributors:

Juan Pablo González

Legal Senior Manager - Risk Advisory

Deloitte

Con fecha de 17 de junio de 2025, se presentó el Proyecto de Ley que establece la obligación de fijar un sello claro y rastreable del contenido por IA, que actualmente se encuentra en primer trámite del Senado. Durante las últimas semanas y debido al avance del Proyecto que regula sistemas de IA que pasó a su segundo trámite constitucional —no exento de críticas por parte de algunos parlamentarios y con un texto aprobado en que fueron rechazados asuntos críticos del mismo (p. ej., la autoridad a cargo del régimen de sanción)— se ha solicitado la participación de diversos actores de la sociedad civil, particularmente en la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación del Senado. 

Esta iniciativa parlamentaria, se une a otras a nivel nacional que buscan regular usos de la IA, por ejemplo, el llamado Proyecto de Ley que dispone la exigencia que indica para los generadores de contenido de IA y sanciona su incumplimiento (llamado también Proyecto de Ley sobre “Deepfake”) que corresponde al Boletín N.º 17.810-19.

La iniciativa parlamentaria define el “contenido generado” por IA y al “generador de contenido de IA” (sujeto obligado). El primero es definido como “toda imagen, video, audio o representación gráfica que, utilizando datos personales o elementos distintivos de la identidad de una persona natural, que haya sido creado o sustancialmente modificado mediante sistemas de IA, de tal forma que pueda ser confundido por una representación auténtica o real”; y el segundo, como “toda persona natural o jurídica que desarrolle, opere o ponga a disposición sistemas de IA capaces de crear o modificar contenidos denominados comúnmente como IA que involucre datos personales, para su difusión pública o privada, con o sin fines de lucro”. Por ende, el proyecto se centra en una serie de obligaciones para quienes utilicen un sistema de IA y usen información personal que permita identificar a una persona física y crear o modificar dicha información, generando una representación que luzca auténtica o real.

Así, se indica que el generador de contenido de IA debe cumplir con una serie de obligaciones cuando realice la actividad con fines de difusión, de acuerdo con el artículo 2º de la iniciativa, se encuentra la necesidad de incorporar en el contenido un sello o indicación visible y fácilmente identificable que advierta su contenido sintético. 

Sin perjuicio de ello, también se reconocen hipótesis donde esta obligación no aplicaría (art. 3º) cuando no se utilice el contenido con fines de engaño, desinformación, difamación o suplantación de identidad o con la intención de cometer delitos, como por ejemplo: (a) contenido de IA con carácter artístico o de ficción, o cuando se trate de parodias, sátiras o caricaturas cuyo propósito es claro; (b) aquello utilizado con fines de investigación científica o desarrollo tecnológico, siempre que no sea difundido públicamente, o de serlo, se garantice la anonimización de los datos personales; (c) aquello generado para uso interno o privado que no implique difusión a terceros. En ese sentido, se otorga competencia para que la Agencia de Protección de Datos Personales pueda establecer otras excepciones para uso privado.

A nivel de régimen infraccional, se produce por el incumplimiento de la obligación de etiquetado o la eliminación o alteración maliciosa del sello o los metadatos que identifican el contenido generado por IA. Para ello, se asimila al ilícito de falsificación informática contenido en el artículo 5º de la Ley N.º 21.459 sobre delitos informáticos —siendo una adecuación al Convenio de Budapest o ciberdelincuencia— que sanciona “el que indebidamente introduzca, altere, dañe o suprima datos informáticos con la intención de que sean tomados como auténticos o utilizados para generar documentos auténticos” tendrá una sanción de presidio menor en sus grados medio a máximo; sin perjuicio de las responsabilidades civiles por el uso malicioso o fraudulento del contenido generado de IA. 

En este punto surgen diversos interrogantes, por ejemplo, ¿la mera falta de una etiqueta de un contenido sintético es asimilable a quién realiza acciones de introducir, alterar, dañar o suprimir datos informáticos a fines de que el resultado sea auténtico? A su vez, en aquellas hipótesis, ¿la falta de incorporar dicho sello requiere alguna sanción diversa sin recurrir al derecho penal? Además, ¿qué sucede cuando la incorporación de información no personal que, unida a otra información que procese el sistema de IA, pueda generar un contenido que, a la vista de un tercero no experto, luzca como un contenido que pueda ser vinculado a una “persona”? 

Finalmente, habrá que estar pendiente a la discusión legislativa de este proyecto y cómo avanza la tramitación de otras iniciativas en materia de IA que están en el país, en un escenario interno en que las organizaciones están colocando las obligaciones de la reforma de la normativa de datos personales que entra en vigor en diciembre de 2026 como un asunto de discusión en el C-Level y las implicanciones, no sólo a nivel de cumplimiento (compliance), sino de negocio dentro de los procesos de las mismas. 

CPE credit badge

This content is eligible for Continuing Professional Education credits. Please self-submit according to CPE policy guidelines.

Submit for CPEs

Contributors:

Juan Pablo González

Legal Senior Manager - Risk Advisory

Deloitte

Tags:

AI governance

Related Stories