Actualidad

EL NEGOCIO DE LOS CLONES CON LA IA: RIESGOS LEGALES DE USAR DEEPFAKES DE FAMOSOS EN COLOMBIA

Andres Duque
EL NEGOCIO DE LOS CLONES CON LA IA: RIESGOS LEGALES DE USAR DEEPFAKES DE FAMOSOS EN COLOMBIA
¿Messi, Ronaldo o Shakira vendiendo tu producto?

Hoy en día abres Instagram o TikTok y oh sorpresa te aparece un video “perfecto” de una figura mundialmente famosa recomendando una app de inversión “infalible” o promoviendo un curso de IA que promete cambiar tu vida. Lo peor de todo los labios sincronizan, el tono de voz es idéntico y los gestos son exactos.
Te preguntas si es real o es IA, y que crees, es una ilusión, o técnicamente denominado un deepfake

Y si estás usando esto para vender en Colombia, no estás solo en un terreno “innovador”; estás pisando un campo jurídicamente minado de derechos de imagen, protección de datos personales, publicidad engañosa, competencia desleal e incluso delitos penales agravados cuando se usa Inteligencia Artifical.  Este artículo no busca asustarte, sino dejar clara una regla sencilla, si no es tu cara ni tu voz, necesitas para usarla un permiso y contrato.

1. ¿Qué es un deepfake y por qué se volvió un negocio “tentador”?

Los deepfakes son videos, imágenes o audios manipulados o generados con inteligencia artificial Generativa para imitar la apariencia o voz de una persona real. 
En la práctica, con unos segundos de audio o unas pocas fotos hoy se puede (i) Clonar la voz de una persona (dato biométrico altamente sensible); (ii) Recrear su rostro en video; (ii) Manipular gestos y expresiones para que parezca que recomienda un producto o servicio. Muchos emprendedores, influenciadores en redes e incluso agencias importantes han empezado a apropiarse del goodwill de celebridades.
 
Ahora bien, en otros países ya hemos visto casos muy sonados de la apropiación de la imagen de celebridades importantes, es decir, esto de lo que hablo hoy no es una mentira, es una realidad social y jurídica importante: 
 
  • Tom Hanks advirtiendo sobre anuncios dentales que usan su imagen con IA.
  • Scarlett Johansson emprendiendo acciones legales contra una app de IA que usó su voz e imagen para un anuncio sin autorización. 
 
Si esto ya genera conflictos en jurisdicciones con normas claras de right of publicity (Derecho de publicidad), en Colombia el terreno está lejos de ser un “vacío”, pues, nuestro ordenamiento ya ofrece varias herramientas para frenar estos usos abusivos.
 
2. Tres capas de protección en Colombia (marco vigente)
 
Aunque Colombia no tiene todavía una ley de deepfakes, no estamos en cero. Hay al menos tres grandes capas de protección que se activan cuando usas la imagen o la voz de otra persona, famosa o no, para hacer publicidad.
 
2.1. Derecho constitucional a la imagen y a la identidad
 
El punto de partida es el artículo 15 de la Constitución política, el cuan nos dice que todas las personas tienen derecho a su intimidad, buen nombre y habeas data, es decir, a controlar la información que se recoge sobre ellas.
 
Así mismo, la Corte Constitucional ha entendido el derecho a la propia imagen como una manifestación de la dignidad; nadie está obligado a ver su rostro, cuerpo o voz convertidos en mercancía sin su autorización.
 
La imagen no es solo cómo salgo en una foto o me visto para ir a una fiesta o trabajar; es un componente de la identidad personal que conecta con intimidad, buen nombre y autonomía.
 
¿Qué implica para deepfakes comerciales?
 
Sencillo, nadie puede explotar comercialmente rasgos reconocibles de otra persona (cara, voz, gestos, nombre artístico) sin consentimiento, de lo contrario el afectado podrá iniciar acciones legales procedentes inicialmente como la Acción de tutela, para una protección rápida de sus derechos fundamentales, un Proceso civil de responsabilidad extracontractual, para exigir indemnización por daños, incluyendo un lucro cesante (lo que dejó de ganar por ese uso no autorizado de su imagen), o en su defecto penales, dependiendo del análisis jurídico realizado, de la magnitud y/o afectación.
 
2.2. Protección de datos personales: rostro y voz como datos biométricos.
 
La Ley 1581 de 2012 desarrolla el derecho al habeas data y establece el régimen general de protección de datos personales en Colombia. 
 
Desde esta óptica, entrenar un modelo de IA con muestras de rostro o voz de una persona para crear un deepfake es un tratamiento de datos personales, y además de datos sensibles (biométricos).
 
Pues la ley dice de forma sencilla que la voz, los rasgos faciales y la geometría del rostro se consideran datos biométricos, y por tanto datos sensibles y el tratamiento de datos sensibles está prohibido, salvo excepciones:
 
1.     Autorización previa, expresa e informada del titular.
  1. Casos muy específicos previstos en la ley (interés vital, mandatos legales, fines históricos/estadísticos con datos disociados, etc.). 
  2. No existe “consentimiento tácito” para datos sensibles.

Por lo que, si clonas la voz de un tercero sin cumplir estos requisitos, estás frente a un tratamiento indebido de datos personales, y peor aún, la Superintendencia de Industria y Comercio puede iniciar una investigación y sancionar con:
 
- Multas de hasta 2.000 salarios mínimos mensuales legales vigentes.
- Suspensión de actividades de tratamiento.
- Cierre temporal, e incluso cierre definitivo de la operación que involucre datos sensibles. 
 
2.3. Estatuto del Consumidor y publicidad engañosa
 
La Ley 1480 de 2011 (Estatuto del Consumidor) define “publicidad” como toda comunicación dirigida a influir en decisiones de consumo y prohíbe la publicidad engañosa, es decir, aquella que no corresponde a la realidad o induce a error, engaño o confusión.  Si publicas un deepfake donde un famoso recomienda tu producto y un consumidor razonable cree que esa persona realmente lo respalda, estás induciendo indudablemente a error sobre el respaldo del producto y atribuyendo de forma falsa una experiencia, garantía o testimonio.
 
La SIC, en materia de protección al consumidor, también puede imponer multas de hasta 2.000 salarios mínimos, ordenar el retiro o corrección de la publicidad y adoptar otras medidas correctivas. 
 
A esto se le suma la Guía de Buenas Prácticas en la Publicidad a Través de Influenciadores de la SIC, que, aunque es derecho blando, fija estándares claros:  (i) La publicidad debe ser siempre identificable como tal; (ii) Se debe revelar la relación comercial entre anunciante e influenciador y (iii) No se debe inducir a error sobre quién está realmente hablando ni sobre la naturaleza comercial del mensaje, por lo que un deepfake de un famoso que nunca aceptó la campaña rompe todos estos puntos y puede fácilmente llevarte a la quiebra.
 
2.4. Propiedad industrial y competencia desleal
 
Cuando el deepfake no solo usa la imagen de la persona, sino también marcas, logos, slogans o nombres artísticos registrados, entran a jugar reglas de propiedad industrial y competencia desleal.

La Decisión Andina 486 de 2000 protege especialmente los signos distintivos notoriamente conocidos (marcas famosas) frente a usos no autorizados que generen riesgo de confusión o aprovechamiento injusto de su prestigio y la Ley 256 de 1996 tipifica como acto de competencia desleal el aprovechamiento indebido de la reputación ajena, cuando una empresa se “monta” sobre la fama y el prestigio construidos por otro para atraer clientes. 

En la práctica, un deepfake que usa nombre, imagen y estética de una artista famosa para vender tu curso sin licencia puede ser atacado por Infracción marcaria (uso no autorizado de marca registrada) o explotación de reputación ajena como acto de competencia desleal.
 
2.5. Delitos de estafa y falsedad personal agravada por IA.
 
Aquí el tema pasa de riesgo reputacional a riesgo penal ya que el artículo 246 del código penal indica que la estafa se configura cuando alguien obtiene un provecho ilícito con perjuicio ajeno, induciendo o manteniendo a otro en error mediante engaños. Ejemplo típico: deepfake de un famoso ofreciendo una “inversión segura” que no existe, diseñado para que las víctimas transfieran dinero.
 
En la misma línea de pensamiento la Ley 2502 de 2025 modificó el artículo 296 del Código Penal e introdujo un agravante cuando la suplantación de identidad se realiza mediante inteligencia artificial, incluyendo deepfakes. Falsedad personal agravada por uso de IA (Ley 2502 de 2025).
 
Esta norma no se limita a famosos, protege a cualquier persona cuya identidad sea suplantada mediante IA, pero obviamente aplica de lleno a deepfakes usados para fraude, extorsión o engaños masivos.

3. Panorama mundial – Derecho comparado -: transparencia y derecho de imagen en la era de los deepfakes.
 
3.1. Estados Unidos: derecho de publicity y proyectos federales.
 
En Estados Unidos, el right of publicity protege el uso comercial de la identidad (nombre, imagen, voz, etc.) de una persona, especialmente de celebridades, este se ha invocado en múltiples casos frente a deepfakes y imitaciones de voz en anuncios. El caso de Scarlett Johansson vs. app de IA “Lisa AI” por el uso de su voz e imagen en un anuncio sin permiso es un ejemplo reciente de cómo estas figuras se activan en el contexto de IA generativa y a nivel federal. También se discute el proyecto NO FAKES Act (“Nurture Originals, Foster Art, and Keep Entertainment Safe”), que busca crear un marco nacional para proteger voz e imagen frente a réplicas digitales no autorizadas. 
 
Aunque esta regulación no es aplicable en Colombia, marca un precedente o tendencia, pues cada vez más ordenamientos consideran la explotación de identidad mediante IA como un problema autónomo que requiere reglas claras y específicas.
 
3.2. Unión Europea: AI Act y obligación de etiquetar deepfakes
 
El AI Act de la Unión Europea incorpora obligaciones de transparencia para ciertos sistemas. El artículo 52 del reglamento (en su versión aprobada) exige que quienes desplieguen sistemas de IA que generen o manipulen contenido que constituya un deepfake deben revelar claramente que el contenido ha sido generado o manipulado artificialmente.  En otras palabras: si tu video es un deepfake, DEBES ADVERTIRLO.

Sin embargo, aunque este reglamento no tiene aplicación directa en Colombia, es importante por dos razones:
 
1.  Las grandes plataformas (Meta, Google, TikTok) tienden a alinear sus políticas globales con los estándares europeos.
2.  Los usuarios comienzan a esperar etiquetas del tipo “Contenido generado por IA”.
 
Eso sí: aunque se etiquete, no blinda jurídicamente.  Puedes poner “este video fue generado con IA”, si suplantas a una persona real para vender algo sin autorización, pero en Colombia seguirás enfrentando problemas de derecho de imagen, datos personales y consumo.
 
4. Colombia: política pública de IA y proyectos de ley en marcha.
 
Aún Colombia no tiene aún una ley integral de inteligencia artificial, pero el mapa regulatorio posiblemente se está moviendo rápido:
 
  • El documento CONPES 4144 de 2025 adoptó la Política Nacional de Inteligencia Artificial, con énfasis en derechos fundamentales, ética y gobernanza del uso de IA en sectores públicos y privados.
  • El Proyecto de Ley 043 de 2025 busca establecer un marco regulatorio integral para la IA en Colombia, con enfoque en derechos humanos, supervisión de algoritmos y transparencia. A la fecha sigue en trámite legislativo. 
  • Paralelamente, la Ley 2502 de 2025 ya introdujo un primer bloque de regulación “dura” sobre suplantación mediante IA (falsedad personal agravada). 
El mensaje de conjunto es claro, aunque no haya “Ley General de IA”, Colombia ya está reaccionando a los riesgos de los deepfakes, especialmente cuando se usan para suplantar identidades y cometer fraudes.

En conclusión, la tecnología permite el truco, el Derecho protege a la persona, la IA generativa nos dio una fábrica de ilusiones a bajo costo, con unos clics podemos crear versiones hiperrealistas de casi cualquier figura pública. 
Sin embargo, en Colombia el mensaje jurídico ya es nítido: La identidad (imagen, voz, individualidad) no es materia prima gratuita para campañas de marketing.

La combinación de Constitución Politica, Ley 1581, Ley 1480, Ley 256, Decisión 486, Código Penal y Ley 2502 de 2025 configura un muro normativo cada vez más alto contra los deepfakes abusivos. 

Para empresas, agencias y creadores de contenido, la regla de oro puede resumirse así: si no es tu cara ni tu voz, solo puedes usarla con contrato y con transparencia. Lo que hoy parece un juego con una táctica “creativa y barata” con clones digitales puede terminar en multas millonarias, pérdida de cuentas en redes, procesos judiciales y un daño reputacional muy difícil de revertir. La innovación en marketing es bienvenida; la apropiación de identidades ajenas no.

Por último recuerda esto, el problema no es la IA, el problema es como la usamos. 

Artículos relacionados