Cuando la IA da voz a los muertos: límites éticos en Colombia
30 de agosto de 2025Contenido
Chris Pelkey fue asesinado en un caso de ira en Arizona. Aun así “volvió” a hablar en la audiencia de sentencia de su agresor: su familia usó inteligencia artificial para recrear su voz y su imagen y leer un mensaje de perdón que escribió su hermana. El juez valoró la pieza y la pena quedó en 10 años y medio por homicidio culposo. Fue un uso simbólico, pero poderoso. Y abre una pregunta incómoda: ¿quién habla cuando habla un muerto con IA?
La hermana de Pelkey explicó que usó videos y fotos para lograr una versión verosímil de él. También admitió que las palabras fueron suyas, inspiradas en lo que creía que él habría dicho. Pero si el guion hubiera sido otro, más duro, más político, ¿seguiríamos celebrándolo?
Vista desde Colombia, esta discusión ya tiene anclajes jurídicos. La Corte Constitucional ha dicho que el derecho a la imagen y a la intimidad, por su vínculo con la dignidad, se proyecta más allá de la muerte. La titularidad práctica recae en el núcleo familiar: los causahabientes pueden exigir protección o autorizar usos. En datos personales, el tratamiento de información de fallecidos solo es válido si es coherente con las finalidades autorizadas en vida, y la familia puede revocar. La IA tensiona todo: no reutiliza, crea contenido que nunca existió.
El riesgo para las empresas no está en “revivir” empleados, sino en no tener reglas cuando la tecnología lo permita. Archivos corporativos con voz y rostro de personas fallecidas, sistemas de entrenamiento con audios históricos, propuestas de marketing que imitan el estilo de un exvocero: todo eso es plausible. Y en todos los casos habrá que responder dos preguntas: ¿quién tiene legitimidad para decidir? ¿y cuál es el límite ético incluso si hay permiso?
Aquí conviene adelantarse. En vida, los consentimientos deben contemplar expresamente escenarios de IA: clonación de voz, reconstrucción de rostro, síntesis de estilo conversacional, usos publicitarios o políticos y entrenamiento de modelos. Al morir, un protocolo operativo: verificar causahabientes y su representante; documentar decisiones; preferir anonimización cuando el propósito se conserve; y aplicar una regla de prudencia: ante duda razonable sobre voluntad del titular, no se recrea ni se simula.
¿Debemos dejar esto en el testamento? Es aconsejable. Un “anexo de imagen y datos” puede designar a un familiar, fijar un “no IA” total o modularlo por fines (permito archivos históricos; prohíbo publicidad, política y recreación de voz/rostro; autorizo usos académicos). También puede ordenar la supresión de cuentas y materiales o su conservación con fines de memoria, y exigir consentimiento unánime de causahabientes para cualquier recreación.
¿Hasta dónde desautorizar? El piso mínimo es prohibir la suplantación: nada de deepfakes que atribuyan frases, posiciones o emociones que no existieron; nada de anuncios o contenidos políticos; nada de chatbots que “respondan” como si fuéramos nosotros. A partir de ahí, cada uno puede graduar excepciones, pero siempre con controles: trazabilidad de fuentes, marcas de agua, aviso expreso de que es una síntesis y posibilidad de revocatoria por la familia.
El caso Pelkey es una advertencia: la tecnología hará posible que los muertos “digan” cosas convincentes. Nuestro derecho ya reconoce que la dignidad no muere con la persona; falta que empresas y personas concreten esa protección en permisos, protocolos y testamentos. Quien se prepare hoy evitará que, mañana, una versión verosímil pero ajena termine hablando por él.