Por Jorge RAMOS
Es mi nombre. Es mi imagen. Pero yo nunca autoricé que usaran mi nombre ni mi imagen para vender productos provenientes de la mariguana, ni píldoras para la intimidad o para adquirir criptomonedas.
De hecho, en toda mi carrera periodística siempre me he cuidado de no hacer comerciales. Aun así, muy pronto, con el uso de la inteligencia artificial, será casi imposible saber qué es verdadero y qué es falso.
Les cuento lo que me pasó.
Varios amigos me preguntaban sobre los productos que, supuestamente, yo estaba vendiendo en la internet. Me reía, les decía que eso no era cierto y no le di mayor importancia. Pero las preguntas seguían llegando y, con curiosidad, me metí en las redes. Y me llevé tremenda sorpresa.
En varias páginas de Facebook aparece mi nombre junto a gomitas (gummies, en inglés) de CBD, la sustancia química que se encuentra en las hojas de la mariguana. Y también encontré mi foto y la del doctor Juan Rivera, el colaborador médico de Univision, en una página que promueve un producto que, asegura, mejora la “intimidad sexual…te hace más fuerte, te da dignidad (…) hace que tu esposa te ame más.” Contrario a lo que dice la página, el doctor Rivera y yo nunca nos unimos para promover ese producto. A pesar de que el artículo fue calificado como “falso” por el detector de mentiras de Noticias Univision, miles de personas lo han visto.
“Es extremadamente frustrante haber trabajado arduo por décadas para convertirme en médico especialista, y luego ganarme la confianza de la comunidad hispana, y que ladrones se aprovechen de mi credibilidad para timar y estafar a las mismas personas que pretendo ayudar”, me dijo el doctor Juan, como lo conoce la gente, en un texto. “Las redes sociales, que permiten este tipo de estafa aun cuando se les comunica el robo de identidad, deben asumir responsabilidad.”
Hay estafas por todos lados y de todo tipo.
El sitio de noticias Newtral denunció un video falso en YouTube en que suplantaban y manipulaban mi voz y la del empresario Elon Musk para que la gente invirtiera en criptomonedas. El video es muy burdo. Ni siquiera es mi voz y quien la reemplaza tiene un acento español. Pero no deja de sorprender el tiempo dedicado para preparar esa estafa.
Es increíblemente frustrante lo poco que hacen o que pueden hacer las redes sociales y las páginas de internet para impedir o limitar la desinformación y las calumnias. Por más que he buscado durante meses a los responsables de las páginas que usan ilegalmente mi nombre y mi imagen, no he podido dar con ellos y, mucho menos, demandarlos.
Y esto no es lo peor.
Con los increíbles avances de la inteligencia artificial muy pronto será casi imposible saber si un video y su audio es falso o verdadero. Hace poco, en la producción de un programa especial sobre inteligencia artificial, invité al ingenioso músico y compositor venezolano, Cesar Muñoz. Cesar había grabado mi voz de varios noticieros y, a través de una computadora, la imitó y se inventó un texto con palabras que yo nunca había pronunciado. Esa grabación falsa y mi voz eran prácticamente iguales. Era una impresionante réplica sonora. Bastaron unos segundos grabados de mi voz para que una máquina la copiara.
Lo mismo que hizo Cesar con mi voz, Spotify lo hará con algunos de sus podcasts. Con inteligencia artificial se va a replicar el programa original a otros idiomas y con la misma voz del presentador. Por ejemplo, si yo hiciera un podcast en español, se podría replicar exactamente, con mi voz, en mandarín, ruso o danés. Ese no es el futuro; es el presente.
El grave peligro es que muy pronto, gracias al uso irrestricto de la inteligencia artificial, podrán imitar nuestras voces y nuestras imágenes. Por el momento, no hay ninguna ley que lo prohíba y, aunque la hubiera, una vez que existe la tecnología, es casi imposible ponerle un freno.
Hoy, todavía, puedo probarles que yo no hice ningún comercial sobre hojas de mariguana, ni vendí criptomonedas o píldoras para la potencia sexual. Además, llevó más de cuatro décadas dando noticias y hay mucha gente que cree en lo que digo. Pero ¿qué pasaría si en un futuro cercano aparece mi imagen y mi voz diciendo cosas que yo nunca dije? ¿A quién le van a creer? ¿A la imagen en su computadora o a mí?
Este problema nos afecta a todos, no únicamente a los que salimos en televisión o son figuras públicas. La tecnología muy pronto, quizás en cuestión de meses, podrá inventarse a alguien igualito a ti y hacer un total robo de identidad.
Y por ahora, lo único que podemos decir es: ese no soy yo.