
Fuente: El Comercio
También
llamados ultrafalsos, los deepfakes han estado en el radar desde
mediados del 2019, pero saltaron a la web mucho antes. Aún no han podido controlar la difusión de noticias falsas y los
gigantes tecnológicos ya enfrentan un nuevo reto. Desde el 2018 se
pueden encontrar videos pornográficos de celebridades como Gal Gadot o Daisy
Ridley, pero en los clips no aparecen las intérpretes sino que se trata de imágenes
creadas por máquinas. Los
deepfakes utilizan inteligencia
artificial (IA) para cambiar o modificar digitalmente rostros, voces o
locaciones.
Es
por ello que se han convertido en el nuevo centro de la guerra contra la
desinformación. Y si bien programas que permiten crear contenidos falsos han
estado presentes desde hace algún tiempo, el deepfake es potencialmente más peligroso por el uso que hace de la
IA. La misma tecnología utilizada para
crear los contenidos ultrafalsos es la que se está usando para combatirlos.
Para
un humano, una alteración en un video o un audio puede no ser evidente, a menos
que se trate de un trabajo amateur, pero la IA puede analizar todos los datos
de inicio a fin y determinar si el contenido es real. El desarrollo de deepfakes está
al alcance de cualquier persona y los programas que
facilitan su creación muchos de ellos son de uso abierto son cada vez más
avanzados. A mediados del 2019 saltó un video en el que el propietario de
Facebook, Mark Zuckerberg, se jactaba de controlar millones de datos robados a
usuarios de la red.
Fue
creado por el artista británico Bill Posters para promocionar su proyecto
Spectre, que, según ha asegurado, no busca engañar a la gente los clips
difundidos en Instagram son acompañados de la etiqueta #deepfake, sino mostrar
que estos podrían ser utilizados para manipular.
Estos
clips son un ejemplo de cómo la tecnología que tiene infinitas posibilidades
para mejorar la calidad de vida de las personas puede ser utilizada de forma
malintencionada. Mañana, usted puede recibir un video del presidente de EE.UU.,
Donald Trump, anunciando que ordenó un nuevo ataque contra Irán, o del
presidente de China, Xi Jinping, confesando que su país no puede contener el
nuevo coronavirus y que este acabará con la humanidad.
Todo
es falso y puede generar tensiones y pánico. Así que el uso malintencionado de
esta tecnología con fines políticos no puede quedar descartado, sobre todo en
un año en el que Estados Unidos irá a las urnas. En mayo del 2019 circuló un video
en el que se alteró la voz de la presidenta de la Cámara de Representantes de
EE.UU., Nancy Pelosi, con el fin de hacer creer que había comparecido ante la
prensa bajo los efectos del alcohol.
Esto
facilitaría la ejecución de estafas por vía telefónica. Solo
se requiere de una grabación corta de la voz de una persona para generar una
conversación que puede hacer que otra entregue información o haga una
transferencia, como ocurrió con una empresa europea en el 2019.
Por
ello, los filtros de inteligencia
artificial que se desarrollen deben estar siempre activos para
detectar y detener la difusión de estos contenidos malintencionados lo más
pronto posible. Por ahora, como advirtió Peele en su video, no hay mejor cosa
que hacer que dudar de todo lo que se lee, se escucha o se observa en Internet.
Es una época en la que las fuentes confiables deben primar al momento de
compartir una publicación y en la que el contraste y la verificación son más
importantes que nunca.