Post

Deepfake o Ultrafalsos

La inteligencia artificial batalla contra sí misma


Fuente: El Comercio

También llamados ultrafalsos, los deepfakes han estado en el radar desde mediados del 2019, pero saltaron a la web mucho antes. Aún no han podido controlar la difusión de noticias falsas y los gigantes tecnológicos ya enfrentan un nuevo reto. Desde el 2018 se pueden encontrar videos pornográficos de celebridades como Gal Gadot o Daisy Ridley, pero en los clips no aparecen las intérpretes sino que se trata de imágenes creadas por máquinas. Los deepfakes utilizan inteligencia artificial (IA) para cambiar o modificar digitalmente rostros, voces o locaciones.

Es por ello que se han convertido en el nuevo centro de la guerra contra la desinformación. Y si bien programas que permiten crear contenidos falsos han estado presentes desde hace algún tiempo, el deepfake es potencialmente más peligroso por el uso que hace de la IA. La misma tecnología utilizada para crear los contenidos ultrafalsos es la que se está usando para combatirlos.

Para un humano, una alteración en un video o un audio puede no ser evidente, a menos que se trate de un trabajo amateur, pero la IA puede analizar todos los datos de inicio a fin y determinar si el contenido es real. El desarrollo de deepfakes está al alcance de cualquier persona y los programas que facilitan su creación muchos de ellos son de uso abierto son cada vez más avanzados. A mediados del 2019 saltó un video en el que el propietario de Facebook, Mark Zuckerberg, se jactaba de controlar millones de datos robados a usuarios de la red.

Fue creado por el artista británico Bill Posters para promocionar su proyecto Spectre, que, según ha asegurado, no busca engañar a la gente los clips difundidos en Instagram son acompañados de la etiqueta #deepfake, sino mostrar que estos podrían ser utilizados para manipular.

Estos clips son un ejemplo de cómo la tecnología que tiene infinitas posibilidades para mejorar la calidad de vida de las personas puede ser utilizada de forma malintencionada. Mañana, usted puede recibir un video del presidente de EE.UU., Donald Trump, anunciando que ordenó un nuevo ataque contra Irán, o del presidente de China, Xi Jinping, confesando que su país no puede contener el nuevo coronavirus y que este acabará con la humanidad.

Todo es falso y puede generar tensiones y pánico. Así que el uso malintencionado de esta tecnología con fines políticos no puede quedar descartado, sobre todo en un año en el que Estados Unidos irá a las urnas. En mayo del 2019 circuló un video en el que se alteró la voz de la presidenta de la Cámara de Representantes de EE.UU., Nancy Pelosi, con el fin de hacer creer que había comparecido ante la prensa bajo los efectos del alcohol.

Esto facilitaría la ejecución de estafas por vía telefónica. Solo se requiere de una grabación corta de la voz de una persona para generar una conversación que puede hacer que otra entregue información o haga una transferencia, como ocurrió con una empresa europea en el 2019.

Por ello, los filtros de inteligencia artificial que se desarrollen deben estar siempre activos para detectar y detener la difusión de estos contenidos malintencionados lo más pronto posible. Por ahora, como advirtió Peele en su video, no hay mejor cosa que hacer que dudar de todo lo que se lee, se escucha o se observa en Internet. Es una época en la que las fuentes confiables deben primar al momento de compartir una publicación y en la que el contraste y la verificación son más importantes que nunca.


carabobo.net

carabobo.net

Tambien podes mirar

Tecnología

Cómo ver los ciclos de batería de un portátil con Windows 10

Tecnología

Investigadores crean un elastómetro

Tecnología

Medicina personalizada:

Tecnología

Una década de tecnología avanzada