Un investigador de IA aborda los deepfakes electorales

Un investigador de IA aborda los deepfakes electorales

Desde hace casi 30 años, Oren Etzioni figura entre los investigadores más optimistas en el campo de la inteligencia artificial.

Pero en 2019, el Dr. Etzioni, profesor de la Universidad de Washington y director ejecutivo fundador del Instituto Allen de IA, se convirtió en uno de los primeros investigadores en advertir que una nueva generación de inteligencia artificial aceleraría la difusión de información errónea en línea. Y a mediados del año pasado, dijo, le preocupaba que los deepfakes generados por IA pudieran influir en las elecciones importantes. En enero fundó una organización sin fines de lucro, TrueMedia.org, con la esperanza de combatir esta amenaza.

El martes, la organización lanzó herramientas gratuitas para identificar información errónea digital, con la intención de ponerlas en manos de periodistas, verificadores de datos y cualquier otra persona que intente descubrir qué es real en línea.

Las herramientas, disponibles en el sitio TrueMedia.org para cualquier persona aprobada por la organización sin fines de lucro, están diseñadas para detectar imágenes, audio y videos falsos y manipulados. Examinan enlaces a archivos multimedia y determinan rápidamente si se debe confiar en ellos.

El Dr. Etzioni ve estas herramientas como una mejora con respecto a la defensa de mosaico que se utiliza actualmente para detectar contenido de IA engañoso o engañoso. Pero en un año en el que miles de millones de personas en todo el mundo votarán en elecciones, el panorama que nos espera sigue siendo sombrío.

“Estoy aterrorizado”, dijo. «Existen muchas posibilidades de que veamos un tsunami de desinformación».

Solo en los primeros meses del año, las tecnologías de inteligencia artificial ayudaron a crear llamadas de voz falsas del presidente Biden, imágenes y anuncios de audio falsos de Taylor Swift y toda una entrevista falsa que parecía mostrar a un funcionario ucraniano atribuyéndose el mérito de un ataque terrorista en Moscú. . Detectar este tipo de información errónea ya es difícil, y la industria tecnológica continúa lanzando sistemas de inteligencia artificial cada vez más potentes que generarán deepfakes cada vez más convincentes y dificultarán aún más la detección.

Muchos investigadores de IA advierten que la amenaza está ganando terreno. El mes pasado, más de mil personas, incluido el Dr. Etzioni y muchos otros destacados investigadores de IA, firmaron una carta abierta pidiendo leyes que responsabilicen a los desarrolladores y distribuidores de servicios de audio y video de IA si su tecnología se utiliza fácilmente para crear contenido dañino. . falso profundo.

El jueves, en un evento organizado por la Universidad de Columbia, Hillary Clinton, exsecretaria de Estado, entrevistó a Eric Schmidt, ex director ejecutivo de Google, quien advirtió que los vídeos, incluso los falsos, podrían «influir en el comportamiento de voto, el comportamiento de voto humano, los estados de ánimo, lo que sea». «

«No creo que estemos preparados», dijo Schmidt. “Este problema empeorará mucho en los próximos años. Quizás o no en noviembre, pero ciertamente en el próximo ciclo».

La industria tecnológica es muy consciente de la amenaza. Incluso cuando las empresas se apresuran a avanzar en los sistemas de IA generativa, también lo hacen para limitar el daño que estas tecnologías pueden causar. Anthropic, Google, Meta y OpenAI han anunciado planes para limitar o etiquetar los usos de sus servicios de IA relacionados con las elecciones. En febrero, 20 empresas tecnológicas –incluidas Amazon, Microsoft, TikTok y X– firmaron un compromiso voluntario para evitar que el contenido engañoso de IA interrumpa la votación.

Podría ser un desafío. Las empresas suelen publicar sus tecnologías como software de “código abierto”, lo que significa que cualquiera es libre de utilizarlas y modificarlas sin restricciones. Los expertos dicen que la tecnología utilizada para crear deepfakes (resultado de enormes inversiones de muchas de las empresas más grandes del mundo) siempre superará a la tecnología diseñada para detectar información errónea.

La semana pasada, durante una entrevista con el New York Times, el Dr. Etzioni mostró lo fácil que es crear un deepfake. Utilizando un servicio de una organización hermana sin fines de lucro, CivAI, que utiliza herramientas de inteligencia artificial disponibles en Internet para demostrar los peligros de estas tecnologías, inmediatamente creó fotos de sí mismo en prisión, en algún lugar donde nunca ha estado.

“Cuando te ves engañado, da aún más miedo”, afirmó.

Más tarde, generó un deepfake de sí mismo en una cama de hospital, el tipo de imagen que, según dijo, podría influir en las elecciones si se aplicara a Biden o al expresidente Donald J. Trump poco antes de las elecciones.

Una imagen deepfake creada por el Dr. Etzioni de sí mismo en una cama de hospital.Crédito…vía Oren Etzioni

Las herramientas de TrueMedia están diseñadas para detectar falsificaciones como estas. Más de una docena de startups ofrecen tecnologías similares.

Pero el Dr. Etzioni, destacando la eficacia de la herramienta de su grupo, dijo que ningún detector es perfecto porque está impulsado por probabilidades. Los servicios de detección de deepfake han sido engañados al afirmar que las imágenes de robots besándose y neandertales gigantes son fotografías reales, lo que genera preocupación de que tales herramientas puedan dañar aún más la confianza de la sociedad en los hechos y las pruebas.

Cuando el Dr. Etzioni alimentó a las herramientas de TrueMedia con un conocido deepfake de Trump sentado en un porche con un grupo de jóvenes negros, lo etiquetaron como “altamente sospechoso”, su mayor nivel de confianza. Cuando subió otro conocido deepfake de Trump con los dedos ensangrentados, no estaban «seguros» de si era real o falso.

Un deepfake impulsado por inteligencia artificial del expresidente Donald J. Trump sentado en un porche con un grupo de jóvenes negros ha sido etiquetado como «altamente sospechoso» por la herramienta de TrueMedia.
Pero un deepfake de Trump con los dedos ensangrentados fue etiquetado como «dudoso».

«Incluso usando las mejores herramientas, no puedes estar seguro», dijo.

La Comisión Federal de Comunicaciones prohibió recientemente las llamadas automáticas generadas por IA. Algunas empresas, incluidas OpenAI y Meta, ahora están etiquetando imágenes generadas por IA con marcas de agua. Y los investigadores están explorando formas adicionales de separar lo real de lo falso.

La Universidad de Maryland está desarrollando un sistema criptográfico basado en códigos QR para autenticar grabaciones en vivo inalteradas. Un estudio publicado el mes pasado pidió a decenas de adultos que respiraran, tragaran y pensaran mientras hablaban, para que sus patrones de pausa en el habla pudieran compararse con los ritmos del audio clonado.

Pero como muchos otros expertos, el Dr. Etzioni advierte que las marcas de agua de las imágenes se eliminan fácilmente. Y aunque ha dedicado su carrera a luchar contra los deepfakes, reconoce que las herramientas de detección tendrán dificultades para superar a las nuevas tecnologías de IA generativa.

Desde la creación de TrueMedia.org, OpenAI ha presentado dos nuevas tecnologías que prometen hacer su trabajo aún más difícil. Puedes recrear la voz de una persona a partir de una grabación de 15 segundos. Otro puede generar vídeos en movimiento completo que parecen sacados de una película de Hollywood. OpenAI aún no comparte estas herramientas con el público mientras trabaja para comprender los peligros potenciales.

(El Times está demandando a OpenAI y su socio, Microsoft, por acusaciones de infracción de derechos de autor que involucran sistemas de inteligencia artificial que generan texto).

En última instancia, dijo el Dr. Etzioni, combatir el problema requerirá una amplia cooperación entre los reguladores gubernamentales, las empresas que crean tecnologías de inteligencia artificial y los gigantes tecnológicos que controlan los navegadores web y las redes sociales donde se difunde la información errónea. Dijo, sin embargo, que la probabilidad de que eso suceda antes de las elecciones de otoño es escasa.

«Estamos tratando de brindar a la gente la mejor evaluación técnica de lo que tienen delante», dijo. «Aún tienen que decidir si es real».