Nueva York
CNN
—
Por un breve momento el mes pasado, una imagen que pretendía mostrar una explosión cerca del Pentágono se difundió en las redes sociales, causando pánico y una venta masiva en el mercado. La imagen, que tenía todas las características de haber sido generada por IA, fue posteriormente desacreditada por las autoridades.
Pero según Jeffrey McGregor, director ejecutivo de Truepic, es “verdaderamente la punta del iceberg de lo que está por venir”. Como él mismo dijo: “Vamos a ver mucho más contenido generado por IA que comienza a aparecer en las redes sociales, y simplemente no estamos preparados para eso”.
La compañía de McGregor está trabajando para abordar este problema. Truepic ofrece tecnología que pretende autenticar los medios en el punto de creación a través de su Truepic Lens. La aplicación captura datos que incluyen la fecha, la hora, la ubicación y el dispositivo utilizado para crear la imagen, y aplica una firma digital para verificar si la imagen es orgánica o si ha sido manipulada o generada por IA.
Truepic, que cuenta con el respaldo de Microsoft, se fundó en 2015, años antes del lanzamiento de herramientas de generación de imágenes impulsadas por IA como Dall-E y Midjourney. Ahora McGregor dice que la compañía está viendo el interés de «cualquiera que esté tomando una decisión basada en una foto», desde ONG hasta compañías de medios y compañías de seguros que buscan confirmar que un reclamo es legítimo.
“Cuando se puede falsificar cualquier cosa, todo puede ser falso”, dijo McGregor. “Sabiendo que la IA generativa ha alcanzado este punto de inflexión en calidad y accesibilidad, ya no sabemos cuál es la realidad cuando estamos en línea”.
Las empresas tecnológicas como Truepic han estado trabajando para combatir la desinformación en línea durante años, pero el surgimiento de una nueva generación de herramientas de IA que pueden generar rápidamente imágenes convincentes y trabajos escritos en respuesta a las indicaciones de los usuarios ha agregado una nueva urgencia a estos esfuerzos. En los últimos meses, una IA generada imagen del papa francisco en una chaqueta acolchada se volvió viral y generado por IA imágenes del arresto del expresidente Donald Trump fueron ampliamente compartidos, poco antes de que fuera acusado.
Algunos legisladores ahora están pidiendo a las empresas de tecnología que aborden el problema. Vera Jourova, vicepresidenta de la Comisión Europea, pidió el lunes a los signatarios del Código de prácticas sobre desinformación de la UE, una lista que incluye a Google, Meta, Microsoft y TikTok, a “establecer tecnología para reconocer dicho contenido y etiquetarlo claramente. a los usuarios.”
Un número creciente de empresas emergentes y de Big Tech, incluidas algunas que están implementando tecnología de IA generativa en sus productos, intentan implementar estándares y soluciones para ayudar a las personas a determinar si una imagen o un video están hechos con IA. Algunas de estas empresas llevan nombres como Reality Defender, que hablan de los intereses potenciales del esfuerzo: proteger nuestro propio sentido de lo que es real y lo que no lo es.
Pero como la tecnología de IA se desarrolla más rápido de lo que los humanos pueden seguir, no está claro si estas soluciones técnicas podrán abordar el problema por completo. Incluso OpenAI, la empresa detrás de Dall-E y ChatGPT, aceptado a principios de este año que su propio esfuerzo para ayudar a detectar escritura generada por IA, en lugar de imágenes, es «imperfecto» y advirtió que debería «tomarse con un grano de sal».
“Se trata de mitigación, no de eliminación”, dijo a CNN Hany Farid, experto forense digital y profesor de la Universidad de California, Berkeley. “No creo que sea una causa perdida, pero sí creo que hay mucho por hacer”.
“La esperanza”, dijo Farid, es llegar a un punto en el que “un adolescente en el sótano de sus padres no pueda crear una imagen y cambiar una elección o mover el mercado medio billón de dólares”.
En términos generales, las empresas están adoptando dos enfoques para abordar el problema.
Una táctica se basa en desarrollar programas para identificar imágenes como generadas por IA después de que se hayan producido y compartido en línea; el otro se enfoca en marcar una imagen como real o generada por IA en su concepción con una especie de firma digital.
Reality Defender y Hive Moderation están trabajando en lo primero. Con sus plataformas, los usuarios pueden cargar imágenes existentes para escanearlas y luego recibir un desglose instantáneo con un porcentaje que indica la probabilidad de que sea real o generado por IA en función de una gran cantidad de datos.
Reality Defender, que se lanzó antes de que la «IA generativa» se convirtiera en una palabra de moda y formara parte del competitivo acelerador tecnológico de Silicon Valley, Y Combinator, dice que utiliza «tecnología patentada de huellas dactilares de contenido generativo y falsificación profunda» para detectar videos, audio e imágenes generados por IA.
En un ejemplo proporcionado por la empresa, Reality Defender destaca una imagen de un Deepfake de Tom Cruise como 53% «sospechoso», diciéndole al usuario que ha encontrado evidencia que muestra que la cara estaba deformada, «un artefacto común de manipulación de imágenes».
Defender la realidad podría resultar un negocio lucrativo si el tema se convierte en una preocupación frecuente para empresas y particulares. Estos servicios ofrecen demostraciones gratuitas limitadas, así como niveles de pago. Hive Moderation dijo que cobra $ 1.50 por cada 1,000 imágenes, así como «acuerdos de contrato anual» que ofrecen un descuento. Realty Defender dijo que su precio puede variar según varios factores, incluido si el cliente necesita «cualquier factor personalizado que requiera la experiencia y la asistencia de nuestro equipo».
“El riesgo se duplica cada mes”, dijo a CNN Ben Colman, director ejecutivo de Reality Defender. “Cualquiera puede hacer esto. No necesitas un doctorado en informática. No es necesario activar servidores en Amazon. No necesita saber cómo escribir ransomware. Cualquiera puede hacer esto simplemente buscando en Google ‘generador de caras falsas’”.
Kevin Guo, director ejecutivo de Hive Moderation, lo describió como “una carrera armamentista”.
“Tenemos que seguir analizando todas las nuevas formas en que las personas crean este contenido, tenemos que entenderlo y agregarlo a nuestro conjunto de datos para luego clasificar el futuro”, dijo Guo a CNN. «Hoy es un pequeño porcentaje del contenido seguro generado por IA, pero creo que eso va a cambiar en los próximos años».
En un enfoque diferente y preventivo, algunas empresas de tecnología más grandes están trabajando para integrar una especie de marca de agua en las imágenes para certificar que los medios son reales o generados por IA cuando se crean por primera vez. Hasta ahora, el esfuerzo ha sido impulsado en gran medida por la Coalición para la Procedencia y Autenticidad del Contenido, o C2PA.
El C2PA se fundó en 2021 para crear un estándar técnico que certifique la fuente y la historia de los medios digitales. Combina los esfuerzos de la Iniciativa de autenticidad de contenido (CAI) liderada por Adobe y Project Origin, una iniciativa encabezada por Microsoft y la BBC que se enfoca en combatir la desinformación en las noticias digitales. Otras empresas involucradas en C2PA incluyen Truepic, Intel y Sony.
Según las pautas de C2PA, CAI crea herramientas de código abierto para que las empresas creen credenciales de contenido o los metadatos que contienen información sobre la imagen. Esto “permite a los creadores compartir de forma transparente los detalles de cómo crearon una imagen”, según el sitio web de CAI. “De esta manera, un usuario final puede acceder al contexto sobre quién, qué y cómo se cambió la imagen, y luego juzgar por sí mismo qué tan auténtica es esa imagen”.
“Adobe no tiene un centro de ingresos en torno a esto. Lo estamos haciendo porque creemos que esto tiene que existir”, dijo a CNN Andy Parsons, director sénior de CAI. “Creemos que es una contramedida fundamental muy importante contra la información errónea y la desinformación”.
Muchas empresas ya están integrando el estándar C2PA y las herramientas CAI en sus aplicaciones. de adobe Firefly, una herramienta de generación de imágenes de IA agregada recientemente a Photoshop, sigue el estándar a través de la función Credenciales de contenido. microsoft también anunció que el arte de IA creado por Bing Image Creator y Microsoft Designer llevará una firma criptográfica en los próximos meses.
Otras compañías tecnológicas como Google parecen estar siguiendo un libro de jugadas que extrae un poco de ambos enfoques.
En Mayo, Google anunció una herramienta llamada Acerca de esta imagen, que ofrece a los usuarios la capacidad de ver cuándo las imágenes encontradas en su sitio fueron indexadas originalmente por Google, dónde podrían haber aparecido por primera vez y dónde más se pueden encontrar en línea. La compañía de tecnología también anunció que cada imagen generada por IA creada por Google llevará un marcado en el archivo original para «dar contexto» si la imagen se encuentra en otro sitio web o plataforma.
Si bien las empresas de tecnología intentan abordar las preocupaciones sobre las imágenes generadas por Ai y la integridad de los medios digitales, los expertos en el campo enfatizan que, en última instancia, estas empresas deberán trabajar entre sí y con el gobierno para abordar el problema.
“Vamos a necesitar la cooperación de los usuarios de Twitter y Facebook del mundo para que empiecen a tomarse estas cosas más en serio y dejen de promocionar las cosas falsas y empiecen a promocionar las cosas reales”, dijo Farid. “Hay una parte regulatoria de la que no hemos hablado. Hay una parte de la educación de la que no hemos hablado”.
Parsons estuvo de acuerdo. “Esta no es una sola empresa o un solo gobierno o un solo individuo en la academia que puede hacer esto posible”, dijo. “Necesitamos que todos participen”.
Por ahora, sin embargo, las empresas de tecnología continúan avanzando con la introducción de más herramientas de inteligencia artificial en el mundo.