30.8 C
Santo Domingo
lunes, julio 8, 2024

Bienvenido a la era de las imágenes virales de ‘noticias’ generadas por IA



Nueva York
CNN

Papa Francisco vistiendo un enorme abrigo blanco. Elon Musk caminando de la mano con la CEO rival de GM, Mary Barra. El ex presidente Donald Trump ser detenido por la policía de manera dramática.

Ninguna de estas cosas sucedió realmente, pero las imágenes generadas por IA que las representan se volvieron virales en línea durante la semana pasada.

Las imágenes iban desde obviamente falsas hasta, en algunos casos, convincentemente reales, y engañaron a algunos usuarios de las redes sociales. La modelo y personalidad televisiva Chrissy Teigen, por ejemplo, tuiteó que pensó que el abrigo de plumas del Papa era real y dijo: “No lo pensé dos veces. de ninguna manera voy a sobrevivir al futuro de la tecnología”. Las imágenes también generaron una gran cantidad de titulares, ya que las organizaciones de noticias se apresuraron a desacreditar las imágenes falsas, especialmente las de Trump, quien fue finalmente acusado por un gran jurado de Manhattan el jueves, pero no ha sido arrestado.

La situación demuestra una nueva realidad en línea: El surgimiento de una nueva cosecha de herramientas de inteligencia artificial ha hecho que sea más barato y más fácil que nunca crear imágenes realistas, así como audio y videos. Y es probable que estas imágenes aparezcan con mayor frecuencia en las redes sociales.

Si bien estas herramientas de IA pueden habilitar nuevos medios para expresar la creatividad, la difusión de los medios generados por computadora también amenaza con contaminar aún más el ecosistema de la información. Eso corre el riesgo de aumentar los desafíos para los usuarios, las organizaciones de noticias y las plataformas de redes sociales para investigar qué es real, después de años de lidiar con información errónea en línea que presenta imágenes mucho menos sofisticadas. También existe la preocupación de que las imágenes generadas por IA puedan usarse para acosoo para separar aún más a los usuarios de Internet divididos.

“Me preocupa que llegue a un punto en el que haya tanto contenido falso y altamente realista en línea que la mayoría de las personas simplemente seguirán sus instintos tribales como una guía de lo que creen que es real, más que opiniones realmente informadas basadas en en evidencia verificada”, dijo Henry Ajder, un experto en medios sintéticos que trabaja como asesor de empresas y agencias gubernamentales, incluido el Consejo Asesor Europeo de Meta Reality Labs.

Imágenes, frente al texto generado por IA que también ha proliferado recientemente gracias a herramientas como ChatGPTpueden ser especialmente poderosos para provocar emociones cuando las personas los ven, dijo Claire Leibowicz, directora de inteligencia artificial e integridad de los medios en Partnership on AI, un grupo industrial sin fines de lucro. Eso puede dificultar que las personas reduzcan la velocidad y evalúen si lo que están viendo es real o falso.

Además, los malos actores coordinados podrían eventualmente intentar crear contenido falso a granel, o sugerir que el contenido real es generado por computadora, para confundir a los usuarios de Internet y provocar ciertos comportamientos.

“La paranoia de un posible arresto de Trump inminente creó un estudio de caso realmente útil para comprender cuáles son las implicaciones potenciales, y creo que somos muy afortunados de que las cosas no se hayan torcido”, dijo Ben Decker, director ejecutivo del grupo de inteligencia de amenazas Memetica. . “Porque si más personas hubieran tenido esa idea en masa, de manera coordinada, creo que hay un universo en el que podríamos comenzar a ver los efectos en línea y fuera de línea”.

La tecnología de imágenes generadas por computadora ha mejorado rápidamente en los últimos años, desde la imagen retocada de un tiburón nadando a través de una carretera inundada que se ha compartido repetidamente durante desastres naturales a los sitios web que hace cuatro años comenzaron a generarse en su mayoría poco convincentes fotos falsas de personas inexistentes.

Muchas de las imágenes virales recientes generadas por IA fueron creadas por una herramienta llamada Midjourney, una plataforma de menos de un año que permite a los usuarios crear imágenes basadas en breves mensajes de texto. En su sitio web, Midjourney se describe a sí mismo como “un pequeño equipo autofinanciado”, con solo 11 miembros del personal a tiempo completo.

Una mirada rápida a una página de Facebook popular entre los usuarios de Midjourney revela imágenes generadas por IA de un Papa Francisco aparentemente ebrio, versiones mayores de Elvis y Kurt Cobain, Musk en un traje robótico de Tesla y muchas creaciones de animales espeluznantes. Y eso es sólo de los últimos días.

Midjourney se ha convertido en una herramienta popular para que los usuarios creen imágenes generadas por IA.

La última versión de Midjourney solo está disponible para un número selecto de usuarios pagos, dijo el director ejecutivo de Midjourney, David Holz, a CNN en un correo electrónico el viernes. Midjourney esta semana detuvo el acceso a la versión de prueba gratuita de sus versiones anteriores debido a la “demanda extraordinaria y el abuso de la prueba”, según una publicación de Discord de Holz, pero le dijo a CNN que no estaba relacionado con las imágenes virales. El creador de las imágenes del arresto de Trump también afirmó que se le prohibió el acceso al sitio.

La página de reglas en el sitio Discord de la compañía les pide a los usuarios: “No usen nuestras herramientas para hacer imágenes que puedan inflamar, molestar o causar drama. Eso incluye gore y contenido para adultos”.

“La moderación es difícil y pronto enviaremos sistemas mejorados”, dijo Holz a CNN. «Estamos recibiendo muchos comentarios e ideas de expertos y de la comunidad y estamos tratando de ser realmente reflexivos».

En la mayoría de los casos, los creadores de las imágenes virales recientes no parecen haber actuado de manera malévola. Las imágenes del arresto de Trump fueron creadas por el fundador del medio de periodismo de investigación en línea Bellingcat, quien claramente las etiquetó como sus fabricaciones, incluso si otros usuarios de las redes sociales no eran tan perspicaces.

Las plataformas, las empresas de tecnología de inteligencia artificial y los grupos de la industria se esfuerzan por mejorar la transparencia en torno a cuándo una computadora genera una pieza de contenido.

Las plataformas que incluyen Facebook e Instagram de Meta, Twitter y YouTube tienen políticas que restringen o prohíben el intercambio de medios manipulados que podrían inducir a error a los usuarios. Pero a medida que crece el uso de tecnologías generadas por IA, incluso esas políticas podrían amenazar con socavar la confianza de los usuarios. Si, por ejemplo, una imagen falsa se deslizó accidentalmente a través del sistema de detección de una plataforma, «podría dar a las personas una confianza falsa», dijo Ajder. “Dirán, ‘hay un sistema de detección que dice que es real, así que debe ser real’”.

También se está trabajando en soluciones técnicas que, por ejemplo, colocarían una marca de agua en una imagen generada por IA o incluirían una etiqueta transparente en los metadatos de una imagen, de modo que cualquiera que la vea a través de Internet sepa que fue creada por una computadora. La Asociación sobre IA ha desarrollado un conjunto de estándares, responsables prácticas para medios sintéticos junto con socios como El creador de ChatGPT OpenAI, TikTok, Adobe, Bumble y la BBC, que incluye recomendaciones sobre cómo divulgar una imagen generada por IA y cómo las empresas pueden compartir datos en torno a dichas imágenes.

“La idea es que todas estas instituciones estén comprometidas con la divulgación, el consentimiento y la transparencia”, dijo Leibowicz.

Un grupo de líderes tecnológicos, incluidos Musk y el cofundador de Apple, Steve Wozniak, escribieron esta semana un carta abierta pidiendo a los laboratorios de inteligencia artificial que detengan el entrenamiento de los sistemas de IA más poderosos durante al menos seis meses, citando «riesgos profundos para la sociedad y la humanidad». Aún así, no está claro si algún laboratorio dará ese paso. Y a medida que la tecnología mejora rápidamente y se vuelve accesible más allá de un grupo relativamente pequeño de corporaciones comprometidas con prácticas responsables, es posible que los legisladores deban involucrarse, dijo Ajder.

“Esta nueva era de la IA no puede quedar en manos de unas pocas empresas masivas que se enriquecen con estas herramientas, necesitamos democratizar esta tecnología”, dijo. “Al mismo tiempo, también existen preocupaciones muy reales y legítimas de tener un enfoque abierto radical en el que simplemente abre una herramienta o tiene restricciones mínimas sobre su uso, lo que conducirá a una escala masiva de daños… y creo que la legislación probablemente desempeñará un papel en el reinado de algunos de los modelos más radicalmente abiertos”.





Source link

Related Articles

Ultimos Articulos