Las grandes compañías tecnológicas prueban etiquetas para detectar material falso y combatir la desinformación frente al riesgo de los ¨deepfakes¨.
Google, Meta y OpenAI han anunciado en los últimos días
distintas medidas para que sea más fácil identificar imágenes o archivos que
han sido producidos o retocados con inteligencia artificial (IA). Estas
iniciativas se enmarcan en el temor a que la difusión indiscriminada de
mensajes falsos condicione los resultados de elecciones o tenga otras
consecuencias inesperadas. Las tres compañías ya habían anunciado que tratarán
de impedir el uso de la IA en los procesos electorales de 2024.
Tras años de invertir miles de millones de euros en
mejorar la capacidad de la inteligencia artificial generativa, las tres
plataformas se han unido a la Coalición para la Procedencia y Autenticidad de
Contenido (C2PA por las siglas en inglés), que propone un certificado estándar
y reúne a buena parte de la industria digital, a medios de comunicación como la
BBC o The New York Times a bancos y a fabricantes de cámaras. Las empresas
admiten en sus comunicados que no hay por ahora una solución única, ni eficaz
en todos los casos, para la identificación de contenido generado con IA.
Las iniciativas varían entre marcas visibles en las
propias imágenes y mensajes disimulados en los metadatos del archivo o en los
píxeles que han sido generados artificialmente. Con su herramienta aún en fase
beta, SynthID, Google también dice haber encontrado un modo de identificar
audios.
El estándar C2PA para introducir información en los
metadatos de la imagen tiene numerosas debilidades técnicas, identificadas con
detalle por desarrolladores. La propia OpenAI, que usará C2PA en Dall-3 (su
generador de imágenes), advierte en su comunicado que no hay que fiarse
excesivamente de sus posibilidades: “Metadatos como C2PA no son una solución
milagrosa para abordar cuestiones de procedencia. Puede eliminarse fácilmente
de forma accidental o intencionada. Una imagen que carece de estos metadatos puede
haber sido generada o no con ChatGPT o con nuestra API”, señalara la compañía
creadora del chatbot que ha popularizado la inteligencia artificial generativa.
Las compañías no dan plazos claros para la introducción
completa de sus medidas. Este 2024 es un año lleno de citas electorales en
países importantes y la influencia de contenido generado por IA puede ser
explosiva. La necesidad de protegerse preventivamente es vital. “Estamos
desarrollando esta capacidad y en los próximos meses empezaremos a aplicar
etiquetas en todos los idiomas que admite cada aplicación”, dice Nick Clegg,
presidente de Asuntos Públicos de Meta, en su comunicado.
Meta promete no solo etiquetar visualmente las imágenes
que generen sus herramientas de IA, sino también detectar e identificar las que
se cuelguen en sus redes: Instagram, Facebook y Threads, siempre que sea
posible. “Podemos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe,
Midjourney y Shutterstock a medida que ponen en marcha sus planes para añadir
metadatos a las imágenes creadas por sus herramientas”, dice Clegg.
Google aplicará sus métodos a YouTube. Aunque estos
enfoques dicen representar lo último dentro de lo que es técnicamente posible
ahora mismo, la empresa cree que su método creado con SynthID puede sobrevivir
modificaciones voluntarias para ocultarlo, como “agregar filtros, cambiar
colores y guardar con varios esquemas de compresión con pérdida, que son los
más utilizados para archivos JPEG”.
https://elpais.com/tecnologia/2024-02-09/google-meta-y-openai-anuncian-medidas-para-identificar-los-contenidos-creados-con-inteligencia-artificial.html