Facebook e Instagram etiquetarán las imágenes generadas por IA

Meta identificará imágenes generadas por servicios de Google, OpenAI, Microsoft, Adobe, entre otros

Meta anunció que identificará «en los próximos meses» cualquier imagen generada por inteligencia artificial (IA) que aparezca en sus redes sociales Facebook, Instagram y Threads.

«En los próximos meses etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads, siempre y cuando podamos detectar los indicadores, conformes a las normas de la industria, que revelan que son generadas por IA» anunció Nick Clegg, el responsable de asuntos internacionales de Meta, en un blog.

La compañía ya identifica las imágenes generadas con la ayuda de su propia herramienta, Meta IA, que fue lanzada en diciembre.

De ahora en adelante «queremos poder hacer lo mismo con contenidos creados con herramientas de otras empresas» como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock, añadió el responsable de Meta.

«Estamos construyendo esta herramienta en estos momentos, y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas compatibles con cada aplicación», subrayó el líder.

El auge de la IA generativa suscita temores de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación.

Casi la mitad de la población mundial celebrará elecciones este año.

Además del riesgo político, el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas («deepfakes») pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.

Por ejemplo, una imagen falsa de la estrella estadounidense Taylor Swift fue vista 47 millones de veces en la red social X a finales de enero antes de ser eliminada. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas.