Meta identificará en sus redes sociales las imágenes generadas por IA

El gigante de la tecnología anunció que “en los próximos meses” comenzará a identificar las imagenes generadas por Inteligencia Artificial (IA). La herramienta estará disponible en sus redes sociales Facebook, Instagram y Threads.

En su lucha contra la desinformación y las fake news, la empresa liderada por Mark Zuckerberg anunció que durante los próximos meses implementará una herramienta que permitirá a los usuarios identificar las imágenes creadas con Inteligencia Artificial. El cambio se aplicará a las redes sociales de Meta: Facebook, Instagram y Threads.

Actualmente, el gigante tecnológico ya etiqueta las imágenes creadas por su propia herramienta Meta IA. Según el responsable de asuntos internacionales Nick Clegg, Meta buscará “hacer lo mismo con contenidos creados de otras empresas” como Google y OpenIA, por ejemplo.

La lucha de Meta contra la desinformación

El auge de la IA generativa revolucionó el contenido en Internet. Con simples indicaciones, este tipo de tecnología permite a cualquier usuario crear imágenes de alta calidad y muy difíciles de diferenciar de una fotografía “real”.

En un comunicado oficial, publicado en un blog, Clegg aseguró que “en los próximos meses etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads”. Además, agregó que esto será posible “siempre y cuando se puedan detectar los indicadores, conformes a las normas de la industria, que revelan que son generadas por IA”.

Actualmente, la compañía ya etiqueta las imágenes que hayan sido generadas por su propia herramienta de Inteligencia Artificial, “Meta IA”. Según Cregg, el objetivo ahora es “hacer lo mismo con contenidos creados con herramientas de otras empresas” como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock”.

“Estamos construyendo esta herramienta en estos momentos, y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas compatibles con cada aplicación”, detalló el responsable de asuntos internacionales. Sin embargo, aún no hay fecha confirmada de cuando será aplicada dicho instrumento de detección.

Los “deepfakes”: el gran riesgo que trae el uso de la IA

El desarrollo de programas de IA generativa brinda herramientas sin precedentes para la producción de imágenes de una gran precisión. Según numerosos activistas y reguladoras, esto podría producir un flujo incontrolable de contenidos degradantes.

Un claro ejemplo de esto son las imágenes falsas – deepfakes – pornográficas de mujeres famosas, una problemática que fue acrecentándose los últimos meses con el desarrollo de este tipo de tecnología. La cantante estadounidense Taylor Swift fue víctima de este delito, cuando una fotografía falsa de ella fue subida en enero a la red social X, sumando 47 millones de visitas antes de ser eliminada.

Si bien Nick Clegg admite que este etiquetado a gran escala “no eliminará” totalmente el riesgo de producción de imágenes falsas, si cree que “ciertamente minimizará” su proliferación “dentro de los límites de lo que la tecnología permite actualmente”. “No es perfecto, la tecnología aún no está completamente desarrollada, pero de todas las plataformas es el intento más avanzado hasta ahora para proporcionar transparencia de forma significativa a miles de millones de personas en todo el mundo”, declaró el miembro de Meta.

“Espero sinceramente que al hacer esto y liderar el camino, alentemos al resto de la industria a trabajar juntos y tratar de desarrollar los estándares técnicos comunes que necesitamos”, agregó Cregg. Además, el responsable de asuntos internacionales de Meta, aseguró que están dispuestos a “compartir” su tecnología abierta “tan ampliamente como sea posible”.

Pero Meta no es la única empresa que comenzó a tomar decisiones para contener esta problemática. A mediados de enero de 2024, la empresa californiana OpenAI – creadora de ChatGPT, anunció que lanzaría herramientas para combatir la desinformación y afirmó su voluntad de no permitir el uso de su tecnología con fines políticos.

“Queremos asegurarnos de que nuestra tecnología no se utilice de manera que perjudique al proceso democrático”, expresaron las autoridades de OpenIA a través de un comunicado oficial. Según la empresa, su generador de imágenes DALL-E 3 ya cuenta con un “salvaguardas” para evitar que los usuarios generen imágenes de personas reales, especialmente candidatos.

ámbito

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *