Meta identificará las imágenes generadas por IA en Facebook, Instagram y Threads
El auge de la IA generativa suscita temores de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación
Martes 06 de Febrero de 2024 10:43 am
+ -
El gigante
estadunidense Meta anunció el martes que identificará "en los próximos
meses" cualquier imagen generada por inteligencia artificial (IA) que
aparezca en sus redes sociales Facebook, Instagram y Threads.
"En los
próximos meses etiquetaremos las imágenes que los usuarios publiquen en
Facebook, Instagram y Threads, siempre y cuando podamos detectar los
indicadores, conformes a las normas de la industria, que revelan que son
generadas por IA" anunció Nick Clegg, el responsable de asuntos
internacionales de Meta, en un blog. La compañía ya identifica las imágenes
generadas con la ayuda de su propia herramienta, Meta IA, que fue lanzada en
diciembre.
De ahora en
adelante "queremos poder hacer lo mismo con contenidos creados con
herramientas de otras empresas" como Google, OpenAI, Microsoft, Adobe,
Midjourney o Shutterstock, añadió el responsable de Meta.
"Estamos
construyendo esta herramienta en estos momentos, y en los próximos meses
comenzaremos a aplicar etiquetas en todos los idiomas compatibles con cada
aplicación", subrayó el líder.
El auge de
la IA generativa suscita temores de que las personas utilicen estas
herramientas para sembrar el caos político, especialmente a través de la
desinformación. Casi la mitad de la población mundial celebrará elecciones este
año.
Además del
riesgo político, el desarrollo de programas de IA generativa podría producir un
flujo incontrolable de contenidos degradantes, según numerosos activistas y
reguladores, como las imágenes falsas ("deepfakes") pornográficas de
mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.
Por ejemplo,
una imagen falsa de la estrella estadunidense Taylor Swift fue vista 47
millones de veces en la red social X a finales de enero antes de ser eliminada.
Según la prensa estadounidense, la publicación permaneció en línea en la
plataforma durante aproximadamente 17 horas.
Si bien Nick
Clegg admite que este etiquetado a gran escala, a través de marcadores
invisibles, "no eliminará" totalmente el riesgo de producción de
imágenes falsas, "ciertamente minimizará" su proliferación
"dentro de los límites de lo que la tecnología permite actualmente".
"No es
perfecto, la tecnología aún no está completamente desarrollada, pero de todas las
plataformas es el intento más avanzado hasta ahora para proporcionar
transparencia de forma significativa a miles de millones de personas en todo el
mundo", dijo Clegg. "Espero sinceramente que al hacer esto y liderar
el camino, alentemos al resto de la industria a trabajar juntos y tratar de
desarrollar los estándares técnicos comunes que necesitamos", agregó el
líder de Meta, que está dispuesto a "compartir" su tecnología abierta
"tan ampliamente como sea posible".
La empresa
californiana OpenAI, creadora de ChatGPT, también anunció a mediados de enero
el lanzamiento de herramientas para combatir la desinformación, y afirmó su
voluntad de no permitir el uso de sus herramientas tecnológicas con fines
políticos.
"Queremos
asegurarnos de que nuestra tecnología no se utilice de manera que
perjudique" al proceso democrático, explicó OpenAI, que señaló que su
generador de imágenes DALL-E 3 contiene "salvaguardas" para evitar
que los usuarios generen imágenes de personas reales, especialmente candidatos.
Únete
a nuestro canal de WhatsApp, dando clic aquí, y mantente al día con las
noticias