El gigante estadounidense Meta anunció el martes que identificará "en los próximos meses" cualquier imagen generada por inteligencia artificial (IA) que aparezca en sus redes sociales Facebook, Instagram y Threads.
La compañía ya identifica las imágenes generadas con la ayuda de su propia herramienta, Meta IA, que fue lanzada en diciembre.
- De ahora en adelante "queremos poder hacer lo mismo con contenidos creados con herramientas de otras empresas" como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock, añadió el responsable de Meta.
El auge de la IA generativa suscita temores de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación.
- Casi la mitad de la población mundial celebrará elecciones este año.
Además del riesgo político, el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas ("deepfakes") pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.
Minimizarán, no eliminarán producción de imágenes falsas- Por ejemplo, una imagen falsa de la estrella estadounidense Taylor Swift fue vista 47 millones de veces en la red social X a finales de enero antes de ser eliminada. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas.
Si bien Nick Clegg admite que este etiquetado a gran escala, a través de marcadores invisibles, "no eliminará" totalmente el riesgo de producción de imágenes falsas, "ciertamente minimizará" su proliferación "dentro de los límites de lo que la tecnología permite actualmente".