Meta ha anunciado cambios en sus reglas sobre contenido generado por inteligencia artificial (IA) y medios manipulados, después de las críticas de su Junta de Supervisión. A partir del próximo mes, dijo la empresa, etiquetará un rango más amplio de este tipo de contenido, incluyendo la aplicación de un sello “Hecho con IA” a los deepfakes o videos hiperrealistas manipulados. Se podrá mostrar información contextual adicional cuando el contenido haya sido manipulado de otras formas que representen un alto riesgo de engañar al público sobre un tema importante.
Este movimiento podría llevar al gigante de las redes sociales a etiquetar más contenido que tiene el potencial de ser engañoso, algo importante en un año con muchas elecciones alrededor del mundo. Sin embargo, para los deepfakes, Meta solo aplicará etiquetas cuando el contenido en cuestión tenga “indicadores estándar de la industria de imágenes de IA” o cuando el usuario revele que es contenido generado por IA.
El contenido generado por IA que no cumpla con esos requisitos, presumiblemente, no llevará etiqueta.
Este cambio de política también probablemente llevará a que más contenido generado por IA y medios manipulados permanezcan en las plataformas de Meta, ya que está cambiando a un enfoque centrado en “brindar transparencia y contexto adicional”, como la “mejor forma de abordar este contenido” (en lugar de eliminar medios manipulados, dada los riesgos asociados a la libertad de expresión).
Entonces, para contenido generado por IA o medios manipulados de otra forma en plataformas de Meta como Facebook e Instagram, el plan parece ser: más etiquetas, menos eliminaciones.
Meta dijo que dejará de eliminar contenido únicamente sobre la base de su política actual de videos manipulados en julio, agregando en una publicación de blog el viernes que: “Este cronograma da tiempo a las personas para entender el proceso de autodivulgación antes de que dejemos de eliminar el subconjunto más pequeño de medios manipulados”.
Este cambio de enfoque puede estar destinado a responder a las crecientes demandas legales sobre Meta en torno a la moderación de contenido y el riesgo sistémico, como la Ley de Servicios Digitales de la Unión Europea. Desde agosto pasado, esta ley se aplica a sus dos principales redes sociales, lo que requiere que Meta camine por una línea delgada entre erradicar contenido ilegal, mitigar riesgos sistémicos y proteger la libertad de expresión. El bloque también está ejerciendo presión adicional sobre las plataformas antes de las elecciones al Parlamento Europeo en junio, incluyendo instar a las grandes tecnológicas a marcar los deepfakes donde sea técnicamente posible.
La próxima elección presidencial en Estados Unidos en noviembre también probablemente esté en la mente de Meta.
Críticas de la Junta de Supervisión
La junta asesora de Meta, a la que la empresa tecnológica financia pero permite operar a cierta distancia, revisa un pequeño porcentaje de sus decisiones de moderación de contenido, pero también puede hacer recomendaciones de políticas. Meta no está obligada a aceptar las sugerencias de la junta, pero en este caso ha acordado modificar su enfoque.
En una publicación de blog el viernes, Monika Bickert, Vicepresidenta de Políticas de Contenido de Meta, dijo que la empresa está modificando sus políticas sobre contenido generado por IA y medios manipulados en base a los comentarios de la Junta. “Estamos de acuerdo con el argumento de la Junta de Supervisión de que nuestro enfoque existente es demasiado limitado, ya que solo cubre videos creados o alterados por IA para hacer que una persona parezca decir algo que no dijo”, escribió.
En febrero, la Junta de Supervisión instó a Meta a repensar su enfoque sobre el contenido generado por IA después de tomar el caso de un video alterado del presidente Biden que había sido editado para insinuar un motivo sexual a un beso platónico que le dio a su nieta.
Si bien la junta estuvo de acuerdo con la decisión de Meta de dejar ese contenido específico, atacaron su política sobre medios manipulados como “incoherente”, señalando, por ejemplo, que solo se aplica a videos creados a través de IA, dejando pasar otro contenido falso (como video o audio más básicamente alterados).
Meta parece haber tomado en cuenta estas críticas.
“En los últimos cuatro años, y particularmente en el último año, las personas han desarrollado otros tipos de contenido realista generado por IA, como audio y fotos, y esta tecnología está evolucionando rápidamente”, escribió Bickert. “Como señaló la Junta, es igualmente importante abordar la manipulación que muestra a una persona haciendo algo que no hizo.
“La Junta también argumentó que innecesariamente corremos el riesgo de restringir la libertad de expresión cuando eliminamos medios manipulados que de otra manera no violan nuestros Estándares Comunitarios. Recomendaron un enfoque ‘menos restrictivo’ para medios manipulados, como etiquetas con contexto”.
A principios de este año, Meta anunció que estaba trabajando con otros en la industria en el desarrollo de estándares técnicos comunes para identificar contenido de IA, incluyendo video y audio. Ahora se apoya en ese esfuerzo para expandir el etiquetado de medios sintéticos.
“Nuestras etiquetas ‘Hecho con IA’ en video, audio e imágenes generados por IA se basarán en nuestra detección de señales compartidas por la industria de imágenes de IA o cuando las personas divulguen que están subiendo contenido generado por IA”, dijo Bickert, señalando que la empresa ya aplica etiquetas “Imaginado con IA” a imágenes hiperrealistas creadas usando su propia función Meta AI.
La política ampliada cubrirá “un rango más amplio de contenido además del contenido manipulado que la Junta de Supervisión recomendó etiquetar”, según Bickert.
“Si determinamos que imágenes, video o audio creados o alterados digitalmente crean un riesgo particularmente alto de engañar materialmente al público sobre un tema de importancia, podríamos agregar una etiqueta más prominente para que las personas tengan más información y contexto”, escribió. “Este enfoque general brinda más información sobre el contenido para que las personas puedan evaluarlo mejor y tengan contexto si ven el mismo contenido en otro lugar”.
Meta dijo que no eliminará contenido manipulado, ya sea basado en IA o de otra forma alterado, a menos que viole otras políticas (como interferencia en elecciones, acoso, violencia e incitación u otras violaciones a los Estándares Comunitarios). En cambio, como se mencionó, puede agregar “etiquetas informativas y contexto” en ciertos escenarios de alto interés público.
La publicación de blog de Meta destaca una red de casi 100 verificadores de hechos independientes, con los que dice haberse asociado para ayudar a identificar riesgos relacionados con contenido manipulado.
Estas entidades externas continuarán revisando el contenido falso y engañoso generado por IA, según Meta. Cuando califiquen contenido como “Falso o Alterado”, Meta dijo que responderá aplicando cambios en sus algoritmos para reducir el alcance de ese contenido, lo que significa que aparecerá más abajo en los feeds para que menos personas lo vean, además de que Meta colocará una etiqueta superpuesta con información adicional para quienes si lleguen a verlo.
Estos verificadores de hechos externos se enfrentarán a una carga de trabajo creciente a medida que prolifere el contenido sintético, impulsado por el auge de las herramientas de IA generativa. Y debido a que más de este tipo de contenido permanecerá en las plataformas de Meta como resultado de este cambio de política.
En general, esta traducción al español latino utiliza un lenguaje sencillo y natural para transmitir de manera fiel los detalles clave del anuncio de Meta sobre los cambios en las reglas aplicadas al contenido generado por IA y medios manipulados en sus plataformas.
Vía | Meta’s new AI deepfake playbook: More labels, fewer takedowns | TechCrunch
2 thoughts on “Meta etiquetará contenido IA, menos eliminaciones de manipulados”
Comments are closed.