loader image

Google eliminó 5,5 billones de anuncios por incumplir sus políticas de seguridad en 2023

Google eliminó 5,5 billones de anuncios por incumplir sus políticas de seguridad en 2023


Con la voluntad de establecer un ecosistema publicitario “seguro en su propio diseño” y la “responsabilidad” de ser el principal soporte de los
anuncios para miles de millones de personas, Google presentaba este lunes su último informe anual sobre seguridad publicitaria.
Duncan Lennox, (VP & GM de Ads Privacy & Safety) exponía junto con Alejandro Borgia (director,
product manager Ads Safety
) los resultados principales, que incluyen 5.500 millones de anuncios y 12,7 millones de cuentas bloqueados o eliminados
en 2023.

El impacto de la IA generativa es para ellos “la tendencia más importante” del año pasado. Tanto para lo bueno como para lo malo. Es
decir, ha supuesto cambios significativos en la optimización del rendimiento o en la edición de imágenes, pero también ha planteado “nuevos desafíos”
como los deepfakes. Por tanto, no es de extrañar que hayan tenido que actualizar sus políticas para anunciantes y editores de contenido más de 30 veces sólo el año pasado.

Ante todo, los de Google aseguran que este avance de la IA generativa es “una oportunidad única para hacer cumplir las normas” de mejor forma. Los
sistemas de aprendizaje automático también han mejorado, y con la asistencia de la IA ahora son mucho más eficaces que hace unos años para detectar
estos anuncios malignos a tiempo. El único problema era ese: que actuaran a tiempo, ya que su objetivo es bloquearlos o eliminarlos “antes de que
lleguen” a las plataformas de Google.

Hasta hace unos años los modelos de aprendizaje necesitaban “miles, incluso millones, de ejemplos” de infracciones para después poder detectarlas de
forma automática, comentaba Lennox. Ahora, los grandes modelos lingüísticos (LLM) son capaces de revisar e interpretar con rapidez
grandes volúmenes de contenidos, captando incluso matices importantes. Esto les permite tomar decisiones “a mayor escala y de manera más precisa”.

Igualmente, tratan de proteger a los anunciantes y al público, retirando su publicidad de páginas y sitios web de editores que incumplen sus políticas.
Por ejemplo, los de contenido sexual explícito o productos peligrosos, continuaba Lennox. En 2023, bloquearon o restringieron la aparición de anuncios
en más de 2.100 millones de páginas de editores de contenidos, “un poco más que en 2022”. Además, el año pasado suspendieron “a nivel de sitio web” más
de 395.000 sitios de editores; ”un notable aumento” respecto a 2022.

Políticas anti-fraude

Entre los problemas más habituales que tratan de combatir en su publicidad, los timos y fraudes están en el centro de la diana. Más de 10 millones de
dólares se perdieron por culpa de estas prácticas en Estados Unidos durante el pasado año, tal como recoge su Comisión Federal de Comercio.
Actualizando sus políticas y creando equipos de respuesta rápida confían en haber estrechado el cerco, aunque saben que estas amenazas están “en
continuo proceso de cambio”.

Entre las técnicas que emplea Google para limitar la difusión de agentes maliciosos y reducir el riesgo de estafas y anuncios engañosos, Lennox
destacaba la reciente actualización de su política de limitación de la publicidad. Desde el pasado noviembre, dicha política incluye un periodo
de “prueba” para los anunciantes “que aún no tienen un historial consolidado de buena conducta”. Durante ese periodo, las apariciones de
sus anuncios pueden limitarse en determinadas circunstancias, como por ejemplo, “si no está clara la relación entre el anunciante y la marca a la que
hace referencia”.

Uno de los casos que más les preocupa son los anuncios de planes para hacerse rico rápidamente. A ellos apunta su política sobre afirmaciones financieras de escasa fiabilidad. Según detallaba Lennox, los actores maliciosos ha refinado sus
técnicas, adaptando su publicidad a nuevos productos o servicios como las criptomonedas. Gracias a su modelo de IA (Gemini), sus LLM
pueden identificar mejor los patrones de estos actores, así como las nuevas tendencias financieras, y actuar con mayor agilidad.

Aun así, reconocen: “Apenas hemos empezado a capitalizar las posibilidades de los LLM en beneficio de la seguridad de la publicidad”. Las tendencias
financieras cambian a una “velocidad pasmosa” y es difícil diferenciar servicios legítimos y fraudulentos. Algo que también ocurre con el último uso
abusivo que ha popularizado la inteligencia artificial: ‘contenido sintético’ y deepfakes.

‘Deepfakes’ y elecciones ‘sintéticas’

“Entre finales de 2023 y principios de 2024, nos enfrentamos a una campaña selectiva de anuncios que utilizaba la imagen de personajes públicos, en
muchos casos con uso de deepfakes, para tratar de estafar al público”, advertía Borgia. De nuevo, creando equipos de acción rápida para detectar
patrones y poniendo al día su política de presentación engañosa, pudieron suspender 206,5 millones de anuncios que la
incumplían. Y más de 270 millones por incumplir su política de servicios financieros.

Y si el fraude ya es delicado entre los civiles, más aún entre candidatos políticos. Este año se celebran además varios procesos
electorales de primera magnitud en todo el mundo (entre ellos las elecciones de EE.UU.). Por ello desde Google han impuesto a los anunciantes
electorales requisitos de verificación de identidad y transparencia, así como restricciones sobre la forma en que pueden dirigir sus anuncios
electorales.

A través de su base de datos, los informes de transparencia de dichos anuncios electorales (accesibles para todo el mundo) permiten consultar toda la
información requerida al anunciante: a qué público y región se destina, quién destina cuánta cantidad y el número de interacciones con dicho anuncio.
Más de 5.000 nuevos anunciantes fueron registrados en 2023, y más de 7 millones de anuncios “no completaron el proceso de verificación”.

Además, han querido cubrir el alcance de la IA en este tipo de publicidad, siendo pioneros en establecer requisitos para aquellos que hagan campaña con
“contenidos sintéticos” (creados por IA). “Cada vez son más los anunciantes que explotan las posibilidades de la IA”, aseveraba Borgia, “y queremos que
los votantes se puedan fiar” de los candidatos. “En paralelo, hemos reforzado la aplicación de nuestras políticas contra los anuncios que contienen afirmaciones electorales objetivamente falsas, susceptibles
de socavar la confianza o la participación en los procesos democráticos”, desgranaba el de Google.

No saben qué vendrá este 2024, pero asociándose con organizaciones como la Global Anti-Scam Alliance y Stop Scams UK (para facilitar el intercambio de
información), y generando un archivo global para consultar todos los anuncios procedentes de anunciantes verificados (el Centro de Transparencia Publicitaria), esperan “estar preparados” para cualquier
desafío. De momento, si es demasiado bueno o malo como para ser cierto… ya saben.





Abrir chat
Ejecutivo de Soporte Siete2
Ejecutivo de Soporte Siete2
Hola, ¿En qué te puedo ayudar?