Google ha actualizado su Política de contenido inapropiado en Google Ads para prohibir expresamente los anuncios de páginas webs o servicios que promuevan servicios destinados a crear contenidos pornográficos mediante ‘deepfake’.
El ‘deepfake’ es una manipulación de contenidos audiovisuales, como imágenes, vídeos o audios; con herramientas impulsadas por Inteligencia Artificial (IA), que destacan por el realismo de sus resultados. Tanto es así que pueden engañar tanto a las personas como a los algoritmos.
La compañía ya dispone de una Política de contenido inapropiado que aplica a los anuncios que ofrece. Así, no permite contenido que incite al odio, promueva la discriminación o menosprecie a un individuo o grupo por motivos de raza u origen étnico, religión, discapacidad u orientación sexual.
Tampoco admite aquel que acose o intimide a un individuo o un grupo de individuos o el que amenace, promueva daño físico o mental o busque explotar a otros usuarios mediante extorsión o chantaje, entre otros supuestos.
La firma ha anunciado una actualización de su política de contenido inapropiado en Google Ads para prohibir expresamente “la promoción de contenido sintético que haya sido alterado o generado para que sea sexualmente explícito o contenga desnudos”.
De esta manera lo ha señalado en un comunicado publicado en su página web de soporte, donde ha dicho que comenzará a aplicar esta actualización de sus políticas el próximo 30 de mayo y ha dado ejemplos de los anuncios que no estarán permitidos.
Entre ellos, sitios o aplicaciones que afirmen generar pornografía ‘deepfake’, aquellos que ofrezcan “instrucciones sobre cómo crearla” o que den “respaldo” a servicios de estas características.
La compañía ha asegurado finalmente que se toma “muy en serio” las violaciones de esta política y que las considera “atroces”. Por ello, si descubre violaciones en sus normas, suspenderá las cuentas de Google Ads que promuevan estos anuncios sin previo aviso.