Bumble introdujo una herramienta que utiliza tecnología basada en Inteligencia Artificial (IA) y es capaz de detectar imágenes de desnudos y contenido sexual en el apartado de chats que dispone la plataforma.
La compañía anunció a finales de abril que estaba desarrollando una especie de filtro, Private Detector, que estaría integrado en Bumble y que avisaría a los usuarios en caso de sospechar de que una fotografía fuera lasciva.
Entonces, dijo que esta funcionalidad trabajaría con algoritmos y que había sido entrenada por IA para capturar imágenes en tiempo real y determinar con un 98 % si contienen desnudos o contenidos sexuales explícitos.
Ahora la compañía ha anunciado el lanzamiento de una versión de código abierto de esta funcionalidad, con la que espera “ayudar a la comunidad tecnológica a combatir el cyberflashing”, según ha apuntado en un comunicado publicado a través de su blog.
Se conoce como cyberflashing a la práctica consistente en el envío de imágenes obscenas o vídeos sexuales no consentidos a través de estas plataformas de mensajería y se considera un tipo de violencia digital.
Bumble espera frenar esta práctica con Private Detector, una funcionalidad con la que busca añadir una nueva capa de seguridad a esta aplicación de citas en línea para ‘smartphones’, según el documento.
De esta forma, sus sistema será capaz de detectar qué imágenes debe borrar de la plataforma, como pueden ser desnudos, fotos de partes íntimas, personas sin camiseta e, incluso armas; y cuáles debe mantener.
Las fotografías que Private Detector haya determinado como inapropiadas, se mostrarán difuminadas en la aplicación, por lo que los receptores de esas imágenes podrán elegir si verla (pulsando sobre las imágenes de forma prolongada), bloquearla o bien denunciar a la persona que la envió.
Le puede interesar: Streamer porno se rompe la espalda en TwitchCon
*Foto: Google PlayStore