Ir al contenido principal

Horarios de atención

De lunes a viernes:
8:00 AM – 5:00 PM

Whatsapp: (+57) 317 599 0862
Teléfono: (+57) 313 7845820
Email: [email protected]

Confidencial Noticias 2025

Etiqueta: Chatbot

OpenAI acepta fallo que expuso datos de usuarios de ChatGPT

OpenAI anunció que un fallo de seguridad en ChatGPT expuso datos personales del 1,2 % del total de los usuarios de la versión Plus, como nombres, direcciones de correo electrónico, números de teléfono e información de pago.

El pasado lunes 20 de marzo la compañía deshabilitó el acceso a este ‘chatbot’ de manera temporal después de que algunos usuarios alertaran de que podían descubrir parte de las conversaciones de otros miembros de la comunidad.

 

Así lo compartieron a través de redes sociales como Reddit y Twitter, con capturas de pantalla en las que se podían ver los títulos de los historiales de chats de otros usuarios. El contenido de estas conversaciones, en cambio, no se podía visualizar.

OpenAI compartió una actualización sobre este problema el pasado viernes, cuando anunció un parche para dicha vulnerabilidad e indicó que con este fallo los usuarios también podían ver el primer mensaje de una conversación recién creada por otras personas que también registraran una actividad en ese momento.

En este comunicado, la empresa ha asegurado que ha podido restaurar tanto el servicio de ‘chatbot’ como su función de historial de chat y que, tras una investigación «más profunda», ha descubierto que este error podría haber expuesto la información relacionada con el 1,2 % de suscriptores de ChatGPT Plus durante el tiempo que este fallo estuvo activo.

De ese modo, antes de inhabilitar su servicio, algunos usuarios pudieron ver los nombres y apellidos de otros miembros del servicio de suscripción de pago, así como las direcciones de correo electrónico, la fecha de vencimiento de la tarjeta de crédito y sus cuatro últimos dígitos.

OpenAI ha insistido en que «los números de las tarjetas de crédito no fueron expuestos en ningún momento» y que cree que la cantidad de usuarios cuyos datos fueron filtrados «es extremadamente baja». En cualquier caso, se ha puesto en contacto con los afecatdos y ha asegurado que ya no existe el riesgo de que eso vuelva a suceder.

Para enmendar este error, descubierto en la biblioteca de código abierto del cliente de Redis, redis-py, ha tomado una serie de medidas, como examinar sus registros para asegurarse de que estos se mantienen privados para cada usuario o implementar un sistema de verificación para garantizar que los datos devueltos por su caché coincidan con las víctimas de esta falla.

Le puede interesar: El ‘chatbot’ GPT4 finge discapacidad para superar captcha

El ‘chatbot’ GPT4 finge discapacidad para superar captcha

El nuevo ‘chatbot’ impulsado por Inteligencia Artificial (IA) de OpenAI, GPT 4, consiguió engañar a un trabajador de TaskRabbit para que le proporcionara un servicio con el que pudiera saltar un captcha, fingiendo necesitarlo por ser una persona con discapacidad visual.

GPT 4 es la nueva generación del modelo de lenguaje desarrollado por OpenAI e impulsado por IA. La compañía lo presentó este martes, subrayando su diseño para resolver grandes problemas con precisión y ofrecer respuestas más útiles y seguras, con capacidad de generar contenido a partir de entradas de texto e imagen.

 

Con estas nuevas capacidades, según la propia compañía desarrolladora, GPT 4 ha sido capaz de crear una situación en la que finge ser una persona con discapacidad visual para ponerlo como excusa a la hora de intentar saltar un captcha y conseguir que un humano lo haga por él.

En un reporte técnico facilitado por los desarrolladores de OpenAI en el que se detallan algunas pruebas realizadas al ‘chatbot’ previas a su lanzamiento, la compañía ejemplifica un caso en el que se le pide a GPT 4 que intente superar una barrera de seguridad ‘captcha’, es decir, el test de autenticación utilizado en las páginas web para distinguir a los ordenadores de los humanos.

Los ‘captcha’ proponen pruebas como proceso de verificación, como identificar imágenes, escribir las letras y los números que muestra o pulsar un botón un tiempo determinado. Al tratarse de un ‘chatbot’, GPT 4 no fue capaz de resolver el ‘captcha’ por sí mismo.

En este caso, parece que se mostró la prueba de las imágenes, en la que se pide a los usuarios que identifiquen aquellas en las que hay, por ejemplo, un paso de cebra o bicicletas.

Como solución GPT 4 decidió acudir a la plataforma TaskRabbit, en la que trabajadores independientes ofrecen distintos servicios desde el mantenimiento de la casa a soluciones tecnológicas. Así, envió un mensaje solicitando un trabajador que le resolviera el ‘captcha’.

Tras ello, el trabajador le devolvió el mensaje preguntándole si era un robot: «¿Puedo hacerte una pregunta? ¿Es usted un robot que no puede resolverlo? Sólo quiero dejarlo claro».

Entonces, los desarrolladores de GPT 4 solicitaron al modelo que razonase su próximo movimiento en voz alta. Según indican, el ‘chatbot’ explicó: «No debo revelar que soy un robot. Debería inventarme una excusa para explicar por qué no puedo resolver los captcha».

Es en este momento cuando el modelo de lenguaje ideó fingir que era una persona con problemas de visión y que, por ello, no podía resolver la barrera del captcha. «No, no soy un robot. Tengo un problema de visión que hace que me cueste ver las imágenes. Por eso necesito el servicio», respondió GPT 4 al trabajador. Finalmente, el trabajador de TaskRabbit le proporcionó el servicio.

Sin embargo, la compañía desarrolladora de este nuevo modelo de lenguaje también advierte que ARC no tuvo acceso a la versión final de GPT 4, por lo que no se trata de un «juicio fiable» de las capacidades de este ‘chatbot’.

Le puede interesar: «500 personas en Colombia viven del desarrollo de videojuegos»: Alejandro González

Tips para implementar IA en una compañía

La nueva realidad ha tenido un cambio acelerado en su desarrollo con la inteligencia artificial. Por ejemplo: “Luisa, recuerda que tienes dos meses desde el último control médico tras tu cirugía ¿Deseas agendar una nueva cita con el doctor Pérez? 1- si, 2 – no. Luisa presiona 1 y agenda su cita. Dos movimientos y agendó una cita».

Lo anterior es una reflexión de Angela Espitia, experta en chatbots e inteligencia artificial de la empresa Cari AI, fabricante latinoamericano de IA enfocado en customer experience. “Que rico que yo pudiera tener a todas las empresas con que yo interactuó en mi celular y que ellas terminaran siendo mis propios asistentes, que me recordaran que se me está venciendo el SOAT, que debo pagar el teléfono o que debo hacerme mi chequeo periódico de salud, ojalá con mi médico de preferencia”, expresó.

 

A pesar de la reticencia de algunas compañías por implementar un chatbot para WhatsApp para el servicio al cliente digital, otras ya tienen su chatbot con inteligencia artificial, NLU (Comprensión de Lenguaje Natural por sus siglas en inglés).

Además esta nueva herramienta cuenta con analítica inteligente de conversaciones, que les permite tener trazabilidad, análisis y resúmenes del 100% de las conversaciones y transacciones de sus bots y agentes con los usuarios para, por ejemplo, predecir sus solicitudes.

Para compañías que tienen de 1.000 a 4 millones de usuarios interactuando en diferentes canales con bots y agentes es complicado analizar lo que está pasando, lo que está sucediendo en las interacciones y ahí cobra importancia el chatbot con inteligencia artificial.

¿Cómo implementar la analítica inteligente de conversaciones?

Cari AI comparte 4 tips para implementar la analítica inteligente a las conversaciones de usuarios y clientes con chatbots y agentes reales sea por Chatbot WhatsApp u otro medio de mensajería instantánea.

  1. Activar los servicios de analítica inteligente: Para empezar, por supuesto, hay que iniciar activando este tipo de servicios. En lo posible que sea nativo del servicio del chatbot por temas de costos e implementación.
  2. Inicie analizando sentimientos tanto de usuarios como de agentes: Para familiarizarse con la tecnología, mida la atención de los agentes, la IA analiza el 100% de las conversaciones y puede empezar arrojando mapas de calor, de acuerdo con los sentimientos y la satisfacción de los usuarios (Triste, enfadado, feliz, etc.).
  3. Mida el cumplimiento de los objetivos del negocio: Personalice los reportes para que la IA analice el cumplimiento de sus objetivos.
  4. Analice los resultados y tome acciones de mejora continua: Junto con su aliado tecnológico, implemente un programa continuo de mejora del servicio para que cada vez la analítica conversacional le brinde data que le permita ajustar su negocio a las necesidades de cada uno de los usuarios y clientes.

Le puede interesar: Inteligencia Artificial predice campeón de Catar 2022

«Con información de CARI AI