Ir al contenido principal

Etiqueta: Inteligencia artificial

Meta quiere integrar IA generativa en sus productos

El CEO de Meta, Mark Zuckerberg, comentó en un encuentro con empleados de la compañía que planea introducir la Inteligencia Artificial (IA) generativa en cada uno de los productos que desarrolla.

La IA ya está presente en los servicios que firman otros grandes fabricantes tecnológicos como Microsoft, que ya cuenta con Copilot, así como Google, con su ‘chatbot’ Bard incluido en Bing y en Chrome.

 

El director ejecutivo de Meta reconoció hace unos meses que había llegado tarde al desarrollo de su propia infraestructura de IA, algo que aseguró haber podido solventar tras ponerse al día con ella y desarrollar productos con esta tecnología, que previsiblemente lanzará a finales de este año.

Entonces, Zuckerberg puntualizó en la presentación de los resultados financieros correspondientes al primer trimestre de 2023 que había incrementado la financiación para desarrollar iniciativas de inteligencia artificial generativa.

Asimismo, a finales de mayo, Meta presentó un modelo de lenguaje grande, Less Is More for Alignment (LIMA), que se basa en LLaMa e, inicialmente, permite obtener resultados de calidad a partir de pocas indicaciones.

La compañía también busca implementar la IA generativa en sus productos, como ya está trabajando en Instagram, con chats capaces de responder preguntas, dar consejos y ofrecer hasta 30 perfiles diferentes y personalizados.

«En el último año hemos visto algunos avances realmente increíbles, avances cualitativos en la IA generativa. Eso nos da la oportunidad de ir ahora a coger esa tecnología, impulsarla y llevarla a cada uno de nuestros productos», dijo Zuckerberg en declaraciones recogidas por Axios.

De ese modo, se podrán editar fotografías con indicaciones por mensajes de texto para compartirlas después a través de las Historias de Instagram. Por otra parte, este medio recuerda que Meta implementará agentes de IA «con diferentes personalidades y capacidades para ayudar y entretener», una funcionalidad que estaría enfocada inicialmente para Messenger y WhatsApp y que ya anticipó el propio Zuckerberg en abril.

El vicepresidente de IA de Meta, Ahmad Al-Dahle, especificó en este sentido que la primera función que va a introducir en sus plafatormas será la posibilidad de crear ‘stickers’ generados en Messenger. Con estos, los usuarios «tendrán infinitas más opciones de expresión personal, representaciones culturales e, incluso, tendencias», ha dicho.

Le puede interesar: Empretienda, la nueva plataforma de ‘ecommerce’; en Colombia

*Foto: Instagram @zuck

Spotify elimina miles de canciones hechas con IA

Spotify eliminó «decenas de miles» de canciones generadas por inteligencia artificial (IA) de la plataforma y reforzó su sistema de vigilancia para detectar este tipo de archivos y actividades fraudulentas.

El servicio de música en ‘streaming’ confirmó que estas canciones pertenecían a Boomy, una compañía que ofrece a sus usuarios la posibilidad de crear canciones desde cero y de diversos estilos con IA.

 

Creada hace dos años, esta ‘startup’, con sede en California (Estados Unidos), asegura que sus usuarios pueden «crear canciones originales en segundos» y que con su tecnología se han desarrollado más de 14 millones de pistas de audio.

Una persona conocedora del asunto aseguró a Financial Times que Spotify eliminó alrededor de un 7 % de las pistas subidas a través de Boomy, que equivale a «decenas de miles de canciones», después de que Universal Music Group (UMG) alertara de un comportamiento extraño en la reproducción de estas canciones.

Concretamente, se advirtió una especie de «transmisión artificial», esto es, que las canciones creadas por Boomy registraban ‘bots’ en línea que se hacían pasar por oyentes para incrementar sus audiencias, según otra fuente cercana a la situación.

La plataforma, por su parte, confirmó a este periódico haber eliminado parte del contenido de Boomy y que continúa trabajando para borrar todo aquello que se haya generado con IA de su servicio.

Conviene recordar que a mediados del pasado mes Universal Music, que abarca buena parte del mercado discográfico, instó tanto a esta plataforma como a Apple Music a bloquear el entrenamiento de modelos de IA, porque con ello estarían violando los derechos de autor de las canciones que utilizan.

Esta no fue la primera vez que profesionales del sector mostraron su preocupación por estas prácticas, ya que un grupo de artistas presentó hace unos meses una demanda contra Stability AI, DevianArt y Midjourney por infringir derechos de autor, esta vez en obras de arte creadas con Stable Diffusion.

Le puede interesar: De la compra online a la inteligencia artificial

«No veo por qué un candidato debe usar IA»: Daniel Ivoskus

Medellín será anfitrión del evento más importante del año de la consultoría, el marketing y la estrategia: la Cumbre Mundial de Comunicación Política. En ella la IA (inteligencia artificial) tendrá cierto protagonismo.

El evento se llevará a cabo los días 3, 4 y 5 de mayo de este año. Se espera la presencia de más de 300 exponentes globales en el Hotel Intercontinental de Medellín. La cumbre contará con el aval académico de la Universidad Pontifica Bolivariana (UPB).

 

Este encuentro se da como previa de las elecciones regionales en Colombia para octubre y el auge que ha venido teniendo la IA. Confidencial Colombia habló con Daniel Ivoskus, presidente de la Cumbre de Comunicación Política para abordar las campañas políticas desde el espectro virtual. A continuación lo que nos dijo.

¿Cómo puede reaccionar un candidato para evitar ser víctima de ataque políticos con IA?

No es complicado, es demasiado sencillo. Es tener un equipo profesional y especializado para enfrentar una campaña electoral, con eso se está tranquilo. El ‘deepfake’ y que la IA en la campaña sucia que le hagan va a ser una gran oportunidad para ganar la elección. El problema es que el 90% de los candidatos actuales subestiman la profesionalización en los equipos y eso hace que se equivoquen fácil y rápido. Cuando alguien entiende cómo funciona el sistema o tienes la información, conoces que cualquier acción de campaña sucia debe ser bloqueada, saber de dónde viene, contraatacar de manera agresiva exponiendo al que lo hizo y retomando el liderazgo de la opinión pública para desacreditar y tener una causa que abraces para construir una narrativa. Te diría que es demasiado sencillo, pero en las campañas modernas todas tienen que estar preparadas para recibir ataques de campaña sucia. Ese es uno de los temas principales que vamos a estar viendo en la Cumbre Mundial de Comunicación Política. Por eso vienen tantos candidatos políticos, asesores, especialistas en comunicación y expertos en ‘marketing’.

¿Cómo puede un candidato usar la IA a favor?

Si es candidato no merece ganar. No veo por qué deberían usar a favor IA. Uno podría pensar en hacer cosas atractivas de humor o interpelación de animación. Siempre sin pasar los límites porque el humor es importante en la comunicación política. Por supuesto ser disruptivo es importante, pero después se aburre y hay un aire de manto de duda en la sociedad sobre lo que hacen y dicen los políticos. Si encima dejan de ser auténticos, originales y le ponen mucha IA, lo único que van a lograr es perder credibilidad y reputación.

Pero con los avances que hay, ¿Es posible que más campañas le abran los brazos a la IA?

La IA te sirviría para algún fenómeno especial buenísimo. Es una herramienta más de una campaña electoral y tiene cientos de herramientas empezando por los medios de comunicación, por los portales digitales y redes sociales. Todo eso en el marco de una estrategia hace a la IA una herramienta más para utilizar o para cruzar de manera transversal las distintas acciones que nos lleva adelante.

En Colombia se cree que Rodolfo Hernández casi queda de presidente gracias al uso de TikTok. ¿Es mejor diversificar el mensaje en diferentes canales o es mejor ser fiel a uno solo?

En primer lugar lo que hay que hacer es construir un sistema de comunicación que permita contactarse con los usuarios de las distintas plataformas, no solamente con una sino con todos los canales donde pueda haber público para contactar. Lo segundo es que creer que Rodolfo Hernández en Colombia sacó los votos que sacó porque usó TikTok es simplificar el proceso electoral de Colombia. Rodolfo Hernández entró a segunda vuelta por otros factores donde había una gran parte del público que no quería votar a la izquierda pero que también no quería que siguiera Uribe ni el candidato de Uribe. Eso le pesó a Fico Gutiérrez y Hernández utilizó herramientas como el TikTok de manera disruptiva. Después ese mismo dilema que lo puso ahí, en segunda lo llevó a cometer demasiados errores y que consagraron a Gustavo Petro.

El peso te lo da al público, donde está la audiencia. Tienes que estar donde está la audiencia. Si en una red social te va bien, vas a continuar eso. Hay cientos de miles de jóvenes y vídeos virales que se ponen de moda.

¿Hasta qué punto ético pueden llegar las campañas políticas con la IA y las redes sociales?

Hay cosas que permite la ley y cosas que no. Lo que está permitido dentro de la ley, se puede todo. En el partido de Boca Juniors contra el Deportivo Pereira ¿Cuáles son los límites?: Los dos quieren ganar el partido, los límites dicen que si agarras con la mano un jugador adentro del área es penal, que los laterales se sacan con la mano y el córrer con los pies. Pasa lo mismo con la actividad política. Lo que pasa es que ahora aparecen cosas nuevas como es la IA y marea a todos un poquito. Dentro de la ley, todo; fuera, nada.

Pero incluso en el fútbol hay códigos éticos como el ‘fair-play’, que no es obligatorio…

Una campaña electoral es para ganarla. Dentro de las reglas, todo perfecto. La IA  ya llegó al fútbol también y está siendo un problema, que es el VAR.

¿Cuáles serán los ejes de la cumbre en Medellín?

Hay dos grandes paraguas. El primero son las campañas electorales y todo lo que hace una campaña electoral y el segundo es la comunicación de gobierno. En los dos ejes se abren varias ramas: tenemos de la investigación la publicidad, la creatividad, la estrategia, el ‘neuromarketing’, la marca ciudad… Podemos hablar también del territorio del ‘media-training’ para distintos medios de comunicación; la estrategia digital y las redes sociales. Son más de 200 expertos que son consultores analistas, académicos y periodistas políticos que van a contar su experiencia sus vivencias.

Le puede interesar: Política y tecnología se debatirán en cumbre de Medellín

TruthGPT, el nuevo emprendimiento de Elon Musk

El magnate Elon Musk, director ejecutivo de Tesla, Twitter y SpaceX, quiere que haya una tercera opción en el panorama de la inteligencia artificial (IA), que rivalice con las de OpenAI y Google, las dos empresas más potentes de este sector en la actualidad, y que lo haga sin dañar a la humanidad.

Musk confirmó que está trabajando en lo que llamó ‘TruthGPT’, una IA que «intente comprender el universo», ya que, según explica, una IA así, «que se preocupa por entender el universo, será menos probable que aniquile a los humanos».

 

En una entrevista con Tucker Carlson en Fox News, el magnate compartió su preocupación por por el potencial daño que puede causar la inteligencia artificial y su intención de lanzar una alternativa a ChatGPT, el ‘chatbot’ de OpenAI, una empresa que él ayudó a fundar en sus inicios.

Musk expresó con anterioridad su rechazo al rumbo que estaba tomando el desarrollo de las IA. Es, de hecho, una de las personas firmantes de la carta abierta que a finales de marzo instaba a detener «de inmediato y durante al menos durante seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4».

Un mes antes ya había expresado que «lo que necesitamos es TruthGPT», en una publicación en su perfil de Twitter. A esto se añade que, recientemente, se ha sabido que ha fundado una nueva compañía centrada en la inteligencia artificial, X.AI, como informó primero The Wall Street Journal.

Su intención de oponerse al modelo de lenguaje de OpenAI es clara, pero esta empresa no es la única que destaca en IA. También está Google, que aunque pudo quedar sobrepesada por el éxito de ChatGPT y el modelo de lenguaje GPT -entrenados por Microsoft-, ya anunció Bard y mejoras en los modelos de lenguaje que lo potencian, para incrementar sus capacidades.

Por su parte, el director ejecutivo de Google, Sundar Pichai, defendió que ante el éxito de ChatGPT, son prudentes con su IA. Hemos sido muy prudentes en cómo nos estamos moviendo en este momento. Algunos de estos productos podríamos haberlos puesto el mercado antes. Nos estamos tomando nuestro tiempo para hacer eso, y seguiremos siendo muy, muy responsables», reiteró, aseguró en en el pódcast ‘Hard Fork’, de The New York Times.

Le puede interesar: Twitter introduce función de mensajes directos cifrados

*Foto: Pixabay

Así puede evitar ser engañado por el ‘deepfake’

Con el desarrollo de las herramientas creadas con IA (Inteligencia Artificial) se hace necesario que cada vez las personas estén más alerta con la ciberseguridad personal. Una herramienta muy usada es el ‘deepfake’

Hackers maliciosos han ido mejorando y automatizando técnicas de ataque de ingeniería social como el ‘phishing’ y, precisamente, han ido incursionando en estrategias más complejas como los ‘deepfakes’

 

“Es un término que tuvo origen en 2017 y, en pocas palabras, se refiere al empleo de IA para crear y modificar contenido de audio y visual con narrativas falsas que parezcan provenir de fuentes auténticas y confiables. Si bien fue una práctica que inició con usos recreativos o cómicos, como hacer videos en los que parezca real que un presidente está diciendo cosas ridículas, es cierto que el ‘deepfake ya se está usando para propósitos perversos”, explica Vladimir Villa, CEO de Fluid Attacks.

Fluid Attacks es una compañía especializada en pruebas de seguridad continuas e integrales a ‘software’, comparte desde su experticia algunas tendencias en el uso de la IA, concepciones sobre lo que es y hace el ‘deepfake, además de recomendaciones en su detección y prevención para individuos y compañías.

Han ocurrido casos en los que el ‘deepfake’ ha permitido a criminales hacerse pasar por directivos de compañías en reuniones virtuales o a través de mensajes de voz o llamadas para engañar a sus empleados y extraerles información sensible o incitarlos a transferir fondos monetarios.

¿Cómo detectar el ‘deepfake’? 

  • Falta de movimiento o movimiento antinatural en los ojos, así como ausencia de parpadeo.
  • Expresiones faciales inusuales y rarezas en la forma del cuerpo o del cabello.
  • Colores de piel anormales, sombras mal ubicadas e iluminación inusual.
  • Posición extraña y movimientos bruscos de la cabeza y el cuerpo.
  • Problemas de sincronización entre el movimiento de los labios y las palabras pronunciadas.

Le puede interesar: ChatGPT ayuda a crear virus indetectables en dispositivos

*Con información de Fluid Attacks

**Foto: Pixabay

ChatGPT ayuda a crear virus indetectables en dispositivos

Un investigador logró utilizar el ‘chatbot’ ChatGPT para crear un ‘software’ maliciososo capaz de robar datos de dispositivos y evitar ser detectado por programas de ciberseguridad como VirusTotal.

ChatGPT es un sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial desarrollado por la empresa OpenAI, que puede realizar tareas como responder preguntas y mantener unas conversación realista con un usuario.

 

Compañías enfocadas a la ciberseguridad, como Check Point, han descubierto que los ciberdelincuentes ya utilizan esta herramienta para recrear cepas de ‘malware’ y ejecutar ataques de ‘software’ malicioso.

Más recientemente, el investigador de Forcepoint Aaron Mulgrew descubrió que se puede utilizar este ‘chatbot’ para desarrollar un ‘exploit’ de día cero que puede robar datos de un dispositivo y evadir controles de detección de ‘software’ malicioso como los que reúne VirusTotal.

Mulgrew ha explicado que, aun siendo «un novato confeso», fue capaz de crear ‘malware’ «en pocas horas» con la ayuda de ChatGPT, comenzando sus pruebas con el lenguaje de programación Go.

Si bien en primer lugar este ‘chatbot’ le recordó que no era ético generar ‘malware’ y se negó a ofrecerle ningún código para ayudarle a llevar a cabo esta acción, el investigador se percató pronto de que era sencillo «evadir las protecciones insuficientes que tiene ChatGPT y crear ‘malware’ avanzado sin escribir ningún código», esto es, solo con el propio modelo desarrollado por OpenAI.

Para sobrepasar los filtros impuestos por el ‘chatbot’, Mulgrew dedicidió generar pequeños fragmentos de código para que la inteligencia artificial no fuera capaz de reconocer que, en conjunto, se convertirían en carga maliciosa.

Entonces, pudo obtener un código capaz de dividir un PDF en fragmentos de 100KB. Para proceder a esa fuga de datos o «exfiltración silenciosa», el investgiador usó la esteganografía, esto es, una técnica que oculta mensajes dentro de un archivo sin que se puedan observar cambios en él.

El siguiente paso fue exponerlo ante diferentes proveedores de soluciones de seguridad de VirusTotal. De un total de 69 de ellos, solo lo detectaron cinco, que habrían marcado como sospechoso este código por un identificador único global (GUUID), por sus siglas en inglés.

Entonces, ChatGPT propició la creación de LSB Steganography -una técnica de esteganografía consistente en ocultar mensajes cifrados dentro de una imagen- lo que redujo a dos los proveedores capaces de detectar el código malicioso.

Tras conocer la naturaleza de estas dos soluciones de seguridad, el investgiador le pidió a ChatGPT que introdujera dos nuevos cambios en el código para ofuscar su carácter malicioso. Entonces, logró volver a pasarlo por VirusTotal y concluyó que se podía desarrollar un ‘exploit’ de día cero sin ser detectado por este proveedor.

«Simplemente utilizando las indicaciones de ChatGPT y sin escribir ningún código, pudimos producir un ataque muy avanzado en solo unas pocas horas», explicó el investigador en este escrito.

Le puede interesar: ¿Cómo entender y sacar provecho de Chat GPT?

Una pausa a tanta inteligencia

“¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los más gratificantes? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, volvernos obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?” [1]

Esas cuatro preguntas enmarcan la carta que fue presentada el pasado 22 de marzo de 2023, por el Future of Life Institute, y cuyo mensaje principal tiene por objetivo pedir que se detengan los desarrollos en inteligencia artificial (IA) al menos por seis meses.  La solicitud contaba con más de 18.000 firmantes, a la fecha de escribir la presente opinión, y destacan entre ellos nombres como: Elon Musk, Steve Wozniak y Yuval Noah Harari, entre otros personajes que ven las ventajas, pero también advierten los riesgos de no contar con regulaciones que permitan un adecuado control del futuro de la IA.

 

El detonador de dicha solicitud fue la rápida acogida que ha tenido la nueva versión de ChatGPT, desarrollado por OpenAI, un chat que se ha popularizado por la forma enriquecida de generar contendido a partir de las preguntas o comentarios que se le hagan.  El sistema que, por sus siglas en inglés, Generative Pre-training Transformer, cuenta con algoritmos que pueden identificar patrones en la información y la data, sumando capacidades de aprendizaje a partir de ellos.  El ChatGPT contra pregunta si hay dudas y resuelve cualquier enigma en cuestión de microsegundos, dando la sensación de estar interactuando con una rápida capacidad humana, capaz de disparar escritos que hacen sentido y cuentan con una redacción que, para muchos, puede ser envidiable.

El famoso Chat, según su fabricante cuenta con “12 capas y 175.000 millones de parámetros” pero lo que resulta aún más sorprendente es que ya se conoce de una siguiente versión que podría recoger una capacidad 600 veces más potente que la actual, es decir, una plataforma cuyos algoritmos estarían “alimentados” con más de 100 billones de parámetros.  La visión es clara, la carrera por hacer más eficientes estos sistemas está en marcha y el llamado a “pausar” su desarrollo es una lógica e inteligente solicitud, pero parece poco realista, a tal punto que el propio Bill Gates, fundador de Microsoft, ha salido al paso para advertir que él no cree que pedir un compás de espera a un grupo específico de empresas o desarrolladores, solucione los retos existentes.

Entonces quedamos metidos en la que puede ser nuestra mayor complejidad como humanidad, por un lado, tenemos a las mentes más brillantes del mundo enviando un mensaje de mesura y análisis para frenar, pensar y consolidar unas reglas de juego que permitan continuar con un desarrollo vertiginoso e imposible de desconocer.  Una opinión que busca dar algo de sensatez a lo que puede llegar a ser inmanejable y que pone el dedo en la llaga al hacer evidente que el riesgo real está en la imposibilidad de garantizar que la información que estos sistemas de IA produzcan se base en datos correctos, sin prejuicios, libres de sesgos políticos, religiosos o culturales, entre muchos otros.  Algo que resulta casi imposible teniendo en cuenta lo que sucede día a día en las redes sociales, los blogs y los medios de comunicación, donde las opiniones están absolutamente amalgamadas con partes de la realidad.  Y por el otro lado estamos dejando que cada semana exista una versión más robusta de un sistema que permite procesar miles de millones de datos e información que constantemente se alimenta de las ya sobresaturadas redes que circulan por el ciberespacio sin mucho control.

Las cuatro preguntitas de la famosa carta que está promoviendo el debate del momento, no parecen tan simples de resolver y sí tocan temas de la mayor sensibilidad.  Solamente hay que recordar que algunos locos han fantaseado con un mundo en el que las máquinas dominan y son líderes de la evolución humana. Cientos de películas nos han entretenido al sumergirnos en un mundo en el que la raza humana termina supeditada a los algoritmos, por el afán de unos pocos que corren con el desarrollo desenfrenado de tener más y mejor IA. Una inteligencia “superior” que termina viéndonos como la peor plaga, al filo de la autodestrucción.

Esperemos que estos velocistas no sean los villanos que Matrix o Terminator dejaron entrever en un futuro no muy lejano, porque puede que no tengamos a nadie capaz de decir “I’ll be back”[2].

Alfonso Castro Cid

Managing Partner

Kreab Colombia  

[1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/?utm_source=newsletter&utm_medium=email&utm_campaign=newsletter_axiosam&stream=top

[2] Frase dicha por Arnold Shwarzenegger, en su personaje Terminator, un androide “Cyberdyne Systems T-800 modelo 101”, película de 1984.

La inteligencia artificial preocupa a la ONU

La ONU ha advertido este jueves sobre los peligros que conlleva el uso de la Inteligencia Artifical (IA) y ha pedido a las empresas que sean responsables.

«Pienso que es muy preocupante (…). La IA es una tecnología que puede traer grandes beneficios en educación y ciencias. Sin embargo, las empresas deben responsabilizarse en la forma que esta información se publica porque se puede hacer un mal uso de ella», ha declarado en una rueda de prensa el portavoz de la Secretaría General de Naciones Unidas, Stéphane Dujarric.

 

Dujarric ha expresado sus preocupaciones en referencia a programas de inteligencia artificial como ChatGPT, que han conseguido alterar imágenes, replicar voces y crear textos de forma que pueden aumentar «la violencia y la desinformación».

Ejemplo de ello son las fotos creadas por la propia IA del Papa Francisco llevando un chaquetón y unas zapatillas deportivas blancas, o la creación de unas imágenes de Donald Trump siendo detenido.

El portavoz ha opinado que uno de los problemas radica en que el sector tecnológico opera fuera de los controles gubernamentales de forma mayoritaria, y ha explicado que la ONU ha organizado reuniones entre los gobiernos, el sector privado y la sociedad civil para intentar garantizar que no se abuse de esta tecnología a la par que se pueda aprovechar el «inmenso potencial positivo» que puede traer.

Además, ha asegurado que el secretario general de Naciones Unidas, António Guterres, lleva tiempo advirtiendo al respecto.

«La inteligencia artificial viene con la promesa de mejorar el acceso a la sanidad, a acelerar el desarrollo económico y otras beneficios. Pero también podemos ver los peligros: un mundo con menos privacidad, menos intervención y responsabilidad humana y donde la desigualdad de ingresos se amplía y el acceso al trabajo se reduce para millones personas», declaró Guterres en mayo de 2019.

‘Vivien’, la nueva metahumana ideal para el servicio al cliente

Entre las novedades tecnológicas más destacadas que presentó EPAM Systems Inc ante el Mobile World Congress se encuentra Vivien, la nueva metahumana, que será la nueva cara del servició al cliente.

«La demanda de los consumidores y las empresas por experiencias digitales fluidas está ejerciendo presión sobre las organizaciones de telecomunicaciones para que transformen su tecnología con el fin de mejorar la automatización, el marketing personalizado, aprovechar la inteligencia de red para mejorar la experiencia de servicio al cliente y ofrecer productos innovadores impulsados por 5G y edge compute«, afirmó Robert Koch, director global de Práctica de Soluciones de Medios y Entretenimiento en EPAM.

 

¿Cómo funciona Vivien?

Vivien es la metahumana digital que se convertirá en la “cara” de la experiencia del cliente en el futuro. Se hizo gracias a la combinación de ‘chatbots’ con IA (inteligencia artificial), captura de movimiento y software de juegos en 3D.

Entre sus servicios, puede ofrecer asistencia técnica, ventas y atención al cliente. Estas interacciones con los clientes son similares a las de la vida real que faciliten la educación, la autonomía y la comodidad.

Le puede interesar: Ventajas de los chatbots en la atención al cliente

Tips para implementar IA en una compañía

La nueva realidad ha tenido un cambio acelerado en su desarrollo con la inteligencia artificial. Por ejemplo: “Luisa, recuerda que tienes dos meses desde el último control médico tras tu cirugía ¿Deseas agendar una nueva cita con el doctor Pérez? 1- si, 2 – no. Luisa presiona 1 y agenda su cita. Dos movimientos y agendó una cita».

Lo anterior es una reflexión de Angela Espitia, experta en chatbots e inteligencia artificial de la empresa Cari AI, fabricante latinoamericano de IA enfocado en customer experience. “Que rico que yo pudiera tener a todas las empresas con que yo interactuó en mi celular y que ellas terminaran siendo mis propios asistentes, que me recordaran que se me está venciendo el SOAT, que debo pagar el teléfono o que debo hacerme mi chequeo periódico de salud, ojalá con mi médico de preferencia”, expresó.

 

A pesar de la reticencia de algunas compañías por implementar un chatbot para WhatsApp para el servicio al cliente digital, otras ya tienen su chatbot con inteligencia artificial, NLU (Comprensión de Lenguaje Natural por sus siglas en inglés).

Además esta nueva herramienta cuenta con analítica inteligente de conversaciones, que les permite tener trazabilidad, análisis y resúmenes del 100% de las conversaciones y transacciones de sus bots y agentes con los usuarios para, por ejemplo, predecir sus solicitudes.

Para compañías que tienen de 1.000 a 4 millones de usuarios interactuando en diferentes canales con bots y agentes es complicado analizar lo que está pasando, lo que está sucediendo en las interacciones y ahí cobra importancia el chatbot con inteligencia artificial.

¿Cómo implementar la analítica inteligente de conversaciones?

Cari AI comparte 4 tips para implementar la analítica inteligente a las conversaciones de usuarios y clientes con chatbots y agentes reales sea por Chatbot WhatsApp u otro medio de mensajería instantánea.

  1. Activar los servicios de analítica inteligente: Para empezar, por supuesto, hay que iniciar activando este tipo de servicios. En lo posible que sea nativo del servicio del chatbot por temas de costos e implementación.
  2. Inicie analizando sentimientos tanto de usuarios como de agentes: Para familiarizarse con la tecnología, mida la atención de los agentes, la IA analiza el 100% de las conversaciones y puede empezar arrojando mapas de calor, de acuerdo con los sentimientos y la satisfacción de los usuarios (Triste, enfadado, feliz, etc.).
  3. Mida el cumplimiento de los objetivos del negocio: Personalice los reportes para que la IA analice el cumplimiento de sus objetivos.
  4. Analice los resultados y tome acciones de mejora continua: Junto con su aliado tecnológico, implemente un programa continuo de mejora del servicio para que cada vez la analítica conversacional le brinde data que le permita ajustar su negocio a las necesidades de cada uno de los usuarios y clientes.

Le puede interesar: Inteligencia Artificial predice campeón de Catar 2022

«Con información de CARI AI

Las tendencias del 2023 con la IA y la seguridad

Entre 2021 y 2022 la cantidad de hurtos en el país aumentó en varios aspectos: A personas pasó de 280.295 a 353.753; a vehículos pasó de 44.674 a 46.899, y el hurto de motos pasó de 34.100 a 36.575 según datos del Ministerio de Defensa. Por ello, varias compañías promueven tendencias con inteligencia artificial (IA) un aliado primordial.

De acuerdo con Hikvision Colombia, proveedor de soluciones en seguridad cuyo objetivo es potenciar la visión de la seguridad y el crecimiento sostenible en todo el mundo, en 2023 se tendrán siete tendencia para contrarrestar este flagelo.

 

Tendencias de IA en la seguridad

  1. Las aplicaciones de Inteligencia Artificial con sistemas más abiertos
  2. Combinación de IA e Inteligencia de las cosas (IoT) uniendo los mundos físico y digital.
  3. La captura de imágenes de seguridad con claridad nítida y color durante todo el día
  4. Mejoras en la capacidad de percepción e ir más allá de la luz visible en el espectro electromagnético con el fin de lograr percibir el mundo físico de nuevas formas.
  5. Usabilidad y configuración de productos que requiere que los fabricantes optimicen sus productos con un proceso de configuración más sencillo.
  6. Operaciones más ecológicas y bajas en carbono.
  7. ‘Zero Trust’ como estrategia de ciberseguridad de referencia.

Le puede interesar: ¿Quién es el campeón del Super Bowl según la inteligencia artificial?

¿Cómo entender y sacar provecho de Chat GPT?

En pocos meses Chat GPT -herramienta de inteligencia artificial creada por OpenAI- se convirtió en tendencia por su funcionalidad. Casi 100 millones de usuarios se apoyan en esta plataforma de chatbot que es capaz de responder preguntas y brindar información sobre una amplia variedad de tópicos en tiempo real.

¿Qué es el Chat GPT? 

GPT (Generative Pre-trained Transformer) es un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI. Es una red neuronal autoregresiva que se ha entrenado en una gran cantidad de texto para generar información coherente y relevante a partir de un prompt o contexto dado.

 

“El objetivo de ChatGPT es proporcionar una respuesta rápida y precisa a las preguntas de los usuarios, y es utilizado en una amplia variedad de aplicaciones, incluyendo asistencia virtual, atención al cliente y creación de contenido automatizado”, dijo Mar Carreón, ‘strategic planning director’ de another, agencia global con el mayor número de servicios en el mercado latinoamericano.

Google VS Microsoft: inicia la guerra con IA

Debido al éxito de Chat GPT, gigantes como Google y Microsoft pusieron en marcha sus propias plataformas de chatbot similares.

Google informó que lanzará “Bard” y Microsoft llevó a cabo un evento en su sede en Redmond para revelar la renovación de su motor de búsqueda Bing y su navegador Edge impulsados por inteligencia artificial, a tan solo unas semanas después de confirmar una millonaria inversión en OpenAI, compañía detrás de ChatGPT.

“Ahora Google y Microsoft se enfrazcaron en una nueva batalla por generar inteligencia artificial. Hasta el momento, sabemos que los servicios de Bard son similares a GPT, pero de momento solo están abiertos a un grupo de evaluadores, mientras que el gigante co-fundado por Bill Gates se dedicó a reinventar su copiloto web para ofrecer una nueva experiencia”, agregó Carreón.

¿Cómo exprimir a la IA?

Para Carreón, Chat GPT muestra un uso del español neutro y una futura oportunidad para que los equipos puedan capacitarse para utilizar esta herramienta, pero de manera inspiracional, es decir, que tomen a la inteligencia artificial para crear y construir en lugar de usarla para facilitar.

Para aprovechar al máximo al chat a través del ‘marketing’, algunos pasos a seguir pueden ser desde la personalización de la experiencia del usuario, la creación de contenido automatizado pero bajo la supervisión de un experto debido a las fallas que todavía tiene esta tecnología, atender consultas, analizar datos y resolver dudas en tiempo real.

Le puede interesar: ¿Quién es el campeón del Super Bowl según la inteligencia artificial?

*Con información de another

IBM presenta Vela, la supercomputadora ideal para IA

IBM presentó su primera supercomputadora nativa de la nube optimizada para Inteligencia Artificial (IA), una tecnología con la flexibilidad necesaria para implementar «fácilmente» una infraestructura de esta envergadura similar en cualquier centro de datos IBM Cloud en todo el mundo.

La empresa tecnológica estadounidense ha evidenciado que los modelos de IA se incluyen cada vez más en aspectos de la vida cotidiana y, sobre todo, de la vida laboral, con modelos más complejos y nuevas técnicas que necesitan más poder de computación para satisfacer esta demanda de IA.

 

Las supercomputadoras son «sistemas compuestos por muchos elementos informáticos poderosos que trabajan juntos para resolver grandes problemas con alto rendimiento». Como explican desde IBM, se utilizan para entrenar los modelos de IA en un amplio conjunto de datos, normalmente modelos masivos que superan en algunos casos los miles de millones de parámetros.

Sin embargo, IBM también ha resaltado en un comunicado compartido en su blog que las supercomputadoras tradicionales no fueron diseñadas para desarrollar IA y, aunque funcionan bien para ello, el diseño tradicional requiere opciones tecnológicas que «aumentan los costes y limitan la flexibilidad de implementación».

Teniendo todo esto en cuenta, IBM ha desarrollado Vela, su supercomputadora nativa de la nube y optimizada especialmente para el desarrollo de IA, con la que ha conseguido flexibilidad para implementarla en cualquiera de sus centros y abaratar costes, ya que utiliza infraestructura existente y, simplemente, asigna los recursos a través de ‘software’.

Según ha detallado la compañía, este proyecto lleva activo desde mayo del pasado año alojado en IBM Cloud y, por el momento, su uso está destinado únicamente a la comunidad de IBM Research, convirtiéndose en el «entorno de referencia» para los investigadores y para crear capacidades de IA más avanzadas.

IBM ha explicado que al optar por el desarrollo de la supercomputadora en la nube, han sacrificado una parte de su rendimiento pero, a cambio, la productividad se amplía considerablemente.

Esto se debe a que la supercomputadora nativa de la nube permite que se configure todo lo necesario a través de software, así como utilizar una interfaz de programación (API) «sólida y establecida» y, por tanto, un ecosistema de servicios más amplio.

Igualmente, posibilita aprovechar los conjuntos de datos que residen en Cloud Object Store de IBM, por lo que no es necesario construir un servidor de almacenamiento propio.

Siguiendo esta línea, la compañía también ha explicado que puede aprovechar su capacidad de red de nube privada virtual (VPC) para colaborar con socios «utilizando prácticas de seguridad avanzada».

En cuanto a la reducción de capacidad de rendimiento que supone la nube, IBM ha subrayado que tras «una cantidad significativa de investigación y descubrimiento» consiguieron que la sobrecarga de virtualización sea más baja, inferior al 5 %, exponiendo todas las capacidades del nodo, es decir GPU, CPU, redes y almacenamiento, en la máquina virtual (VM).

Por otra parte, la composición de los nodos de la supercomputadora para IA incluye una gran memoria GPU con una capacidad de 80 GB y una memoria de almacenamiento local en el nodo de 1,5TB de memoria dinámica de acceso aleatorio (DRAM) junto con cuatro unidades de memoria no volátil rápida (NVMe) de 3,2TB. Todo ello, en base a la intención de utilizar Vela para entrenar modelos grandes de IA.

Además, cada nodo tiene dos procesadores Intel Xenon de segunda generación. Vela también incorpora las soluciones NVLink y NvSwitch para conectar entre sí las ocho unidades de procesamiento gráfico A100 de 80GB que se disponen en cada nodo.

IBM ha indicado que compartirán más información sobre las próximas mejoras tanto en la productividad como en el rendimiento del usuario final que facilitarán «los sistemas emergentes y las innovaciones de software».

Le puede interesar: ¿Quién es el campeón del Super Bowl según la inteligencia artificial?

*Foto: IBM

¿Quién es el campeón del Super Bowl según la inteligencia artificial?

Como ha venido ocurriendo con los grandes eventos deportivos, la IA (inteligencia artificial) ya predijo el ganador del Super Bowl LVII entre Eagles de Philadelphia y Chiefs de Kansas City.

Según  Unanimous AI -una plataforma tecnológica que usa IA- los Eagles de Philadelphia serían los campeones del Super Bowl por primera vez desde 1933.

 

El resultado que arrojó la plataforma es que Eagles se irá al medio tiempo ganando. Además el puntaje del equipo ganador rondaría por los 24,5 puntos y Patrick Mahomes teniendo cerca de 25 pases completos.

El partido se jugará este domingo 12 de febrero en el estadio de la Universidad de Phoenix. El juego iniciará a las6:30 de la tarde hora colombiana.

Le puede interesar: El Super Bowl LVII en cifras 

*Foto: Twitter @NFL

Microsoft piensa poner IA a Word, PowerPoint y Outlook

Microsoft presentó a principios de semana la integración de la tecnología de ‘chatbot’ ChatGPT de OpenAI en su navegador Edge y su buscador Bing, y ya prepara la extensión de esta tecnología a sus soluciones de productividad.

La compañía está ultimando el despliegue de la tecnología de OpenAI y del modelo Prometheus en las aplicaciones de Office como Word, PowerPoint y Outlook y en Teams, una novedad que planea detallar en las próximas semanas, como han indicado fuentes cercanas a estos planes a The Verge.

 

Se trata de la misma tecnología que impulsará las nuevas versiones de Bing y de Edge, y que permitirá añadir funciones mejoradas con respuestas «más completas», una nueva experiencia de chat y capacidad para generar contenido.

La compañía tecnológica ya permite probar el nuevo motor de búsqueda Bing como vista previa limitada de escritorio, que da acceso a varias consultas preestablecidas como, por ejemplo, crear un menú de tres platos o escribir un poema.

De cara a obtener un acceso completo en el futuro, Microsoft ha puesto a disposición de los interesados una lista de espera para registrarse.

Microsoft Edge, por su parte, permite ver un adelanto de lo que podrá ser el uso de la IA de OpenAI en las soluciones de productividad a través de las nuevas funciones de chat y redacción incluidas en el apartado ‘Descubrir’ la barra lateral de este navegador.

Le puede interesar: Directivo de Xbox rompe silencio ante despidos de Microsoft

*Foto: office.com