Amazon trabaja para mejorar su IA y permitir que usuarios encuentren escenas específicas de videos

Amazon está desarrollando un modelo de Inteligencia Artificial (IA) que podrá analizar vídeos y encontrar escenas específicas que los usuarios hayan solicitado mediante texto y que recibe el nombre de Olympus AI, según ha adelantado The Information.

La compañía está planteándose lanzar esta tecnología próximamente, en el marco de su conferencia anual AWS re:Invent, que comenzará el próximo lunes 2 de diciembre y se extenderá hasta el viernes de la semana que viene.

Actualmente, Amazon Web Services (AWS) y Anthropic mantienen una colaboración estratégica para impulsar la IA generativa, de forma que trabajan juntas en el desarrollo de tecnologías como Trianium e Inferentia. Asimismo, Anthropic proporciona a los clientes de AWS acceso a las diferentes generaciones de sus modelos fundacionales a través de Amazon Bedrock.

A pesar de que hace unos días se anunció que reforzarían su alianza para continuar “trabajando estrechamente para seguir avanzando en las capacidades de ‘hardware’ y ‘software’ de Trinium”, tal y como formalizaron en un comunicado, Amazon se plantea reducir su dependencia de su colaboradora para la IA multimodal.

Fuentes relacionadas con esta compañía tecnológica han confirmado a The Information que Amazon está trabajando en su propio modelo de inteligencia artificial, que puede procesar imágenes, vídeos y texto.

Este nuevo modelo de lenguaje recibirá el nombre de Olympus AI y permitirá a los usuarios buscar archivos de vídeo para escenas específicas, tal y como recoge Business Insider, que ha tenido acceso a esta información y señala que

Gracias a esta funcionalidad, los usuarios podrán pedirle a la herramienta que analice un vídeo de un partido de baloncesto y encuentre el momento concreto en que se enceste el balón, según apunta The Verge.