IA | Inversión

Context.ai recibe inversión de $3.5M para analizar interacción usuario-IA

Context.ai, una empresa emergente dedicada a la inteligencia artificial, ha anunciado una inversión inicial de 3,5 millones de dólares para desarrollar completamente su innovadora idea. La empresa se fundó con el objetivo de ayudar a otras compañías a entender cómo los usuarios interactúan con sus Modelos de Lenguaje a Gran Escala (LLMs por sus siglas en inglés).

Un nuevo enfoque para entender la IA

Henry Scott-Green, CEO de la compañía, y su cofundador, el CTO Alex Gamble, que previamente trabajaron en Google, reconocieron la necesidad de un servicio que midiera cómo se comportan estos modelos. Ambos se dieron cuenta de que existía una escasez de herramientas para ayudar en este aspecto.

Scott-Green explicó: "Hemos hablado con cientos de desarrolladores que están construyendo LLMs, y todos tienen un conjunto muy consistente de problemas. No entienden cómo la gente está usando su modelo y no entienden cómo se está desempeñando su modelo. Siempre escucho la frase 'mi modelo es una caja negra'".

Un nuevo tipo de análisis

De forma similar a las herramientas de análisis de productos como Amplitude o Mixpanel, que miden cómo los usuarios interactúan con una interfaz de producto, Context.ai busca analizar los datos generados por el LLM y determinar si está produciendo contenido verdaderamente útil que ayuda a los usuarios a responder preguntas de los clientes.

El procedimiento consiste en que los clientes compartan transcripciones de chat con Context a través de una API. La empresa luego analiza la información utilizando procesamiento de lenguaje natural (NLP). El software agrupa y etiqueta las conversaciones por tema, y luego analiza cada conversación para determinar, a partir de las señales disponibles, si el cliente quedó satisfecho con la respuesta.

Protegiendo la seguridad y la privacidad

Es importante destacar que Context se toma en serio la seguridad y la privacidad de los datos de los usuarios. La empresa elimina cualquier información de identificación personal en el momento de la ingestión. Además, no utiliza el contenido para la construcción del modelo o fines de marketing, y retiene el contenido por no más de 180 días, tras los cuales se borra, según Scott-Green.

Construyendo un futuro diverso

Aunque la compañía es pequeña actualmente, con solo seis empleados, Scott-Green ve un futuro con una organización en crecimiento. Cree firmemente que nunca es demasiado temprano para pensar en la construcción de una empresa diversa.

"Es obviamente un desafío que tiene el ecosistema de startups, y el ecosistema tecnológico en general, cuando se trata de construir equipos representativos, diversos e inclusivos. Es algo en lo que creemos firmemente, y creo que más importante, es algo en lo que estamos actuando también, y realmente estamos haciendo esfuerzos para asegurar que tengamos una diversidad representativa e inclusiva [en nuestra base de empleados]", afirmó.

La inversión anunciada hoy fue liderada conjuntamente por GV (el brazo de inversión de Google) y Theory Ventures.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Demanda ética

Anthropic demanda al DOD por restricciones en colaboración gubernamental

Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...

Colaboración robótica

Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica

La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...

Valoración elevada

Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones

Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...

Regulación ética

Expertos piden regulación ética para una inteligencia artificial segura

La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...

Renuncia ética

Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas

Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...

Riesgo tecnológico

Defensa de EE. UU. clasifica a Anthropic como riesgo ético

El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...

Crecimiento ético

Claude supera a ChatGPT y gana la confianza del público

Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...

Chatbots permitidos

Meta abre WhatsApp a chatbots de terceros en Brasil

Meta ha permitido el uso de chatbots de terceros en WhatsApp en Brasil, tras presiones regulatorias de CADE. Aunque esto fomenta la competencia, los altos...