Startup Intrinsic lanza una plataforma de moderación de contenido basada en IA para prevenir el comportamiento abusivo en línea
Intrinsic, una startup fundada por los ingenieros Karine Mellata y Michael Lin, ha desarrollado una plataforma de moderación de contenido basada en inteligencia artificial (IA) para ayudar a prevenir el comportamiento abusivo en línea. La empresa acaba de recaudar $3.1 millones en una ronda de financiación inicial que contó con la participación de Urban Innovation Fund, Y Combinator, 645 Ventures y Okta.
La plataforma de Intrinsic está diseñada para moderar tanto el contenido generado por usuarios como el generado por IA, brindando la infraestructura necesaria para que las empresas de redes sociales y los mercados de comercio electrónico detecten y tomen medidas contra el contenido que viola sus políticas. Intrinsic se enfoca en la integración de productos de seguridad, orquestando automáticamente tareas como la prohibición de usuarios y la identificación de contenido para su revisión.
Según Mellata, cofundadora de Intrinsic, la plataforma es completamente personalizable y puede adaptarse a diferentes casos de uso. Por ejemplo, puede ayudar a una empresa editorial a evitar dar consejos financieros en sus materiales de marketing, lo cual puede tener implicaciones legales. También puede ayudar a los mercados a detectar listados de productos ilegales en diferentes jurisdicciones.
Mellata destaca dos características clave que diferencian a Intrinsic de sus competidores: la explicabilidad y las herramientas ampliadas. La plataforma permite a los clientes "preguntarle" sobre los errores que comete en sus decisiones de moderación de contenido y ofrece explicaciones sobre su razonamiento. Además, cuenta con herramientas de revisión y etiquetado manuales que permiten a los clientes ajustar los modelos de moderación según sus propios datos.
La startup ha logrado atraer a clientes empresariales establecidos que han firmado contratos en el rango de "seis cifras" en promedio. Sin embargo, la precisión de los modelos de moderación de Intrinsic no ha sido auditada por terceros, por lo que es difícil determinar su nivel de exactitud y si están sujetos a los sesgos que afectan a otros modelos de moderación de contenido.
En el corto plazo, Intrinsic planea expandir su equipo de tres personas y ampliar su tecnología de moderación para cubrir no solo texto e imágenes, sino también video y audio. La startup se encuentra en una posición única debido al creciente interés en la automatización de la seguridad y confianza en línea, impulsado por la necesidad de reducir costos y riesgos.
A medida que las regulaciones exigen a las empresas centralizar sus respuestas a problemas de confianza y seguridad, la plataforma de Intrinsic ofrece una solución flexible y adaptable. Mellata destaca que los equipos de confianza y seguridad con recursos limitados buscan cada vez más la ayuda de proveedores externos para reducir costos de moderación sin comprometer los estándares de seguridad.
Con su enfoque en la inteligencia artificial y la moderación de contenido, Intrinsic está posicionada para liderar el mercado de seguridad en línea y ayudar a construir un internet más seguro para todos.
Otras noticias • IA
OpenAI adquiere Promptfoo para fortalecer la seguridad de IA
OpenAI ha adquirido Promptfoo, una startup de seguridad de IA, para integrar su tecnología en OpenAI Frontier. Esta adquisición busca mejorar la seguridad de los...
Anthropic demanda al DOD por restricciones en colaboración gubernamental
Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...
Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica
La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...
Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones
Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...
Expertos piden regulación ética para una inteligencia artificial segura
La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...
Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas
Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...
Defensa de EE. UU. clasifica a Anthropic como riesgo ético
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...
Claude supera a ChatGPT y gana la confianza del público
Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...
Lo más reciente
- 1
AMI Labs revoluciona IA con modelos que entienden la realidad
- 2
Archer y Joby intensifican conflicto legal sobre taxis aéreos eléctricos
- 3
Founders Fund cierra cuarto fondo de 6.000 millones de dólares
- 4
FAA aprueba pruebas de aeronaves eléctricas eVTOL para empresas
- 5
Empleados de OpenAI y Google DeepMind respaldan demanda de Anthropic
- 6
Bluesky cambia de CEO ante desafíos de moderación y regulación
- 7
Inteligencia artificial transforma desarrollo de software y mejora calidad

