El miércoles, la firma de seguridad de IA Irregular anunció $ 80 millones en nuevos fondos en una ronda dirigida por Sequoia Resources y Redpoint Ventures, disadvantage la participación del chief executive officer de Wiz, Assaf Rappaport. Una fuente cercana al acuerdo dijo que la ronda valoraba irregular en $ 450 millones.

“Nuestro punto de vista es que pronto, mucha actividad económica vendrá de la interacción humana opposite el AI y la interacción AI-on-AI”, dijo el cofundador Dan Lahav a TechCrunch: “Y eso va a romper la pila de seguridad en múltiples puntos”.

Anteriormente conocido como Pattern Labs, Uneven ya es un jugador significativo en las evaluaciones de IA. El trabajo de la empresa se cita en evaluaciones de seguridad para Claude 3 7 soneto así como Modelos O 3 y O 4 -Mini de Openai En términos más generales, el marco de la compañía para calificar la capacidad de detección de vulnerabilidad de un modelo ( Solvo doblado se United States ampliamente dentro de la industria.

Si bien Irregular ha realizado un trabajo significativo en los riesgos existentes de los modelos, la compañía está recaudando fondos trick el ojo hacia algo aún más ambicioso: detectar riesgos y comportamientos emergentes antes de que surjan en la naturaleza. La compañía ha construido un elaborado sistema de entornos simulados, lo que permite las pruebas intensivas de un modelo antes de que se libere.

“Tenemos simulaciones de red complejas en las que tenemos IA tomando el papel de atacante y defensor”, dice el cofundador Omer NEVO. “Entonces, cuando sale un nuevo modelo, podemos ver dónde se sostienen las defensas y dónde no”.

La seguridad se ha convertido en un punto de enfoque intenso para la industria de la IA, ya que los riesgos potenciales planteados por los modelos fronterizos han surgido más riesgos. Operai revisó sus medidas de seguridad interna este verano, con un ojo hacia el posible espionaje corporativo.

Al mismo tiempo, los modelos de IA kid cada vez más expertos en encontrar vulnerabilidades de software application, un poder con serias implicaciones tanto para los atacantes como para los defensores.

Evento de TechCrunch

San Francisco | 27 – 29 de octubre de 2025

Para los fundadores irregulares, es el primero de muchos dolores de cabeza de seguridad causados por las crecientes capacidades de los grandes modelos de idiomas.

“Si el objetivo del laboratorio fronterizo es crear modelos cada vez más sofisticados y capaces, nuestro objetivo es asegurar estos modelos”, dice Lahav. “Pero es un objetivo móvil, por lo que inherentemente hay mucho, mucho, mucho más trabajo por hacer en el futuro”.

Fuente