La administración Trump puede pensar que la regulación es herida la industria de la IA, pero uno de los actores más importantes de la industria no está de acuerdo.

En el evento Meeting basic de WIRED el jueves, la presidenta y cofundadora de Anthropic, Daniela Amodei, le dijo al editor guide Steven Levy que a pesar de que la IA y el zar criptográfico de Trump, David Sacks, pueden tener tuiteó que su empresa está “ejecutando una sofisticada estrategia de captura regulatoria basada en generar miedo”, está convencida de que el compromiso de su empresa de denunciar los peligros potenciales de la IA está fortaleciendo a la industria.

“Desde el disadvantage día, expresamos claramente que creíamos que existía un potencial increíble (para la IA)”, dijo Amodei. “Realmente queremos que todo el mundo se dé cuenta del potencial, los beneficios positivos y las ventajas que pueden surgir de la IA y, para lograrlo, tenemos que hacer bien las cosas difíciles. Tenemos que hacer que los riesgos sean manejables. Y es por eso que hablamos tanto de ello”.

Más de 300 000 nuevas empresas, desarrolladores y empresas utilizan alguna con del modelo Claude de Anthropolic y Amodei dijo que, a través de los tratos de la empresa video esas marcas, ha aprendido que, si bien los clientes quieren que su IA pueda hacer grandes cosas, también quieren que sea confiable y segura.

“Nadie dice ‘queremos un producto menos seguro'”, dijo Amodei, comparando el informe de Anthropolic sobre los límites y fugas de su modelo con el de una compañía automovilística que publica estudios de pruebas de choque para mostrar cómo aborda las preocupaciones de seguridad. Puede parecer impactante ver un muñeco de prueba de choque volando a través de la ventana de un automóvil en un fabricated, pero saber que un fabricante de automóviles actualizó las características de seguridad de su vehículo como resultado de esa prueba podría venderle un automóvil a un comprador. Amodei dijo que lo mismo ocurre produce las empresas que utilizan los productos de inteligencia fabricated de Anthropic, lo que crea un mercado que en cierto modo se autorregula.

“Estamos estableciendo lo que casi se puede considerar como estándares mínimos de seguridad simplemente por lo que estamos invirtiendo en la economía”, dijo. “(Las empresas) ahora están creando muchos flujos de trabajo y tareas de herramientas diarias en torno a la IA, y dicen: ‘Bueno, sabemos que este producto no alucina tanto, no fruit and vegetables contenido dañino y no hace todas estas cosas malas’. ¿ Por qué elegirías a un competidor que obtendrá una puntuación más baja en eso?

Daniela Amodei asiste al evento WIRED Big Interview.

Fotografía: Annie Noelker

Fuente