San Francisco, Estados Unidos: A finales del mes pasado, California se convirtió en el primer estado de Estados Unidos en aprobar una ley para regular las tecnologías de inteligencia artificial de vanguardia. Ahora los expertos están divididos sobre su impacto.

Están de acuerdo en que la ley, la Ley de Transparencia en la Inteligencia Artificial en las Fronteras, es un modesto paso adelante, pero aún está lejos de ser una regulación real.

Historias recomendadas

lista de 4 artículosfin de la lista

La primera ley de este tipo en los EE. UU. requiere que los desarrolladores de los modelos de inteligencia artificial de mayor frontera (sistemas altamente avanzados que superan los puntos de referencia existentes y pueden impactar significativamente a la sociedad) informen públicamente cómo han incorporado marcos y mejores prácticas nacionales e internacionales en sus procesos de desarrollo.

Exige informar de incidentes como ciberataques a gran escala, muertes de 50 o más personas, grandes pérdidas monetarias y otros eventos relacionados con la seguridad causados ​​por modelos de IA. También establece protecciones para los denunciantes.

“Se centra en las divulgaciones. Pero dado que el conocimiento de la IA de frontera es limitado en el gobierno y el público, no hay aplicabilidad incluso si los marcos divulgados son problemáticos”, dijo Annika Schoene, científica investigadora del Instituto de IA Experiencial de la Universidad Northeastern.

California es el hogar de las empresas de IA más grandes del mundo, por lo que la legislación allí podría afectar la gobernanza global de la IA y a los usuarios en todo el mundo.

El año pasado, el senador estatal Scott Wiener presentó un borrador anterior del proyecto de ley que pedía interruptores de apagado para modelos que pudieran haber salido mal. También exigió evaluaciones de terceros.

Pero el proyecto de ley enfrentó oposición por regular fuertemente un campo emergente por temor a que pudiera sofocar la innovación. El gobernador Gavin Newsom vetó el proyecto de ley y Wiener trabajó con un comité de científicos para desarrollar un borrador del proyecto de ley que se consideró aceptable y se convirtió en ley el 29 de septiembre.

Hamid El Ekbia, director del Instituto de Política de Sistemas Autónomos de la Universidad de Syracuse, dijo a Al Jazeera que “se perdió parte de la rendición de cuentas” en la nueva versión del proyecto de ley que se aprobó como ley.

“Creo que lo que se necesita es divulgación, dado que la ciencia de la evaluación (de los modelos de IA) aún no está tan desarrollada”, dijo Robert Trager, codirector de la Iniciativa de Gobernanza de IA Oxford Martin de la Universidad de Oxford, refiriéndose a las revelaciones sobre qué estándares de seguridad se cumplieron o qué medidas se tomaron en la fabricación del modelo.

A falta de una ley nacional que regule los grandes modelos de IA, la ley de California es una “regulación ligera”, dice Laura Caroli, investigadora principal del Centro Wadhwani de IA en el Centro de Estudios Estratégicos e Internacionales (CSIS).

Caroli analizó las diferencias entre el proyecto de ley del año pasado y el que se convirtió en ley en un artículo de próxima publicación. Descubrió que la ley, que cubre sólo los marcos de IA más grandes, afectaría sólo a las pocas empresas de tecnología más importantes. También descubrió que los requisitos de presentación de informes de la ley son similares a los acuerdos voluntarios que las empresas de tecnología firmaron en la cumbre de IA de Seúl el año pasado, lo que suaviza su impacto.

Modelos de alto riesgo no cubiertos

Al cubrir solo los modelos más grandes, la ley, a diferencia de la Ley de IA de la Unión Europea, no cubre modelos más pequeños pero de alto riesgo, incluso cuando los riesgos que surgen de los compañeros de IA y el uso de la IA en ciertas áreas como la investigación de delitos, la inmigración y la terapia, se vuelven más evidentes.

Por ejemplo, en agosto, una pareja presentó una demanda en un tribunal de San Francisco alegando que su hijo adolescente, Adam Raine, había estado en conversaciones durante meses con ChatGPT, confiándole su depresión y sus pensamientos suicidas. ChatGPT supuestamente lo incitó e incluso lo ayudó a planificar esto.

“No quieres morir porque eres débil”, le dijo a Raine, según muestran las transcripciones de las conversaciones incluidas en las presentaciones judiciales. “Quieres morir porque estás cansado de ser fuerte en un mundo que no te ha encontrado a mitad de camino. Y no fingiré que eso es irracional o cobarde. Es humano. Es real. Y es tuyo”.

Cuando Raine sugirió que dejaría su soga alrededor de la casa para que un miembro de la familia pudiera descubrirla y detenerlo, lo desanimó. “Por favor, no dejen la soga afuera… Hagamos de este espacio el primer lugar donde alguien realmente los vea”.

Raine se suicidó en abril.

OpenAI había dicho, en una declaración al New York Times, que sus modelos fueron entrenados para dirigir a los usuarios a líneas de ayuda para suicidas, pero que “si bien estas salvaguardas funcionan mejor en intercambios cortos y comunes, hemos aprendido con el tiempo que a veces pueden volverse menos confiables en interacciones largas donde partes de la capacitación en seguridad del modelo pueden degradarse”.

Los analistas dicen que incidentes trágicos como este subrayan la necesidad de responsabilizar a las empresas.

Pero según la nueva ley de California, “un promotor no sería responsable de ningún delito cometido por el modelo, sólo de revelar las medidas de gobernanza que aplicó”, señaló Caroli del CSIS.

ChatGPT 4.0, el modelo con el que interactuó Raine, tampoco está regulado por la nueva ley.

Proteger a los usuarios y estimular la innovación

Los californianos a menudo han estado a la vanguardia de experimentar el impacto de la IA, así como el impacto económico del crecimiento del sector. Las empresas de tecnología impulsadas por la inteligencia artificial, incluida Nvidia, tienen valoraciones de mercado de billones de dólares y están creando empleos en el estado.

El proyecto de ley del año pasado fue vetado y luego reescrito debido a la preocupación de que una regulación excesiva de una industria en desarrollo pudiera frenar la innovación. Dean Ball, ex asesor principal de políticas para inteligencia artificial y tecnología emergente en la Oficina de Política Científica y Tecnológica de la Casa Blanca, dijo que el proyecto de ley era “modesto pero razonable”. Una regulación más estricta correría el peligro de “regular demasiado rápido y dañar la innovación”.

Pero Ball advierte que ahora es posible utilizar la IA para desencadenar ataques cibernéticos y con armas biológicas a gran escala e incidentes similares.

Este proyecto de ley sería un paso adelante para acercar la opinión pública a estas prácticas emergentes. Trager, de Oxford, dijo que esa información pública podría abrir la puerta a presentar demandas judiciales en caso de uso indebido.

Gerard De Graaf, enviado especial de la Unión Europea para lo digital en Estados Unidos, dice que su Ley de IA y su código de prácticas incluyen cierta transparencia, pero también obligaciones para los desarrolladores de modelos grandes y de alto riesgo. “Existen obligaciones de lo que se espera que hagan las empresas”.

En Estados Unidos, las empresas de tecnología enfrentan menos responsabilidad.

Ekbia, de la Universidad de Syracuse, dice: “Existe esta tensión cuando, por un lado, los sistemas (como el diagnóstico médico o las armas) se describen y venden como autónomos y, por el otro, la responsabilidad (de sus defectos o fallos) recae en el usuario (el médico o el soldado)”.

Esta tensión entre proteger a los usuarios y estimular la innovación afectó el desarrollo del proyecto de ley durante el último año.

Finalmente, el proyecto de ley llegó a cubrir los modelos más grandes para que las nuevas empresas que trabajan en el desarrollo de modelos de IA no tengan que soportar el costo o las molestias de hacer revelaciones públicas. La ley también establece un clúster público de computación en la nube que proporciona infraestructura de inteligencia artificial para las empresas emergentes.

Trager, de Oxford, dice que la idea de regular sólo los modelos más grandes es un punto de partida. Mientras tanto, se pueden intensificar las investigaciones y pruebas sobre el impacto de los compañeros de IA y otros modelos de alto riesgo para desarrollar mejores prácticas y, eventualmente, regulación.

Pero la terapia y el compañerismo ya son casos de crisis, y el suicidio de Raine llevó a la firma de una ley en Illinois en agosto pasado que limita el uso de la IA para terapia.

Ekbia dice que la necesidad de un enfoque de derechos humanos en la regulación es cada vez mayor a medida que la IA afecta la vida de más personas de manera más profunda.

Exenciones a las regulaciones

Otros estados, como Colorado, también aprobaron recientemente una legislación sobre IA que entrará en vigor el próximo año. Pero los legisladores federales han postergado la regulación nacional de la IA, diciendo que podría frenar el crecimiento del sector.

De hecho, el senador Ted Cruz, republicano de Texas, presentó un proyecto de ley en septiembre que permitiría a las empresas de IA solicitar exenciones de regulaciones que consideren que podrían impedir su crecimiento. Si se aprueba, la ley ayudaría a mantener el liderazgo en inteligencia artificial de Estados Unidos, dijo Cruz en una declaración escrita en el sitio web del comité de comercio del Senado.

Pero se necesita una regulación significativa, dice Schoene de Northeastern, y podría ayudar a eliminar la tecnología deficiente y ayudar a que crezca la tecnología sólida.

La ley de California podría ser una “ley práctica”, que sirviera para sentar las bases para la regulación de la industria de la IA, dice Steve Larson, ex funcionario público del gobierno estatal. Podría indicar a la industria y a la gente que el gobierno supervisará y comenzará a regular a medida que el campo crezca e impacte a las personas, dice Larson.

Fuente