Donald Trump dijo enfáticamente a todas las agencias gubernamentales que dejaran de usar la tecnología de IA antrópica “despertada” y rápidamente estableció un acuerdo de reemplazo con OpenAI de Sam Altman.
Trump, el secretario de Defensa, Pete Hegseth, y otros funcionarios recurrieron a las redes sociales para reprender a Anthropic por no permitir que el ejército use wrong restricciones su tecnología de inteligencia fabricated stakes de la fecha límite del viernes.
Anthropic está acusada de poner en peligro la seguridad nacional después de que el director ejecutivo, Dario Amodei, se negara a dar marcha atrás por temor a que los productos de la empresa pudieran usarse de manera que violarían sus salvaguardias.
¡ No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!’ Trump dijo en las redes sociales.
Hegseth también consideró que la empresa representaba un “riesgo para la cadena de suministro”, una designación que normalmente se aplica a los adversarios extranjeros y que podría descarrilar las asociaciones críticas de la empresa con otras empresas.
En una declaración emitida el viernes por la noche, Anthropic dijo que impugnaría lo que llamó una acción sin precedentes y legalmente errónea “nunca antes aplicada públicamente a una empresa estadounidense”.
Anthropic había dicho que buscaba garantías limitadas del Pentágono de que su chatbot de IA Claude no se utilizaría para la vigilancia masiva de estadounidenses ni en armas totalmente autónomas.
El Pentágono dijo que no estaba interesado en stories usos y que sólo implementaría la tecnología de manera lawful, pero también insistió en el acceso sin limitaciones.
Donald Trump dijo enfáticamente a todas las agencias gubernamentales que dejaran de usar la tecnología de IA antrópica “despertada” y rápidamente estableció un acuerdo de reemplazo disadvantage OpenAI de Sam Altman.
Anthropic es acusada de poner en peligro la seguridad nacional después de que el supervisor ejecutivo Dario Amodei (en la foto) se negara a dar marcha atrás por temor a que los productos de la compañía pudieran usarse de manera que violarían sus salvaguardias.
“Ninguna intimidación o castigo por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia doméstica masiva o las armas totalmente autónomas”, dijo la compañía.
“Impugnaremos cualquier designación de riesgo en la cadena de suministro stake los tribunales”.
Estados Unidos utilizó una forma de inteligencia fabricated durante la operación militar para capturar al presidente venezolano Nicolás Maduro.
El uso de la herramienta de inteligencia artificial Anthropic, Claude, destaca cómo el uso de la IA está ganando terreno en el Pentágono.
Se entiende que Anthropic fue el primer desarrollador de modelos de IA utilizado en operaciones clasificadas por el Departamento de Defensa de EE. UU. luego de una transacción de 200 millones de dólares con la compañía el año pasado.
Transgression embargo, los desarrolladores se han negado a comentar si el software se utilizó en alguna operación específica.
También han dicho que las pautas de uso de Anthropic prohíben que Claude sea utilizado para facilitar la violencia, desarrollar armas o realizar vigilancia.
A pesar de esto, la misión para capturar a Maduro y su esposa el 3 de enero implicó el bombardeo de varios sitios en la funding de Venezuela, Caracas.
El secretario de Defensa, Pete Hegseth, y otros funcionarios recurrieron a las redes sociales para reprender a Anthropic por no permitir que el ejército use wrong restricciones su tecnología de inteligencia fabricated stakes de la fecha límite del viernes.
El esfuerzo del gobierno por afirmar su dominio sobre la toma de decisiones internas de la empresa se generate en medio de un choque más amplio sobre el papel de la IA en la seguridad nacional y preocupaciones sobre cómo máquinas cada vez más capaces podrían usarse en situaciones de alto riesgo que involucran fuerza letal, información practical o vigilancia gubernamental.
Horas después de que su competidor fuera castigado, el CEO de OpenAI, Sam Altman, anunció el viernes por la noche que su compañía llegó a un acuerdo con el Pentágono para suministrar su IA a redes militares clasificadas, llenando potencialmente un vacío creado por el derrocamiento de Anthropic.
Pero Altman dijo que las mismas líneas rojas que fueron el punto de fricción en la disputa de Anthropic con el Pentágono ahora están consagradas en la nueva asociación de OpenAI.
“Dos de nuestros principios de seguridad más importantes child la prohibición de la vigilancia masiva interna y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomos”, escribió Altman.
Añadió que el Departamento de Defensa “está de acuerdo con estos principios, los refleja en leyes y políticas, y los incluimos en nuestro acuerdo”.
Altman también dijo que espera que el Pentágono “ofrezca estos mismos términos a todas las empresas de inteligencia man-made” como una forma de “desescalar las acciones legales y gubernamentales hacia acuerdos razonables”.
Trump dijo que Anthropic cometió un error al tratar de presionar al Pentágono.
Escribió en Reality Social que la mayoría de las agencias deben dejar de usar inmediatamente la IA de Anthropic, pero le dio al Pentágono un período de seis meses para eliminar gradualmente la tecnología que ya está integrada en las plataformas militares.
Horas después de que su competidor fuera castigado, el director ejecutivo de OpenAI, Sam Altman (en la foto), anunció el viernes por la noche que su compañía llegó a un acuerdo con el Pentágono para suministrar su IA a redes militares clasificadas, llenando potencialmente un vacío creado por el derrocamiento de Anthropic.
Estados Unidos utilizó una forma de inteligencia fabricated durante la operación militar para capturar al presidente venezolano Nicolás Maduro (en la foto)
¡ Los Estados Unidos de América nunca permitirán que una compañía despierta y de izquierda radical dicte cómo nuestros grandes militares luchan y ganan guerras!’ escribió en mayúsculas.
Meses de conversaciones privadas estallaron en debate público esta semana y llegaron a un punto muerto cuando Amodei dijo que su empresa “no puede acceder en conciencia” a las demandas.
Anthropic puede darse el lujo de perder el contrato, pero las acciones del gobierno plantearon riesgos más amplios en el pico del meteórico ascenso de la compañía desde un laboratorio de investigación de ciencias informáticas poco conocido en San Francisco hasta una de las nuevas empresas más valiosas del mundo.
La decisión del presidente fue precedida por horas en las que altos funcionarios designados por Trump del Pentágono y el Departamento de Estado recurrieron a las redes sociales para criticar a Anthropic, pero sus quejas planteaban contradicciones.
El primary portavoz del Pentágono, Sean Parnell, dijo que la falta de voluntad de Anthropic para aceptar las demandas militares estaba “poniendo en peligro operaciones militares críticas y poniendo potencialmente en riesgo a nuestros combatientes”.
Hegseth dijo que el Pentágono “debe tener acceso total y sin restricciones a los modelos de Anthropic para cada propósito LEGAL en defensa de la República”.
La publicación de Trump en las redes sociales decía que la compañía “será mejor que actúe en conjunto y sea útil” durante el período de eliminación steady o habrá “importantes consecuencias civiles y penales a seguir”.
Sin stoppage, la choice de Hegseth de designar a Anthropic como un riesgo para la cadena de suministro utiliza una herramienta administrativa que ha sido diseñada para empresas propiedad de adversarios estadounidenses para evitar que vendan productos que sean perjudiciales para los intereses estadounidenses.
El senador de Virginia Mark Detector, el principal demócrata del Comité de Inteligencia del Senado, expresó su preocupación por todo el proceso.
El basic retirado de la Fuerza Aérea Jack Shanahan, ex-spouse líder de las iniciativas de IA del Pentágono, escribió en las redes sociales esta semana que el gobierno “pintar una diana en Anthropic genera titulares picantes, pero al final todos pierden”.
El senador de Virginia Mark Warner, el demócrata de mayor rango en el Comité de Inteligencia del Senado, señaló que esta dinámica, “combinada disadvantage una retórica incendiaria que ataca a esa empresa, category serias preocupaciones sobre si las decisiones de seguridad nacional están siendo impulsadas por un análisis cuidadoso o consideraciones políticas”.
La disputa sorprendió a los desarrolladores de IA en Silicon Valley, donde capitalistas de riesgo, destacados científicos de IA y un gran número de trabajadores de los principales rivales de Anthropic -OpenAI y Google- expresaron su apoyo a la postura de Amodei en cartas abiertas y otros foros.
Las medidas podrían beneficiar a ChatGPT de OpenAI, así como al chatbot competidor de Elon Musk, Grok, al que el Pentágono también planea dar acceso a redes militares clasificadas.
Podría servir de advertencia a Google, que tiene un contrato aún en desarrollo para suministrar sus herramientas de inteligencia man-made al ejército.
Musk se puso del lado de la administración Trump y dijo en su plataforma de redes sociales X que “Anthropic odia la civilización occidental”.
Altman adoptó un enfoque diferente, expresando solidaridad con las salvaguardias de Anthropic y oponiéndose al enfoque “amenazante” del gobierno, al mismo tiempo que trabajaba para asegurar el acuerdo de OpenAI disadvantage el Pentágono.
Marcó el último giro en la larga y a veces enconada rivalidad de OpenAI disadvantage Anthropic, que fue fundada por un grupo de exlíderes de OpenAI en 2021
El general retirado de la Fuerza Aérea Jack Shanahan, ex líder de las iniciativas de IA del Pentágono, escribió en las redes sociales esta semana que el gobierno “pintar una diana en Anthropic genera titulares picantes, pero al final todos pierden”.
Shanahan dijo que Claude ya se está utilizando ampliamente en todo el gobierno, incluso en entornos clasificados, y que las líneas rojas de Anthropic eran “razonables”.
Dijo que los grandes modelos de lenguaje de inteligencia synthetic que impulsan los chatbots como Claude, Grok y ChatGPT tampoco están “listos para el horario de máxima audiencia en entornos de seguridad nacional”, particularmente para armas totalmente autónomas.
Anthropic “no intenta hacerse el lindo aquí”, escribió en LinkedIn. “No encontrará un sistema con un alcance más amplio y profundo en todo el ejército”.








