El alto mando de defensa de Estados Unidos y la empresa de inteligencia artificial Anthropic están en desacuerdo sobre el uso de la inteligencia artificial en el ejército. Las negociaciones para extender un contrato se han estancado, ya que Anthropic desea imponer restricciones adicionales a su modelo de IA Claude. Por su parte, el Pentágono busca más libertad para utilizar la tecnología, siempre que se cumpla con la ley.
La discusión toca una cuestión delicada: ¿hasta dónde puede llegar el gobierno con sistemas de IA potentes que podrían usarse para vigilancia y aplicaciones militares?
Anthropic busca imponer límites al uso militar de la IA
Según fuentes cercanas, Anthropic quiere establecer restricciones explícitas en su modelo de IA Claude. La empresa pretende evitar que la tecnología se utilice para la vigilancia masiva de ciudadanos estadounidenses o para el desarrollo de armas que puedan operar sin intervención humana.
Esto la coloca en conflicto con el Pentágono. El Departamento de Defensa de Estados Unidos busca utilizar Claude de la manera más amplia posible, siempre que su uso se mantenga dentro del marco legal. Axios informó previamente sobre esta diferencia de opiniones.
Anthropic se presenta como una empresa de IA que prioriza la seguridad y la ética. Desea poner modelos potentes a disposición de los gobiernos, pero solo bajo condiciones estrictas. Desde esa perspectiva, desarrolló Claude Gov, una versión especial para los servicios de seguridad nacional de Estados Unidos.
Claude Gov está diseñado para procesar información sensible, como documentos clasificados, informes de inteligencia y datos complejos de ciberseguridad. Según Anthropic, incluso esta variante gubernamental debe cumplir con los principios de seguridad propios de la empresa.
Un portavoz de Anthropic subraya que la empresa “está comprometida con el uso de IA avanzada para apoyar la seguridad nacional de EE. UU.” y menciona «conversaciones constructivas de buena fe» con el Departamento de Defensa.
Sean Parnell, portavoz del Pentágono, indica en una declaración escrita que la relación con Anthropic se está revisando. Según él, la seguridad nacional requiere que los socios estén dispuestos a apoyar a los militares estadounidenses en cualquier situación.
El Pentágono también considera ChatGPT y otros modelos de IA
En círculos de defensa, Anthropic ya se considera un posible riesgo en la cadena de suministro. El Departamento de Defensa podría incluso exigir a los proveedores que certifiquen que no utilizan los modelos de la empresa.
Esto podría abrir oportunidades para los competidores. Otras empresas de IA, como OpenAI con ChatGPT, Google con Gemini y xAI con Grok, están colaborando con el Pentágono para que sus modelos cumplan con el uso legal dentro de la defensa, según fuentes.
El año pasado, Anthropic firmó un acuerdo de dos años con el Pentágono para un prototipo de Claude Gov y Claude for Enterprise. El resultado de las actuales negociaciones podría ser indicativo para futuras conversaciones con otros proveedores de IA.
La tensión aumenta: Irán cierra parcialmente el Estrecho de Ormuz durante negociaciones con EE.UU.
Irán bloquea partes del Estrecho de Ormuz durante nuevas conversaciones con EE.UU., elevando tensiones y precios del petróleo a nivel mundial.
Analista advierte: el mercado de acciones podría seguir cayendo hasta 2026
Mark Newton de Fundstrat anticipa un 2026 muy débil y problemático para los mercados de acciones. ¿Por qué es tan pesimista?
S&P 500 y Nasdaq en caída: inversores buscan refugio seguro
S&P 500 y Nasdaq abren a la baja debido a tensiones con Irán y crecientes dudas sobre las reducciones de tasas de la Reserva Federal.
Más leídos
¿Por qué cae tan abruptamente el precio de XRP hoy?
XRP de Ripple está experimentando una jornada difícil con una caída de precio de hasta un 10 por ciento. ¿Cuáles son las razones detrás de esta pronunciada caída?
El misterio de Satoshi se intensifica: ¿su billetera vuelve a estar activa?
La dirección de Satoshi recibe inesperadamente 2,5 BTC. ¿Está vivo? La transacción misteriosa genera interrogantes en la comunidad cripto.
Herramienta de IA de Anthropic desata pánico en los mercados bursátiles: miles de millones en capitalización se esfuman
Una nueva herramienta de IA de Anthropic genera inquietud en la bolsa, presionando fuertemente las acciones de software y financieras a nivel mundial.