Anthropic retoma conversaciones con el Departamento de Defensa de Estados Unidos, a pesar de que la relación parecía haberse estancado por completo en los últimos días. La empresa de inteligencia artificial detrás de Claude no quiere que su tecnología se utilice para la vigilancia masiva doméstica o armas autónomas letales. No obstante, el CEO Dario Amodei intenta reactivar las negociaciones, según informan Financial Times y Bloomberg.

La cláusula ética fue un punto de ruptura

La disputa se centraba en el texto contractual que el Pentágono quiere usar para acceder a Claude. Según Financial Times, una sección sobre el análisis de datos recopilados a gran escala resultaba especialmente sensible. Anthropic ve esto como una vía hacia aplicaciones que la empresa busca bloquear.

Cuando Anthropic no quiso ceder, el secretario de Defensa, Pete Hegseth, amenazó con etiquetar a la empresa como un “riesgo para la cadena de suministro”. Esta etiqueta podría tener grandes repercusiones, ya que podría disuadir a proveedores y socios de seguir colaborando con Anthropic. The Verge describe que esta medida fue tomada tras intentos del Pentágono de otorgar más margen a Anthropic para el uso militar.

Por qué Anthropic regresa a las negociaciones

El hecho de que Anthropic vuelva a dialogar parece un intento de limitar daños. La empresa se posiciona como principista, pero al mismo tiempo no puede permitirse quedar fuera de los contratos gubernamentales estadounidenses. Se habla de un acuerdo de doscientos millones de dólares para el uso de la tecnología de Anthropic en seguridad nacional.

Según Financial Times, Amodei está conversando con el subsecretario Emil Michael para salvar las negociaciones. Al mismo tiempo, se percibe una fuerte irritación de fondo. El artículo describe cómo el tono entre ambas partes se ha endurecido en el último periodo.

Para el mercado tecnológico y de inteligencia artificial en general, es una señal de que las normas sobre aplicaciones “permitidas” de IA aún no están claras. Esto no solo afecta a los contratos de defensa, sino también a la cuestión de cuán estrictas pueden ser las empresas al establecer límites de seguridad sin perder clientes o el apoyo gubernamental.

OpenAI interviene y recibe críticas inmediatas

Cuando Anthropic fue temporalmente desplazada, OpenAI pudo rápidamente acercarse al Pentágono. Sin embargo, esa prisa jugó en contra de la empresa. Sam Altman admitió poco después que OpenAI no debió haber acelerado el acuerdo y que podría parecer “oportunista y descuidado”. OpenAI aseguró que ajustará los términos, con restricciones adicionales sobre vigilancia y el uso de IA sin control humano.

Esto hace que la situación sea especialmente compleja para Anthropic. Si OpenAI encuentra un lenguaje contractual que el Pentágono acepte, se establecerá un precedente difícil de eludir para otras empresas de IA. Si Anthropic logra regresar con sus propias condiciones, podría establecer un estándar para restricciones más estrictas en el uso militar de la IA.

Sector bancario de EAU se mantiene estable pese a tensiones tras ataques con drones y misiles

Sector bancario de EAU se mantiene estable pese a tensiones tras ataques con drones y misiles

Sector bancario de EAU se mantiene estable pese a tensiones tras ataques con drones y misiles
Gigantes tecnológicos firman acuerdo con Trump sobre costos energéticos de la IA
Europa teme nueva crisis energética por conflicto en Medio Oriente
Más Bolsa news

Más leídos

Fundador de Wikipedia considera que Bitcoin ha fracasado y predice una caída por debajo de 10,000 dólares
Informe de IA advierte sobre ‘economía fantasma’ y desempleo masivo
¿Cuándo volverá a subir el precio de XRP? Esto dice la IA
Newsbit
Ver app
Ver