La cúpula de defensa de Estados Unidos ha dado un ultimátum a la empresa de inteligencia artificial Anthropic, conocida por su chatbot Claude. La compañía debe aceptar antes del viernes un mayor uso militar de sus modelos de IA, o se enfrentará a la intervención bajo una ley de emergencia de la Guerra Fría. Así, se intensifica la lucha por decidir quién establece cómo se utiliza la inteligencia artificial en la guerra y la vigilancia.

El Pentágono amenaza con medidas drásticas

Anthropic tiene poco más de 24 horas para responder a una «propuesta final» del Departamento de Defensa. Si no lo hace, el secretario de Defensa Pete Hegseth planea invocar la Defense Production Act.

Esa ley, promulgada en 1950, otorga al presidente amplios poderes para obligar a las empresas a poner su tecnología a disposición de la seguridad nacional. La ley se utilizó anteriormente durante la Guerra Fría y hace algunos años en la pandemia de coronavirus.

Además, el Pentágono amenaza con catalogar a Anthropic como un «riesgo para la cadena de suministro». Esta etiqueta se suele aplicar a empresas que representan un riesgo para la cadena de suministro, a menudo debido a vínculos con estados hostiles. Una medida así podría detener de golpe la colaboración con defensa y grandes contratistas.

Según los medios estadounidenses, Anthropic se opuso en una reunión al uso de su IA para vigilancia masiva interna y para sistemas de armas autónomos, en los que la IA selecciona objetivos de manera independiente. El Pentágono niega que ese sea el objetivo y sostiene que siempre cumple con la ley.

«Cumplir la ley es responsabilidad del Pentágono como usuario final», señaló un funcionario de defensa.

Lucha por el control de la IA militar

La disputa gira en torno a un contrato de 200 millones de dólares dentro de un programa piloto de IA del Pentágono. También participan OpenAI, Google y xAI de Elon Musk.

Mientras que los competidores parecen dispuestos a ofrecer sus modelos bajo el principio de ‘para todos los fines legales’, Anthropic se mantiene fiel a sus propias reglas de uso. La empresa no quiere involucrarse explícitamente en la vigilancia masiva de ciudadanos estadounidenses ni en armas autónomas letales.

Esto toca una cuestión más amplia: ¿quién establece los límites de la inteligencia artificial? ¿El ejército, que utiliza la tecnología, o la empresa tecnológica que desarrolla los modelos?

Anthropic fue fundada en 2021 por antiguos empleados de OpenAI que querían hacer hincapié en la seguridad. El director ejecutivo, Dario Amodei, advirtió anteriormente que una IA poderosa sin fuertes garantías conlleva grandes riesgos.

Para el Pentágono, también está en juego mucho. La IA juega un papel cada vez más importante en el análisis militar, la logística y la toma de decisiones. Quien domine la tecnología tendrá una ventaja estratégica.

El minero de Bitcoin MARA pierde 1.700 millones de dólares y apuesta ahora por centros de datos de IA

El minero de Bitcoin MARA pierde 1.700 millones de dólares y apuesta ahora por centros de datos de IA

El minero de Bitcoin MARA pierde 1.700 millones de dólares y apuesta ahora por centros de datos de IA
Block de Jack Dorsey reduce un 50% su plantilla: 4.000 empleos eliminados por IA
Netflix se retira de la compra de Warner Bros: acciones suben un 13%
Más Bolsa news

Más leídos

El precio de XRP podría duplicarse con la solicitud de ETF de BlackRock, según analista
Logan Paul vende tarjeta Pokémon por 16 millones de dólares
¿Cuándo volverá a subir el precio de XRP? Esto dice la IA
Newsbit
Ver app
Ver