Newsbit
Ver app
Ver

La cúpula de defensa de Estados Unidos ha dado un ultimátum a la empresa de inteligencia artificial Anthropic, conocida por su chatbot Claude. La compañía debe aceptar antes del viernes un mayor uso militar de sus modelos de IA, o se enfrentará a la intervención bajo una ley de emergencia de la Guerra Fría. Así, se intensifica la lucha por decidir quién establece cómo se utiliza la inteligencia artificial en la guerra y la vigilancia.

El Pentágono amenaza con medidas drásticas

Anthropic tiene poco más de 24 horas para responder a una «propuesta final» del Departamento de Defensa. Si no lo hace, el secretario de Defensa Pete Hegseth planea invocar la Defense Production Act.

Esa ley, promulgada en 1950, otorga al presidente amplios poderes para obligar a las empresas a poner su tecnología a disposición de la seguridad nacional. La ley se utilizó anteriormente durante la Guerra Fría y hace algunos años en la pandemia de coronavirus.

Además, el Pentágono amenaza con catalogar a Anthropic como un «riesgo para la cadena de suministro». Esta etiqueta se suele aplicar a empresas que representan un riesgo para la cadena de suministro, a menudo debido a vínculos con estados hostiles. Una medida así podría detener de golpe la colaboración con defensa y grandes contratistas.

Según los medios estadounidenses, Anthropic se opuso en una reunión al uso de su IA para vigilancia masiva interna y para sistemas de armas autónomos, en los que la IA selecciona objetivos de manera independiente. El Pentágono niega que ese sea el objetivo y sostiene que siempre cumple con la ley.

«Cumplir la ley es responsabilidad del Pentágono como usuario final», señaló un funcionario de defensa.

Lucha por el control de la IA militar

La disputa gira en torno a un contrato de 200 millones de dólares dentro de un programa piloto de IA del Pentágono. También participan OpenAI, Google y xAI de Elon Musk.

Mientras que los competidores parecen dispuestos a ofrecer sus modelos bajo el principio de ‘para todos los fines legales’, Anthropic se mantiene fiel a sus propias reglas de uso. La empresa no quiere involucrarse explícitamente en la vigilancia masiva de ciudadanos estadounidenses ni en armas autónomas letales.

Esto toca una cuestión más amplia: ¿quién establece los límites de la inteligencia artificial? ¿El ejército, que utiliza la tecnología, o la empresa tecnológica que desarrolla los modelos?

Anthropic fue fundada en 2021 por antiguos empleados de OpenAI que querían hacer hincapié en la seguridad. El director ejecutivo, Dario Amodei, advirtió anteriormente que una IA poderosa sin fuertes garantías conlleva grandes riesgos.

Para el Pentágono, también está en juego mucho. La IA juega un papel cada vez más importante en el análisis militar, la logística y la toma de decisiones. Quien domine la tecnología tendrá una ventaja estratégica.

¿Quién sabía lo que iba a decir Trump? La CFTC investiga operaciones sospechosas en el mercado petrolero

¿Quién sabía lo que iba a decir Trump? La CFTC investiga operaciones sospechosas en el mercado petrolero

¿Quién sabía lo que iba a decir Trump? La CFTC investiga operaciones sospechosas en el mercado petrolero
Janet Yellen critica duramente a Trump: presión sobre la Fed es como de una ‘república bananera’
El S&P 500 gana casi 6 billones de dólares en 2 semanas: récord a la vista
Más Bolsa news

Más leídos

Los criptopirateos se duplican en marzo: más de 52 millones de dólares robados en un mes
Piratas informáticos norcoreanos continúan azotando el sector cripto: 168 millones robados en el primer trimestre
Irán rechaza la tregua; Trump mantiene el ultimátum: se acerca la fecha límite