La empresa de inteligencia artificial Anthropic, creadora del chatbot Claude, ha presentado una demanda contra el Departamento de Defensa de Estados Unidos. El Pentágono pretende incluir a Anthropic en una lista negra porque la empresa se niega a eliminar las restricciones de su IA. Anthropic establece un límite claro: no a las armas autónomas ni a la vigilancia de ciudadanos estadounidenses.

Pentágono sanciona a Anthropic por negativa

El secretario de Defensa, Pete Hegseth, incluyó formalmente a Anthropic en una lista negra de la cadena de seguridad nacional la semana pasada. Esto limita el uso de la tecnología de la empresa por parte de las agencias gubernamentales estadounidenses.

La razón: Anthropic se niega a modificar sus llamados guardrails. La empresa tiene restricciones incorporadas que evitan que su IA se utilice para armas autónomas o vigilancia masiva de ciudadanos.

Según el Pentágono, las empresas privadas no deberían dictar al ejército cómo utilizar la tecnología. La legislación estadounidense establece lo que está permitido, no las condiciones de una empresa de IA, según Defensa.

Anthropic sostiene que la medida es ilegal y viola los derechos fundamentales.

Trump detiene cooperación, OpenAI ocupa el espacio

El presidente Trump ordenó detener por completo la cooperación con Anthropic. Habrá un período de transición de seis meses para finalizar los proyectos en curso. Esto afecta gravemente a Anthropic: el Pentágono cerró el año pasado acuerdos de hasta 200 millones de dólares con varias empresas de IA, incluidas Anthropic, OpenAI y Google.

La sincronización de lo que ocurrió después es reveladora. Poco después de la decisión, OpenAI anunció que su tecnología se utilizará más ampliamente dentro de la red de defensa estadounidense. El CEO Sam Altman dijo que OpenAI comparte el principio de que siempre debe haber supervisión humana en los sistemas de armas, pero la empresa claramente no establece los mismos límites estrictos que Anthropic.

¿Quién decide cómo se utiliza la IA en la guerra?

La demanda plantea una pregunta fundamental. ¿Pueden las empresas tecnológicas establecer límites a cómo se utiliza militarmente su propia tecnología? ¿O es el gobierno quien lo decide?

Anthropic considera que los sistemas de IA actuales no son lo suficientemente confiables para armas totalmente autónomas. El riesgo de escaladas incontroladas es demasiado grande. La empresa también traza una línea clara en la vigilancia interna: usar IA para monitorear a ciudadanos estadounidenses es, según Anthropic, una violación de derechos fundamentales.

El Pentágono busca máxima flexibilidad y considera que una empresa privada no debe tomar esa decisión. El caso, presentado en un tribunal federal en California, podría determinar cuánta autoridad mantienen las empresas tecnológicas sobre su propia tecnología una vez que esta llega a manos militares.

La corrección bursátil podría estar cerca de su fin, según analistas de grandes bancos

La corrección bursátil podría estar cerca de su fin, según analistas de grandes bancos

La corrección bursátil podría estar cerca de su fin, según analistas de grandes bancos
Previsión semanal: lo que debes saber sobre Bitcoin, petróleo y oro esta semana
Trump evalúa medidas de emergencia tras histórico aumento del precio del petróleo
Más Bolsa news

Más leídos

Fundador de Wikipedia considera que Bitcoin ha fracasado y predice una caída por debajo de 10,000 dólares
Informe de IA advierte sobre ‘economía fantasma’ y desempleo masivo
CEO de Ripple: exjefe de la SEC Gensler se disculpó en la Casa Blanca
Newsbit
Ver app
Ver