Newsbit
Ver app
Ver

Las fuerzas armadas estadounidenses utilizaron recientemente a Claude en sus ataques contra Irán, a pesar de que el presidente Donald Trump había emitido previamente una prohibición al respecto.

El modelo de IA de Anthropic fue catalogado como un «riesgo para la seguridad nacional» y OpenAI, la empresa detrás de ChatGPT, firmó un acuerdo con el Departamento de Defensa.

Claude opera en Irán

Según el Wall Street Journal, el Comando Central de Estados Unidos (CENTCOM) empleó a Claude para tareas militares clave como el análisis de inteligencia, la identificación de objetivos y la simulación de escenarios de combate.

El modelo ya había sido utilizado en enero de este año en una operación estadounidense que resultó en el arresto del presidente venezolano Nicolás Maduro.

Desde la mañana del sábado, Estados Unidos e Israel han realizado ataques conjuntos contra Irán, en los que ha muerto Ali Khamenei, el líder supremo de Irán. Irán ha prometido vengarse «más fuerte que nunca». Al mismo tiempo, Donald Trump ha afirmado que los bombardeos continuarán «todo el tiempo que sea necesario para alcanzar la paz».

Trump había emitido el viernes una orden que requería a todas las agencias federales dejar de usar de inmediato la tecnología de Anthropic, aunque concedió un periodo de transición de seis meses para que el Pentágono desmantele los sistemas.

“No lo necesitamos, no lo queremos y no haremos negocios con ellos nuevamente”, manifestó Trump en redes sociales. También calificó a los empleados de Anthropic de «izquierdistas locos» cuyos «actos egoístas ponen en peligro vidas estadounidenses y nuestra seguridad nacional».

El conflicto entre Anthropic y el Pentágono, la cúpula de defensa estadounidense, llevaba meses. El departamento exigía acceso militar ilimitado a Claude, pero Anthropic se negó a eliminar sus límites de seguridad en torno a armas autónomas y vigilancia masiva, lo que incrementó las tensiones.

El viernes, antes de la medida de Trump, el Departamento de Defensa decidió calificar a Anthropic como un «riesgo para la seguridad nacional en la cadena de suministro». Anthropic expresó estar «profundamente consternado» y anunció que impugnará legalmente la clasificación.

OpenAI se adelanta

Tras la prohibición a Anthropic, era necesario encontrar rápidamente un sustituto y OpenAI fue la solución. El viernes, el CEO Sam Altman anunció el acuerdo.

OpenAI se mostró dispuesto a colaborar dentro de los marcos de defensa existentes sin un conflicto público sobre las condiciones de uso, lo que facilitó la concreción del acuerdo tanto a nivel político como administrativo.

Simultáneamente, OpenAI, al igual que Anthropic, mantiene líneas rojas: no a la vigilancia masiva interna y no a las armas completamente autónomas sin control humano. La diferencia parece radicar menos en el contenido de esas restricciones y más en la manera en que se negociaron y en cómo se manejó la confrontación públicamente.

El gigante de chips TSMC crece impulsado por la IA: presión en la producción

El gigante de chips TSMC crece impulsado por la IA: presión en la producción

El gigante de chips TSMC crece impulsado por la IA: presión en la producción
13 barcos dan la vuelta en Hormuz: El Pentágono informa sobre el resultado inicial del bloqueo
El oro sube con fuerza, pero surgen grietas bajo la superficie
Más Bolsa news

Más leídos

Los criptopirateos se duplican en marzo: más de 52 millones de dólares robados en un mes
Piratas informáticos norcoreanos continúan azotando el sector cripto: 168 millones robados en el primer trimestre
Irán rechaza la tregua; Trump mantiene el ultimátum: se acerca la fecha límite