Newsbit
Ver app
Ver

La empresa de inteligencia artificial Anthropic ha afirmado ser el objetivo de ataques de «destilación» a gran escala por parte de tres compañías chinas de inteligencia artificial. Según la compañía, DeepSeek, Moonshot y MiniMax realizaron más de 16 millones de interacciones con el chatbot Claude a través de unos 24.000 cuentas fraudulentas.

16 millones de interacciones con Claude

En una entrada de blog, Anthropic afirma que las tres empresas recopilaron sistemáticamente datos de Claude, su modelo de lenguaje a gran escala, mediante decenas de miles de cuentas falsas que generaron más de 16 millones de interacciones.

El objetivo sería la llamada destilación, una técnica de entrenamiento en la que un modelo más pequeño o menos potente aprende de la salida de un modelo más fuerte. Es como si un estudiante copiara las respuestas del maestro para volverse más inteligente.

“La destilación es un método de entrenamiento común y legítimo. Los principales laboratorios de inteligencia artificial destilan rutinariamente sus propios modelos para crear versiones más pequeñas y económicas para sus clientes,” escribe Anthropic.

“Sin embargo, la destilación también puede usarse con fines ilícitos: los competidores podrían emplearla para adquirir capacidades avanzadas de otros laboratorios en una fracción del tiempo y del coste que les llevaría desarrollarlas por sí mismos,” añade la empresa.

Según Anthropic, las campañas se centraron en las funciones más distintivas de Claude, como el razonamiento agente, la programación, el análisis de datos y la visión por computadora.

Anthropic es un desarrollador de inteligencia artificial estadounidense y un competidor directo de OpenAI. A principios de este mes, Anthropic volvió a ser noticia con una ronda de financiación planificada de más de 20.000 millones de dólares, lo que podría elevar su valoración a aproximadamente 350.000 millones de dólares.

Aumentan las preocupaciones geopolíticas

Las tres empresas mencionadas están ubicadas en China y tienen valoraciones multimillonarias. DeepSeek es la más conocida a nivel internacional.

Anthropic afirma haber identificado a las partes involucradas mediante la correlación de direcciones IP, metadatos de solicitudes y características de infraestructura. También se habría observado un comportamiento similar en sus plataformas por parte de socios de la industria.

La empresa extiende el problema más allá de la propiedad intelectual. “Los laboratorios extranjeros que destilan modelos estadounidenses pueden luego alimentar estas capacidades no protegidas a sistemas militares, de inteligencia y de vigilancia, permitiendo a gobiernos autoritarios utilizar inteligencia artificial avanzada para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva,” según Anthropic.

Son palabras contundentes. Se teme que la avanzada inteligencia artificial estadounidense termine en sistemas militares o de vigilancia a través de vías indirectas.

Anthropic dice que está fortaleciendo su seguridad, incluyendo controles de acceso más estrictos y mejores sistemas de detección. También insta a las empresas tecnológicas estadounidenses, a los proveedores de servicios en la nube y a los responsables políticos a tomar medidas conjuntas.

De socio de Ripple a capitalista de riesgo: SBI lanza fondo de 100 millones de dólares

De socio de Ripple a capitalista de riesgo: SBI lanza fondo de 100 millones de dólares

De socio de Ripple a capitalista de riesgo: SBI lanza fondo de 100 millones de dólares
Otro empresa cripto que reduce personal: StarkWare reorganiza y recorta empleos
Polymarket apareció accidentalmente en Google News: Google lo considera un error
Más Tech news

Más leídos

Los criptopirateos se duplican en marzo: más de 52 millones de dólares robados en un mes
Despertador cripto: Bitcoin se dispara ante la esperanza de un fin cercano a la guerra con Irán
Piratas informáticos norcoreanos continúan azotando el sector cripto: 168 millones robados en el primer trimestre