
Justo unas horas después de que David Sacks afirmara que DeepSeek utilizó los modelos de OpenAI para entrenar sus propios modelos, Bloomberg Law informa que Microsoft está investigando el uso de la interfaz de programación de aplicaciones (API) de OpenAI por parte de DeepSeek.
Según investigadores de seguridad que trabajan para Microsoft, la empresa china detrás del modelo de razonamiento R1 puede haber extraído una gran cantidad de datos utilizando la API de OpenAI en el otoño de 2024. Microsoft, que también es el accionista mayoritario de OpenAI, notificó a OpenAI sobre la actividad sospechosa.
Si bien cualquiera puede registrarse y acceder a la API de OpenAI, los términos de servicio de la empresa estipulan que no se puede utilizar la salida para entrenar un nuevo modelo de IA.
“Está prohibido […] usar la salida para desarrollar modelos que compitan con OpenAI,” escribe la empresa en sus términos de uso. Además, la empresa dice que no se puede “extraer datos o salida automáticamente o programáticamente.”
El problema principal parece provenir de la destilación, un método utilizado por desarrolladores de modelos de IA para extraer conocimiento de otro modelo utilizando un tipo de comportamiento maestro-alumno. Será interesante ver si DeepSeek ha encontrado formas innovadoras de circunvalar los límites de velocidad de OpenAI y consultar su API a gran escala. En caso de que sea así, ciertamente habrá ramificaciones legales.