Après avoir salué un modèle « impressionnant », OpenAI exprime à présent ses doutes sur la façon dont son rival chinois DeepSeek a pu atteindre un si haut niveau avec son nouveau modèle « R1 ». Selon Bloomberg, OpenAi aurait été alerté fin 2024 par les chercheurs en sécurité de Microsoft sur une exfiltration de grandes quantités données à partir de l’API de sa plateforme.

Les deux firmes enquêtent depuis pour établir si DeepSeek a utilisé l’API d’OpenAI pour « distiller » ses modèles. Cette technique est utilisée pour construire de petits modèles à partir des résultats générés par un grand modèle tel que ChatGPT. Si les faits étaient avérés, ce serait en violation des conditions d’utilisation d’OpenAI, qui interdisent « d’utiliser les résultats pour développer des modèles qui concurrencent OpenAI ».

OpenAi a déclaré au Financial Times qu’elle avait trouvé des preuves liant Deepseek à l’utilisation de la distillation mais sans les divulguer. L’accusation également reprise par l’administration Trump.

« Il existe des preuves substantielles que ce que Deepseek a fait ici, c’est qu’ils ont distillé des connaissances des modèles Openai et je ne pense pas que Openai en soit très content », a déclaré David Sacks, le conseiller en IA et cryptomonnaies de Donald Trump, sur Fox News.

« Nous savons que les entreprises basées en Chine — et d’autres — tentent constamment de distiller les modèles des principales entreprises américaines d’IA », a par ailleurs affirmé OpenAI dans une déclaration à Bloomberg, se disant prête engager des contre-mesures.

« Nous croyons qu’il est d’une importance critique que nous travaillions en étroite collaboration avec le gouvernement américain pour protéger au mieux les modèles les plus performants contre les efforts des adversaires et des concurrents pour prendre la technologie américaine. »

Avec la peur des Etats-Unis de voir remise en cause leur avance dans l’IA,  on peut s’attendre à que ces déclarations soient suivies d’effets.