OpenAI、Anthropic、Googleの米AI大手3社が、中国企業による「敵対的蒸留(adversarial distillation)」への対策で連携することがBloombergなどの報道で明らかになりました。これはFrontier Model Forumという業界団体を通じた情報共有スキームで、サービス利用規約に違反する形でモデルの挙動を吸い出そうとする試みを検出するものです。
敵対的蒸留とは、APIに大量の質問を投げて回答を集め、別のモデルを訓練する素材として使う手法を指します。これによって、自分でゼロから学習させなくても、商用APIへの問い合わせだけで似た挙動の小型モデルを作れてしまう可能性があります。中国のAIスタートアップが急速に米国モデルに迫っている背景には、こうした手法の存在が指摘されてきました。
今回の連携では、各社がアクセスログ・問い合わせパターン・利用規約違反の証跡を持ち寄り、一定の基準に該当するアカウントへのアクセス制限を共同で進めるとみられます。一方で、研究目的の正当な利用と敵対的蒸留の境界線は明確ではなく、過剰なブロックが学術コミュニティに影響を与える懸念もあります。米中の技術競争がモデルの「使い方」のレベルにまで及び始めた象徴的な動きです。