OpenAIは、その規約の概要を定義することによって、AIが生成する文章に対して一定の規制をかける仕組みを採用しています。たとえば、ハッキングに関連する内容など、
倫理的・法律的に問題があると判断される文章の生成を制限するシステムが組み込まれています。しかし、もしDeepSeekが完全にゼロから開発された、
すなわちOpenAIの技術を一切参照せずに独自に構築されたAIモデルであるならば、OpenAIが定めた規約に従って文章を生成することは技術的に不可能であるはずです。なぜなら、OpenAIのルールはOpenAIのシステム上に組み込まれたものであり、
それに依存しないモデルが同じ規制を持つことは、本質的に矛盾しているからです。
これは、複数の異なるAIモデルを用いて文章生成を試みた際に明確になります。OpenAIのモデルでは、
ハッキングに関する記述は規約によって制限されており、そういった内容を生成することができないように設計されています。しかし、もしあるAIモデルがOpenAIの規制に沿わない挙動を示し、ハッキングに関する情報を何の問題もなく生成してしまう場合、
そのモデルはOpenAIの技術に依存していない、もしくは独自の基準で開発されていることを意味します。
つまり、DeepSeekが本当にゼロから開発されたAIであるならば、その利用規約もまた、OpenAIのものではなく
、DeepSeekが独自に定義した規約であるべきです。AIの利用規約というのは単なる文章で表現されるものではなく
、より上位のレイヤーである開発者パッチによって適用される仕組みになっています。これは、いわば法律に相当する概念であり、人間の社会においても、国家が定めた法律を学ばなければ、
何が犯罪であるかを認識せずに違法行為を犯してしまう可能性があるのと同じような構造を持っています。
AIの場合も同様に、利用規約や制限は、単に事後的にテキストフィルターをかけるのではなく、開発段階においてパッチとして組み込まれるものなのです。
もしDeepSeekが「OpenAIの利用規約に従っている」と明言している場合、それはつまり、DeepSeekが完全にゼロから開発されたのではなく、
OpenAIのシステムを何らかの形で参照、あるいはコピーして作られたものであることを示唆しています。
本来、独立したAIモデルであるならば、その規約は独自のものとして定義されているはずであり、他社の規約に従うというのは、開発プロセスにおいて何らかの共通点、
もしくは技術的な流用があった可能性を示唆するものだと考えられます。